TY - THES A1 - Lobedan, Ben T1 - "The mightiest critic is the public voice" BT - Anglo-African newspapers in British West Africa, 1874-1914 N2 - In ihrer Praxis wird die aus verschiedenen Disziplinen hervorgegangene colonial discourse theory häufig für ihre totalisierenden Tendenzen im Hinblick auf den Aufbau des von ihr untersuchten Diskurses und den innerhalb dieses Aufbaus herrschenden Machtverhältnissen kritisiert. Das Resultat dieser strukturellen To-talisierung ist eine komplette Entmachtung der von dem Diskurs betroffenen Sub-jekte, die folglich zu passiven Objekten degradiert werden, die nicht in der Lage sind, diesen selbst zu beeinflussen. Von dieser berechtigten Kritik ausgehend, untersucht die vorliegende Arbeit die Rolle kolonialer Subjekte in der Entstehung, der Verbreitung, aber auch der Hinterfragung und des Kritisierens des kolonialen Diskurses in der Frühphase des britischen Kolonialismus in West Afrika. Dabei werden drei für den Zeitraum zwischen 1874 und 1914 relevante Themen in den Fokus gestellt: Die Aschanti-Kriege, der Aufbau eines Bildungssystem und das Problem der „Europeanized-Africans.“ Um afrikanische Perspektiven auf diese drei Themenblöcke abzubilden, werden von der kolonialen Elite herausgebende Zeitungen als Quellmaterial konsultiert. Zunächst werden in den ersten beiden Themenblöcken die jeweiligen diskursiven Entwicklungen herausgearbeitet und gezeigt, warum die anfängliche Unterstützung der britischen Herrschaft durch die Eliten zum Ende des Jahrhunderts sukzessive abnahm. Letztlich kulminieren die in der Arbeit analysierten Tendenzen in die Entstehung des „African Regeneration“ Diskurses, der zwar das Narrativ des kolonialen Diskurses auf theoretischer Ebene umdrehen kann und Afrika als den „Zivilisierer“ Europas darstellt, auf strukturel-ler Ebene aber ein ebenso totalisierendes Bild afrikanischer und europäischer Gesellschaften zeichnet. N2 - In its practical outlook, the interdisciplinary-driven colonial discourse theory is often criticized for its totalizing tendencies regarding the structure of the exam-ined discourse and the power relations prevailing in this framework. As a result of this structural totalization, the concerned subjects got disempowered and de-graded to mere passive objects incapable of raising their voices within the dis-course. Based on this justified criticism, this thesis investigates the role colonial subjects played in the emergence, the distribution, as well as in questioning and critiquing of the colonial discourse during the initial phase of British colonialism in West Africa. The focal point lies on three themes relevant to the period be-tween 1874 and 1914: The Ashanti-Wars, the creation of an educational system, and the issue of the so-called "Europeanized Africans." Newspapers published by the colonial elite serve as the central source material in order to reconstruct Afri-can perspectives on these subjects. First, the discursive trajectory of the first two themes will be reconstructed and then shown why the initial support of the elite gradually declined towards the end of the century. Eventually, the analyzed tendencies culminated in the emergence of the "African Regeneration" discourse, which was able to reverse the colonial discourse's basic assumptions, at least on a theoretical level. Consequently, the Africans were displayed as the "civilizer" of Europe. On the structural level, however, this discourse likewise employed a to-talizing picture of African and European societies, respectively. KW - kolonialer Diskurs KW - Mediengeschichte KW - Zivilisierungsmission KW - Antikolonialismus KW - koloniale Elite KW - colonial discourse KW - media history KW - civilizing mission KW - anti colonial thought KW - colonial elite Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-575241 ER - TY - THES A1 - Hesse, Günter T1 - A benchmark for enterprise stream processing architectures T1 - Ein Benchmark für Architekturen zur Datenstromverarbeitung im Unternehmenskontext N2 - Data stream processing systems (DSPSs) are a key enabler to integrate continuously generated data, such as sensor measurements, into enterprise applications. DSPSs allow to steadily analyze information from data streams, e.g., to monitor manufacturing processes and enable fast reactions to anomalous behavior. Moreover, DSPSs continuously filter, sample, and aggregate incoming streams of data, which reduces the data size, and thus data storage costs. The growing volumes of generated data have increased the demand for high-performance DSPSs, leading to a higher interest in these systems and to the development of new DSPSs. While having more DSPSs is favorable for users as it allows choosing the system that satisfies their requirements the most, it also introduces the challenge of identifying the most suitable DSPS regarding current needs as well as future demands. Having a solution to this challenge is important because replacements of DSPSs require the costly re-writing of applications if no abstraction layer is used for application development. However, quantifying performance differences between DSPSs is a difficult task. Existing benchmarks fail to integrate all core functionalities of DSPSs and lack tool support, which hinders objective result comparisons. Moreover, no current benchmark covers the combination of streaming data with existing structured business data, which is particularly relevant for companies. This thesis proposes a performance benchmark for enterprise stream processing called ESPBench. With enterprise stream processing, we refer to the combination of streaming and structured business data. Our benchmark design represents real-world scenarios and allows for an objective result comparison as well as scaling of data. The defined benchmark query set covers all core functionalities of DSPSs. The benchmark toolkit automates the entire benchmark process and provides important features, such as query result validation and a configurable data ingestion rate. To validate ESPBench and to ease the use of the benchmark, we propose an example implementation of the ESPBench queries leveraging the Apache Beam software development kit (SDK). The Apache Beam SDK is an abstraction layer designed for developing stream processing applications that is applied in academia as well as enterprise contexts. It allows to run the defined applications on any of the supported DSPSs. The performance impact of Apache Beam is studied in this dissertation as well. The results show that there is a significant influence that differs among DSPSs and stream processing applications. For validating ESPBench, we use the example implementation of the ESPBench queries developed using the Apache Beam SDK. We benchmark the implemented queries executed on three modern DSPSs: Apache Flink, Apache Spark Streaming, and Hazelcast Jet. The results of the study prove the functioning of ESPBench and its toolkit. ESPBench is capable of quantifying performance characteristics of DSPSs and of unveiling differences among systems. The benchmark proposed in this thesis covers all requirements to be applied in enterprise stream processing settings, and thus represents an improvement over the current state-of-the-art. N2 - Data Stream Processing Systems (DSPSs) sind eine Schlüsseltechnologie, um kontinuierlich generierte Daten, wie beispielsweise Sensormessungen, in Unternehmensanwendungen zu integrieren. Die durch DSPSs ermöglichte permanente Analyse von Datenströmen kann dabei zur Überwachung von Produktionsprozessen genutzt werden, um möglichst zeitnah auf ungewollte Veränderungen zu reagieren. Darüber hinaus filtern, sampeln und aggregieren DSPSs einkommende Daten, was die Datengröße reduziert und so auch etwaige Kosten für die Datenspeicherung. Steigende Datenvolumen haben in den letzten Jahren den Bedarf für performante DSPSs steigen lassen, was zur Entwicklung neuer DSPSs führte. Während eine große Auswahl an verfügbaren Systemen generell gut für Nutzer ist, stellt es potentielle Anwender auch vor die Herausforderung, das für aktuelle und zukünftige Anforderungen passendste DSPS zu identifizieren. Es ist wichtig, eine Lösung für diese Herausforderung zu haben, da das Austauschen von einem DSPS zu teuren Anpassungen oder Neuentwicklungen der darauf laufenden Anwendungen erfordert, falls für deren Entwicklung keine Abstraktionsschicht verwendet wurde. Das quantitative Vergleichen von DSPSs ist allerdings eine schwierige Aufgabe. Existierende Benchmarks decken nicht alle Kernfunktionalitäten von DSPSs ab und haben keinen oder unzureichenden Tool-Support, was eine objektive Ergebnisberechnung hinsichtlich der Performanz erschwert. Zudem beinhaltet kein Benchmark die Integration von Streamingdaten und strukturierten Geschäftsdaten, was ein besonders für Unternehmen relevantes Szenario ist. Diese Dissertation stellt ESPBench vor, einen neuen Benchmark für Stream Processing-Szenarien im Unternehmenskontext. Der geschäftliche Kontext wird dabei durch die Verbindung von Streamingdaten und Geschäftsdaten dargestellt. Das Design von ESPBench repräsentiert Szenarien der realen Welt, stellt die objektive Berechnung von Benchmarkergebnissen sicher und erlaubt das Skalieren über Datencharakteristiken. Das entwickelte Toolkit des Benchmarks stellt wichtige Funktionalitäten bereit, wie beispielsweise die Automatisierung den kompletten Benchmarkprozesses sowie die Überprüfung der Abfrageergebnisse hinsichtlich ihrer Korrektheit. Um ESPBench zu validieren und die Anwendung weiter zu vereinfachen, haben wir eine Beispielimplementierung der Queries veröffentlicht. Die Implementierung haben wir mithilfe des in Industrie und Wissenschaft eingesetzten Softwareentwicklungsbaukastens Apache Beam durchgeführt, der es ermöglicht, entwickelte Anwendungen auf allen unterstützten DSPSs auszuführen. Den Einfluss auf die Performanz des Verwendens von Apache Beam wird dabei ebenfalls in dieser Arbeit untersucht. Weiterhin nutzen wir die veröffentlichte Beispielimplementierung der Queries um drei moderne DSPSs mit ESPBench zu untersuchen: Apache Flink, Apache Spark Streaming und Hazelcast Jet. Der Ergebnisse der Studie verdeutlichen die Funktionsfähigkeit von ESPBench und dessen Toolkit. ESPBench befähigt Performanzcharakteristiken von DSPSs zu quantifizieren und Unterschiede zwischen Systemen aufzuzeigen. Der in dieser Dissertation vorgestellte Benchmark erfüllt alle Anforderungen, um in Stream Processing-Szenarien im Unternehmenskontext eingesetzt zu werden und stellt somit eine Verbesserung der aktuellen Situation dar. KW - stream processing KW - performance KW - benchmarking KW - dsps KW - espbench KW - benchmark KW - Performanz KW - Datenstromverarbeitung KW - Benchmark Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566000 ER - TY - THES A1 - Mertzen, Daniela T1 - A cross-linguistic investigation of similarity-based interference in sentence comprehension T1 - Eine cross-linguistische Untersuchung ähnlichkeitsbasierter Interferenz in der Satzverarbeitung N2 - The aim of this dissertation was to conduct a larger-scale cross-linguistic empirical investigation of similarity-based interference effects in sentence comprehension. Interference studies can offer valuable insights into the mechanisms that are involved in long-distance dependency completion. Many studies have investigated similarity-based interference effects, showing that syntactic and semantic information are employed during long-distance dependency formation (e.g., Arnett & Wagers, 2017; Cunnings & Sturt, 2018; Van Dyke, 2007, Van Dyke & Lewis, 2003; Van Dyke & McElree, 2011). Nevertheless, there are some important open questions in the interference literature that are critical to our understanding of the constraints involved in dependency resolution. The first research question concerns the relative timing of syntactic and semantic interference in online sentence comprehension. Only few interference studies have investigated this question, and, to date, there is not enough data to draw conclusions with regard to their time course (Van Dyke, 2007; Van Dyke & McElree, 2011). Our first cross-linguistic study explores the relative timing of syntactic and semantic interference in two eye-tracking reading experiments that implement the study design used in Van Dyke (2007). The first experiment tests English sentences. The second, larger-sample experiment investigates the two interference types in German. Overall, the data suggest that syntactic and semantic interference can arise simultaneously during retrieval. The second research question concerns a special case of semantic interference: We investigate whether cue-based retrieval interference can be caused by semantically similar items which are not embedded in a syntactic structure. This second interference study builds on a landmark study by Van Dyke & McElree (2006). The study design used in their study is unique in that it is able to pin down the source of interference as a consequence of cue overload during retrieval, when semantic retrieval cues do not uniquely match the retrieval target. Unlike most other interference studies, this design is able to rule out encoding interference as an alternative explanation. Encoding accounts postulate that it is not cue overload at the retrieval site but the erroneous encoding of similar linguistic items in memory that leads to interference (Lewandowsky et al., 2008; Oberauer & Kliegl, 2006). While Van Dyke & McElree (2006) reported cue-based retrieval interference from sentence-external distractors, the evidence for this effect was weak. A subsequent study did not show interference of this type (Van Dyke et al., 2014). Given these inconclusive findings, further research is necessary to investigate semantic cue-based retrieval interference. The second study in this dissertation provides a larger-scale cross-linguistic investigation of cue-based retrieval interference from sentence-external items. Three larger-sample eye-tracking studies in English, German, and Russian tested cue-based interference in the online processing of filler-gap dependencies. This study further extends the previous research by investigating interference in each language under varying task demands (Logačev & Vasishth, 2016; Swets et al., 2008). Overall, we see some very modest support for proactive cue-based retrieval interference in English. Unexpectedly, this was observed only under a low task demand. In German and Russian, there is some evidence against the interference effect. It is possible that interference is attenuated in languages with richer case marking. In sum, the cross-linguistic experiments on the time course of syntactic and semantic interference from sentence-internal distractors support existing evidence of syntactic and semantic interference during sentence comprehension. Our data further show that both types of interference effects can arise simultaneously. Our cross-linguistic experiments investigating semantic cue-based retrieval interference from sentence-external distractors suggest that this type of interference may arise only in specific linguistic contexts. N2 - Ziel dieser Dissertation war es, eine größer-angelegte, sprachübergreifende, empirische Untersuchung von Interferenzeffekten beim Satzverstehen durchzuführen. Interferenzstudien bieten wertvolle Einblicke in die Mechanismen, die während der Satzverarbeitung, insbesondere bei der Bildung von nicht-lokalen Dependenzen eine Rolle spielen. Studien zu ähnlichkeitsbasierten Interferenzeffekten haben gezeigt, dass syntaktische und semantische Informationen bei der Bildung von nicht-lokalen Dependenzen verwendet werden (z. B. Arnett & Wagers, 2017; Cunnings & Sturt, 2018; Van Dyke, 2007, Van Dyke & Lewis, 2003; Van Dyke & McElree, 2011). Dennoch bleiben in der Interferenzliteratur einige wichtige Fragen unbeantwortet, die für unser Verständnis der Satzverarbeitungsmechanismen von Bedeutung sind. Die erste Forschungsfrage betrifft den zeitlichen Ablauf syntaktischer und semantischer Interferenz während des Satzverstehens. Nur wenige Interferenzstudien haben diese Frage untersucht, jedoch sind aktuell nicht genügend Daten vorhanden, um Schlussfolgerungen bezüglich des zeitlichen Verlaufs zu ziehen (Van Dyke, 2007; Van Dyke & McElree, 2011). Die erste sprachübergreifende Studie in dieser Dissertation untersucht den zeitlichen Ablauf von syntaktischer und semantischer Interferenz mithilfe zweier Eyetracking-Leseexperimente. Diese nutzen das von Van Dyke (2007) implementierte Studiendesign. Das erste Experiment testet englische Sätze. Das zweite Experiment, welches eine größere Stichprobe untersucht, testet Interferenzeffekte im Deutschen. Insgesamt deuten die Daten darauf hin, dass syntaktische und semantische Interferenzeffekte zeitgleich auftreten können. Die zweite Forschungsfrage untersucht einen Spezialfall der semantischen Interferenz: Es wird untersucht, ob cue-abhängige Abrufinterferenz durch Items verursacht werden kann, die nicht in die syntaktische Struktur eingebettet sind. Diese zweite Interferenzstudie nutzt das Studiendesign von Van Dyke & McElree (2006), welches in der Lage ist, die Quelle der Interferenzeffekte als Folge von “cue overload” zu bestimmen, d.h., wenn semantische cues während des Abrufs aus dem Gedächtnis nicht eindeutig mit dem Zielwort übereinstimmen. Im Gegensatz zu anderen Interferenzstudien kann dieses Design Enkodierungsinterferenz als alternative Erklärung ausschließen. Enkodierungsansätze nehmen an, dass nicht ein “cue overload”, sondern eine fehlerhafte Kodierung ähnlicher Items im Gedächtnis Interferenz zur Folge hat (Lewandowsky et al., 2008; Oberauer & Kliegl, 2006). Obwohl die Van Dyke & McElree (2006) Studie angibt, cue-basierte Interferenz zu beobachten, ist die Evidenz für diesen Effekt schwach. Eine Folgestudie findet keine Evidenz für Interferenzeffekte dieser Art (Van Dyke et al., 2014). Die nicht eindeutigen Ergebnisse erfordern weitere Untersuchungen semantischer cue-basierter Interferenz. Die zweite Studie in dieser Dissertation untersucht cue-basierte Interferenzeffekte durch Items, die nicht in die syntaktische Struktur eingebettet sind. Drei Eyetracking-Studien, im Englischen, Deutschen und Russischen, untersuchen cue-basierte Interferenz während der Verarbeitung von “filler-gap” Dependenzen. Diese Studie ergänzt bisherige Studien, indem sie Interferenz in mehreren Sprachen sowie unter unterschiedlich komplexen Aufgabenanforderungen untersucht (Logačev & Vasishth, 2016; Swets et al., 2008). Insgesamt zeigen die Daten nur sehr schwache Evidenz für cue-basierte Interferenz im Englischen, und ausschließlich unter wenig komplexen Aufgabenanforderungen. Im Deutschen und Russischen sprechen die Daten gegen einen Interferenzeffekt, was darauf hinweisen könnte, dass Interferenzeffekte in Sprachen mit reicher Kasusmarkierung nur abgeschwächt vorzufinden sind. Insgesamt zeigen die sprachübergreifenden Experimente zum zeitlichen Verlauf syntaktischer und semantischer Interferenz durch satz-interne Items, dass beide Arten von Interferenzeffekten gleichzeitig auftreten können. Unsere sprachübergreifenden Experimente zur Untersuchung semantischer Interferenzen durch satz-externe Items deuten darauf hin, dass diese Art von Interferenz nur kontextspezifisch auftritt. KW - psycholinguistics KW - sentence processing KW - cue-based retrieval KW - similarity-based interference KW - eye-tracking KW - Psycholinguistik KW - Satzverarbeitung KW - Cue-abhängiger Abruf KW - ähnlichkeitsbasierte Gedächtnisinterferenz KW - Eye-tracking Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-556685 ER - TY - THES A1 - Tattarini, Giulia T1 - A job is good, but is a good job healthier? BT - Longitudinal analyses on the health consequences of unemployment and precarious employment in Europe N2 - What are the consequences of unemployment and precarious employment for individuals' health in Europe? What are the moderating factors that may offset (or increase) the health consequences of labor-market risks? How do the effects of these risks vary across different contexts, which differ in their institutional and cultural settings? Does gender, regarded as a social structure, play a role, and how? To answer these questions is the aim of my cumulative thesis. This study aims to advance our knowledge about the health consequences that unemployment and precariousness cause over the life course. In particular, I investigate how several moderating factors, such as gender, the family, and the broader cultural and institutional context, may offset or increase the impact of employment instability and insecurity on individual health. In my first paper, 'The buffering role of the family in the relationship between job loss and self-perceived health: Longitudinal results from Europe, 2004-2011', I and my co-authors measure the causal effect of job loss on health and the role of the family and welfare states (regimes) as moderating factors. Using EU-SILC longitudinal data (2004-2011), we estimate the probability of experiencing 'bad health' following a transition to unemployment by applying linear probability models and undertake separate analyses for men and women. Firstly, we measure whether changes in the independent variable 'job loss' lead to changes in the dependent variable 'self-rated health' for men and women separately. Then, by adding into the model different interaction terms, we measure the moderating effect of the family, both in terms of emotional and economic support, and how much it varies across different welfare regimes. As an identification strategy, we first implement static fixed-effect panel models, which control for time-varying observables and indirect health selection—i.e., constant unobserved heterogeneity. Secondly, to control for reverse causality and path dependency, we implement dynamic fixed-effect panel models, adding a lagged dependent variable to the model. We explore the role of the family by focusing on close ties within households: we consider the presence of a stable partner and his/her working status as a source of social and economic support. According to previous literature, having a partner should reduce the stress from adverse events, thanks to the symbolic and emotional dimensions that such a relationship entails, regardless of any economic benefits. Our results, however, suggest that benefits linked to the presence of a (female) partner also come from the financial stability that (s)he can provide in terms of a second income. Furthermore, we find partners' employment to be at least as important as the mere presence of the partner in reducing the negative effect of job loss on the individual's health by maintaining the household's standard of living and decreasing economic strain on the family. Our results are in line with previous research, which has highlighted that some people cope better than others with adverse life circumstances, and the support provided by the family is a crucial resource in that regard. We also reported an important interaction between the family and the welfare state in moderating the health consequences of unemployment, showing how the compensation effect of the family varies across welfare regimes. The family plays a decisive role in cushioning the adverse consequences of labor market risks in Southern and Eastern welfare states, characterized by less developed social protection systems and –especially the Southern – high level of familialism. The first paper also found important gender differences concerning job loss, family and welfare effects. Of particular interest is the evidence suggesting that health selection works differently for men and women, playing a more prominent role for women than for men in explaining the relationship between job loss and self-perceived health. The second paper, 'Gender roles and selection mechanisms across contexts: A comparative analysis of the relationship between unemployment, self-perceived health, and gender.' investigates more in-depth the gender differential in health driven by unemployment. Being a highly contested issue in literature, we aim to study whether men are more penalized than women or the other way around and the mechanisms that may explain the gender difference. To do that, we rely on two theoretical arguments: the availability of alternative roles and social selection. The first argument builds on the idea that men and women may compensate for the detrimental health consequences of unemployment through the commitment to 'alternative roles,' which can provide for the resources needed to fulfill people's socially constructed needs. Notably, the availability of alternative options depends on the different positions that men and women have in society. Further, we merge the availability of the 'alternative roles' argument with the health selection argument. We assume that health selection could be contingent on people's social position as defined by gender and, thus, explain the gender differential in the relationship between unemployment and health. Ill people might be less reluctant to fall or remain (i.e., self-select) in unemployment if they have alternative roles. In Western societies, women generally have more alternative roles than men and thus more discretion in their labor market attachment. Therefore, health selection should be stronger for them, explaining why unemployment is less menace for women than for their male counterparts. Finally, relying on the idea of different gender regimes, we extended these arguments to comparison across contexts. For example, in contexts where being a caregiver is assumed to be women's traditional and primary roles and the primary breadwinner role is reserved to men, unemployment is less stigmatized, and taking up alternative roles is more socially accepted for women than for men (Hp.1). Accordingly, social (self)selection should be stronger for women than for men in traditional contexts, where, in the case of ill-health, the separation from work is eased by the availability of alternative roles (Hp.2). By focusing on contexts that are representative of different gender regimes, we implement a multiple-step comparative approach. Firstly, by using EU-SILC longitudinal data (2004-2015), our analysis tests gender roles and selection mechanisms for Sweden and Italy, representing radically different gender regimes, thus providing institutional and cultural variation. Then, we limit institutional heterogeneity by focusing on Germany and comparing East- and West-Germany and older and younger cohorts—for West-Germany (SOEP data 1995-2017). Next, to assess the differential impact of unemployment for men and women, we compared (unemployed and employed) men with (unemployed and employed) women. To do so, we calculate predicted probabilities and average marginal effect from two distinct random-effects probit models. Our first step is estimating random-effects models that assess the association between unemployment and self-perceived health, controlling for observable characteristics. In the second step, our fully adjusted model controls for both direct and indirect selection. We do this using dynamic correlated random-effects (CRE) models. Further, based on the fully adjusted model, we test our hypotheses on alternative roles (Hp.1) by comparing several contexts – models are estimated separately for each context. For this hypothesis, we pool men and women and include an interaction term between unemployment and gender, which has the advantage to allow for directly testing whether gender differences in the effect of unemployment exist and are statistically significant. Finally, we test the role of selection mechanisms (Hp.2), using the KHB method to compare coefficients across nested nonlinear models. Specifically, we test the role of selection for the relationship between unemployment and health by comparing the partially-adjusted and fully-adjusted models. To allow selection mechanisms to operate differently between genders, we estimate separate models for men and women. We found support to our first hypotheses—the context where people are embedded structures the relationship between unemployment, health, and gender. We found no gendered effect of unemployment on health in the egalitarian context of Sweden. Conversely, in the traditional context of Italy, we observed substantive and statistically significant gender differences in the effect of unemployment on bad health, with women suffering less than men. We found the same pattern for comparing East and West Germany and younger and older cohorts in West Germany. On the contrary, our results did not support our theoretical argument on social selection. We found that in Sweden, women are more selected out of employment than men. In contrast, in Italy, health selection does not seem to be the primary mechanism behind the gender differential—Italian men and women seem to be selected out of employment to the same extent. Namely, we do not find any evidence that health selection is stronger for women in more traditional countries (Hp2), despite the fact that the institutional and the cultural context would offer them a more comprehensive range of 'alternative roles' relative to men. Moreover, our second hypothesis is also rejected in the second and third comparisons, where the cross-country heterogeneity is reduced to maximize cultural differences within the same institutional context. Further research that addresses selection into inactivity is needed to evaluate the interplay between selection and social roles across gender regimes. While the health consequences of unemployment have been on the research agenda for a pretty long time, the interest in precarious employment—defined as the linking of the vulnerable worker to work that is characterized by uncertainty and insecurity concerning pay, the stability of the work arrangement, limited access to social benefits, and statutory protections—has emerged only later. Since the 80s, scholars from different disciplines have raised concerns about the social consequences of de-standardization of employment relationships. However, while work has become undoubtedly more precarious, very little is known about its causal effect on individual health and the role of gender as a moderator. These questions are at the core of my third paper : 'Bad job, bad health? A longitudinal analysis of the interaction between precariousness, gender and self-perceived health in Germany'. Herein, I investigate the multidimensional nature of precarious employment and its causal effect on health, particularly focusing on gender differences. With this paper, I aim at overcoming three major shortcomings of earlier studies: The first one regards the cross-sectional nature of data that prevents the authors from ruling out unobserved heterogeneity as a mechanism for the association between precarious employment and health. Indeed, several unmeasured individual characteristics—such as cognitive abilities—may confound the relationship between precarious work and health, leading to biased results. Secondly, only a few studies have directly addressed the role of gender in shaping the relationship. Moreover, available results on the gender differential are mixed and inconsistent: some found precarious employment being more detrimental for women's health, while others found no gender differences or stronger negative association for men. Finally, previous attempts to an empirical translation of the employment precariousness (EP) concept have not always been coherent with their theoretical framework. EP is usually assumed to be a multidimensional and continuous phenomenon; it is characterized by different dimensions of insecurity that may overlap in the same job and lead to different "degrees of precariousness." However, researchers have predominantly focused on one-dimensional indicators—e.g., temporary employment, subjective job insecurity—to measure EP and study the association with health. Besides the fact that this approach partially grasps the phenomenon's complexity, the major problem is the inconsistency of evidence that it has produced. Indeed, this line of inquiry generally reveals an ambiguous picture, with some studies finding substantial adverse effects of temporary over permanent employment, while others report only minor differences. To measure the (causal) effect of precarious work on self-rated health and its variation by gender, I focus on Germany and use four waves from SOEP data (2003, 2007, 2011, and 2015). Germany is a suitable context for my study. Indeed, since the 1980s, the labor market and welfare system have been restructured in many ways to increase the German economy's competitiveness in the global market. As a result, the (standard) employment relationship has been de-standardized: non-standard and atypical employment arrangements—i.e., part-time work, fixed-term contracts, mini-jobs, and work agencies—have increased over time while wages have lowered, even among workers with standard work. In addition, the power of unions has also fallen over the last three decades, leaving a large share of workers without collective protection. Because of this process of de-standardization, the link between wage employment and strong social rights has eroded, making workers more powerless and more vulnerable to labor market risks than in the past. EP refers to this uneven distribution of power in the employment relationship, which can be detrimental to workers' health. Indeed, by affecting individuals' access to power and other resources, EP puts precarious workers at risk of experiencing health shocks and influences their ability to gain and accumulate health advantages (Hp.1). Further, the focus on Germany allows me to investigate my second research question on the gender differential. Germany is usually regarded as a traditionalist gender regime: a context characterized by a configuration of roles. Here, being a caregiver is assumed to be women's primary role, whereas the primary breadwinner role is reserved for men. Although many signs of progress have been made over the last decades towards a greater equalization of opportunities and more egalitarianism, the breadwinner model has barely changed towards a modified version. Thus, women usually take on the double role of workers (the so-called secondary earner) and caregivers, and men still devote most of their time to paid work activities. Moreover, the overall upward trend towards more egalitarian gender ideologies has leveled off over the last decades, moving notably towards more traditional gender ideologies. In this setting, two alternative hypotheses are possible. Firstly, I assume that the negative relationship between EP and health is stronger for women than for men. This is because women are systematically more disadvantaged than men in the public and private spheres of life, having less access to formal and informal sources of power. These gender-related power asymmetries may interact with EP-related power asymmetries resulting in a stronger effect of EP on women's health than on men's health (Hp.2). An alternative way of looking at the gender differential is to consider the interaction that precariousness might have with men's and women's gender identities. According to this view, the negative relationship between EP and health is weaker for women than for men (Hp.2a). In a society with a gendered division of labor and a strong link between masculine identities and stable and well-rewarded job—i.e., a job that confers the role of primary family provider—a male worker with precarious employment might violate the traditional male gender role. Men in precarious jobs may perceive themselves (and by others) as possessing a socially undesirable characteristic, which conflicts with the stereotypical idea of themselves as the male breadwinner. Engaging in behaviors that contradict stereotypical gender identity may decrease self-esteem and foster feelings of inferiority, helplessness, and jealousy, leading to poor health. I develop a new indicator of EP that empirically translates a definition of EP as a multidimensional and continuous phenomenon. I assume that EP is a latent construct composed of seven dimensions of insecurity chosen according to the theory and previous empirical research: Income insecurity, social insecurity, legal insecurity, employment insecurity, working-time insecurity, representation insecurity, worker's vulnerability. The seven dimensions are proxied by eight indicators available in the four waves of the SOEP dataset. The EP composite indicator is obtained by performing a multiple correspondence analysis (MCA) on the eight indicators. This approach aims to construct a summary scale in which all dimensions contribute jointly to the measured experience of precariousness and its health impact. Further, the relationship between EP and 'general self-perceived health' is estimated by applying ordered probit random-effects estimators and calculating average marginal effect (further AME). Then, to control for unobserved heterogeneity, I implement correlated random-effects models that add to the model the within-individual means of the time-varying independent variables. To test the significance of the gender differential, I add an interaction term between EP and gender in the fully adjusted model in the pooled sample. My correlated random-effects models showed EP's negative and substantial 'effect' on self-perceived health for both men and women. Although nonsignificant, the evidence seems in line with previous cross-sectional literature. It supports the hypothesis that employment precariousness could be detrimental to workers' health. Further, my results showed the crucial role of unobserved heterogeneity in shaping the health consequences of precarious employment. This is particularly important as evidence accumulates, yet it is still mostly descriptive. Moreover, my results revealed a substantial difference among men and women in the relationship between EP and health: when EP increases, the risk of experiencing poor health increases much more for men than for women. This evidence falsifies previous theory according to whom the gender differential is contingent on the structurally disadvantaged position of women in western societies. In contrast, they seem to confirm the idea that men in precarious work could experience role conflict to a larger extent than women, as their self-standard is supposed to be the stereotypical breadwinner worker with a good and well-rewarded job. Finally, results from the multiple correspondence analysis contribute to the methodological debate on precariousness, showing that a multidimensional and continuous indicator can express a latent variable of EP. All in all, complementarities are revealed in the results of unemployment and employment precariousness, which have two implications: Policy-makers need to be aware that the total costs of unemployment and precariousness go far beyond the economic and material realm penetrating other fundamental life domains such as individual health. Moreover, they need to balance the trade-off between protecting adequately unemployed people and fostering high-quality employment in reaction to the highlighted market pressures. In this sense, the further development of a (universalistic) welfare state certainly helps mitigate the adverse health effects of unemployment and, therefore, the future costs of both individuals' health and welfare spending. In addition, the presence of a working partner is crucial for reducing the health consequences of employment instability. Therefore, policies aiming to increase female labor market participation should be promoted, especially in those contexts where the welfare state is less developed. Moreover, my results support the significance of taking account of a gender perspective in health research. The findings of the three articles show that job loss, unemployment, and precarious employment, in general, have adverse effects on men's health but less or absent consequences for women's health. Indeed, this suggests the importance of labor and health policies that consider and further distinguish the specific needs of the male and female labor force in Europe. Nevertheless, a further implication emerges: the health consequences of employment instability and de-standardization need to be investigated in light of the gender arrangements and the transforming gender relationships in specific cultural and institutional contexts. My results indeed seem to suggest that women's health advantage may be a transitory phenomenon, contingent on the predominant gendered institutional and cultural context. As the structural difference between men's and women's position in society is eroded, egalitarianism becomes the dominant normative status, so will probably be the gender difference in the health consequences of job loss and precariousness. Therefore, while gender equality in opportunities and roles is a desirable aspect for contemporary societies and a political goal that cannot be postponed further, this thesis raises a further and maybe more crucial question: What kind of equality should be pursued to provide men and women with both good life quality and equal chances in the public and private spheres? In this sense, I believe that social and labor policies aiming to reduce gender inequality in society should focus on improving women's integration into the labor market, implementing policies targeting men, and facilitating their involvement in the private sphere of life. Equal redistribution of social roles could activate a crucial transformation of gender roles and the cultural models that sustain and still legitimate gender inequality in Western societies. KW - unemployment KW - employment precariousness KW - self-rated health KW - gender KW - family KW - welfare and gender regimes Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536723 ER - TY - RPRT A1 - Giotopoulos, Ioannis A1 - Kritikos, Alexander A1 - Tsakanikas, Aggelos T1 - A Lasting Crisis affects R&D decisions of smaller firms BT - the Greek experience T2 - CEPA Discussion Papers N2 - We use the prolonged Greek crisis as a case study to understand how a lasting economic shock affects the innovation strategies of firms in economies with moderate innovation activities. Adopting the 3-stage CDM model, we explore the link between R&D, innovation, and productivity for different size groups of Greek manufacturing firms during the prolonged crisis. At the first stage, we find that the continuation of the crisis is harmful for the R&D engagement of smaller firms while it increased the willingness for R&D activities among the larger ones. At the second stage, among smaller firms the knowledge production remains unaffected by R&D investments, while among larger firms the R&D decision is positively correlated with the probability of producing innovation, albeit the relationship is weakened as the crisis continues. At the third stage, innovation output benefits only larger firms in terms of labor productivity, while the innovation-productivity nexus is insignificant for smaller firms during the lasting crisis. T3 - CEPA Discussion Papers - 49 KW - Small firms KW - Large firms KW - R&D KW - Innovation KW - Productivity KW - Long-term Crisis Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558442 SN - 2628-653X IS - 49 ER - TY - GEN A1 - Herold, Fabian A1 - Labott, Berit K. A1 - Grässler, Bernhard A1 - Halfpaap, Nicole A1 - Langhans, Corinna A1 - Müller, Patrick A1 - Ammar, Achraf A1 - Dordevic, Milos A1 - Hökelmann, Anita A1 - Müller, Notger Germar T1 - A Link between Handgrip Strength and Executive Functioning: A Cross-Sectional Study in Older Adults with Mild Cognitive Impairment and Healthy Controls T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Older adults with amnestic mild cognitive impairment (aMCI) who in addition to their memory deficits also suffer from frontal-executive dysfunctions have a higher risk of developing dementia later in their lives than older adults with aMCI without executive deficits and older adults with non-amnestic MCI (naMCI). Handgrip strength (HGS) is also correlated with the risk of cognitive decline in the elderly. Hence, the current study aimed to investigate the associations between HGS and executive functioning in individuals with aMCI, naMCI and healthy controls. Older, right-handed adults with amnestic MCI (aMCI), non-amnestic MCI (naMCI), and healthy controls (HC) conducted a handgrip strength measurement via a handheld dynamometer. Executive functions were assessed with the Trail Making Test (TMT A&B). Normalized handgrip strength (nHGS, normalized to Body Mass Index (BMI)) was calculated and its associations with executive functions (operationalized through z-scores of TMT B/A ratio) were investigated through partial correlation analyses (i.e., accounting for age, sex, and severity of depressive symptoms). A positive and low-to-moderate correlation between right nHGS (rp (22) = 0.364; p = 0.063) and left nHGS (rp (22) = 0.420; p = 0.037) and executive functioning in older adults with aMCI but not in naMCI or HC was observed. Our results suggest that higher levels of nHGS are linked to better executive functioning in aMCI but not naMCI and HC. This relationship is perhaps driven by alterations in the integrity of the hippocampal-prefrontal network occurring in older adults with aMCI. Further research is needed to provide empirical evidence for this assumption. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 775 KW - MCI KW - hippocampal-prefrontal network KW - handgrip strength KW - exercise cognition KW - aging KW - brain health Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559251 SN - 1866-8364 SP - 1 EP - 14 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Gerling, Marten Tobias T1 - A microfluidic system for high-precision image-based live cell sorting using dielectrophoretic forces T1 - Ein mikrofluidisches System zur hochpräzisen und bildgestützten Sortierung lebender Zellen mittels dielektrophoretischer Kräfte N2 - An important goal in biotechnology and (bio-) medical research is the isolation of single cells from a heterogeneous cell population. These specialised cells are of great interest for bioproduction, diagnostics, drug development, (cancer) therapy and research. To tackle emerging questions, an ever finer differentiation between target cells and non-target cells is required. This precise differentiation is a challenge for a growing number of available methods. Since the physiological properties of the cells are closely linked to their morphology, it is beneficial to include their appearance in the sorting decision. For established methods, this represents a non addressable parameter, requiring new methods for the identification and isolation of target cells. Consequently, a variety of new flow-based methods have been developed and presented in recent years utilising 2D imaging data to identify target cells within a sample. As these methods aim for high throughput, the devices developed typically require highly complex fluid handling techniques, making them expensive while offering limited image quality. In this work, a new continuous flow system for image-based cell sorting was developed that uses dielectrophoresis to precisely handle cells in a microchannel. Dielectrophoretic forces are exerted by inhomogeneous alternating electric fields on polarisable particles (here: cells). In the present system, the electric fields can be switched on and off precisely and quickly by a signal generator. In addition to the resulting simple and effective cell handling, the system is characterised by the outstanding quality of the image data generated and its compatibility with standard microscopes. These aspects result in low complexity, making it both affordable and user-friendly. With the developed cell sorting system, cells could be sorted reliably and efficiently according to their cytosolic staining as well as morphological properties at different optical magnifications. The achieved purity of the target cell population was up to 95% and about 85% of the sorted cells could be recovered from the system. Good agreement was achieved between the results obtained and theoretical considerations. The achieved throughput of the system was up to 12,000 cells per hour. Cell viability studies indicated a high biocompatibility of the system. The results presented demonstrate the potential of image-based cell sorting using dielectrophoresis. The outstanding image quality and highly precise yet gentle handling of the cells set the system apart from other technologies. This results in enormous potential for processing valuable and sensitive cell samples. N2 - Ein wichtiges Ziel in der Biotechnologie und (bio-) medizinischen Forschung ist die Isolation von Einzelzellen aus einer heterogenen Zellpopulation. Aufgrund ihrer besonderen Eigenschaften sind diese Zellen für die Bioproduktion, Diagnostik, Arzneimittelentwicklung, (Krebs-) Therapie und Forschung von großem Interesse. Um neue Fragestellungen angehen zu können, ist eine immer feinere Differenzierung zwischen Zielzellen und Nicht-Zielzellen erforderlich. Diese präzise Differenzierung stellt eine Herausforderung für eine wachsende Zahl verfügbarer Methoden dar. Da die physiologischen Eigenschaften der Zellen eng mit ihrer Morphologie verknüpft sind, ist es sinnvoll ihr Erscheinungsbild mit in die Sortierentscheidung einzubeziehen. Für etablierte Methoden stellt dies jedoch einen nicht adressierbaren Parameter dar, weshalb neue Methoden zur Identifikation und Isolation der Zielzellen benötigt werden. Folglich wurde in den letzten Jahren eine Vielzahl neuer durchflussbasierter Methoden entwickelt und vorgestellt, die 2D-Bilddaten zur Identifikation der Zielzellen innerhalb einer Probe heranziehen. Da diese Methoden auf hohe Durchsätze abzielen, erfordern die entwickelten Geräte in der Regel hochkomplexe Techniken zur Handhabung der Flüssigkeiten, was sie teuer macht und gleichzeitig zu einer begrenzten Bildqualität führt. In dieser Arbeit wurde ein neues durchflussbasiertes System zur bildbasierten Zellsortierung entwickelt, das Dielektrophorese zur präzisen Handhabung der Zellen in einem Mikrokanal verwendet. Dielektrophoretische Kräfte werden von inhomogenen elektrischen Wechselfeldern auf polarisierbare Partikel (hier: Zellen) ausgeübt. Bei dem vorliegenden System können die elektrischen Felder durch einen Signalgenerator präzise und schnell ein- und ausgeschaltet werden. Neben der daraus resultierenden einfachen und effektiven Handhabung der Zellen zeichnet sich das System durch die hervorragende Qualität der erzeugten Bilddaten und die Kompatibilität mit Standardmikroskopen aus. Diese Aspekte führen zu einer geringen Komplexität, die es sowohl erschwinglich als auch benutzerfreundlich macht. Mit dem entwickelten System zur Zellsortierung konnten Zellen sowohl auf Basis einer zytosolischen Färbung als auch auf Basis morphologischer Eigenschaften bei verschiedenen optischen Vergrößerungen zuverlässig und effizient sortiert werden. Die erreichte Reinheit der Zielzellpopulation betrug bis zu 95% wobei etwa 85% der sortierten Zellen aus dem System zurückgewonnen werden konnten. Dabei wurde eine gute Übereinstimmung der ermittelten Ergebnisse mit theoretischen Überlegungen erreicht. Der erreichte Durchsatz des Systems betrug bis zu 12.000 Zellen pro Stunde. Untersuchungen der Zellvitalität deuteten darauf hin, dass das System eine hohe Biokompatibilität aufweist. Die vorgestellten Ergebnisse demonstrieren das Potenzial der bildbasierten Zellsortierung mittels Dielektrophorese. Die herausragende Bildqualität und hochpräzise aber dennoch zellschonende Handhabung der Zellen grenzen das System von anderen Technologien ab. Daraus ergibt sich ein enormes Potenzial für die Verarbeitung wertvoller und sensibler Zellproben. KW - microfluidics KW - cell sorting KW - dielectrophoresis KW - Zellsortierung KW - Dielektrophorese KW - Mikrofluidik Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-587421 ER - TY - GEN A1 - Brandenburger, Bonny T1 - A multidimensional and analytical perspective on Open Educational Practices in the 21st century T2 - Zweitveröffentlichungen der Universität Potsdam : Wirtschaft- und Sozialwissenschaftliche Reihe N2 - Participatory approaches to teaching and learning are experiencing a new lease on life in the 21st century as a result of the rapid technology development. Knowledge, practices, and tools can be shared across spatial and temporal boundaries in higher education by means of Open Educational Resources, Massive Open Online Courses, and open-source technologies. In this context, the Open Education Movement calls for new didactic approaches that encourage greater learner participation in formal higher education. Based on a representative literature review and focus group research, in this study an analytical framework was developed that enables researchers and practitioners to assess the form of participation in formal, collaborative teaching and learning practices. The analytical framework is focused on the micro-level of higher education, in particular on the interaction between students and lecturers when organizing the curriculum. For this purpose, the research reflects anew on the concept of participation, taking into account existing stage models for participation in the educational context. These are then brought together with the dimensions of teaching and learning processes, such as methods, objectives and content, etc. This paper aims to make a valuable contribution to the opening up of learning and teaching, and expands the discourse around possibilities for interpreting Open Educational Practices. T3 - Zweitveröffentlichungen der Universität Potsdam : Wirtschafts- und Sozialwissenschaftliche Reihe - 157 KW - open education KW - Open Educational Practices KW - participation KW - focus group research KW - analytical framework for Participatory Educational Practices KW - teaching and learning process Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-587770 SN - 1867-5808 IS - 157 ER - TY - GEN A1 - Voit, Paul A1 - Heistermann, Maik T1 - A new index to quantify the extremeness of precipitation across scales T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Quantifying the extremeness of heavy precipitation allows for the comparison of events. Conventional quantitative indices, however, typically neglect the spatial extent or the duration, while both are important to understand potential impacts. In 2014, the weather extremity index (WEI) was suggested to quantify the extremeness of an event and to identify the spatial and temporal scale at which the event was most extreme. However, the WEI does not account for the fact that one event can be extreme at various spatial and temporal scales. To better understand and detect the compound nature of precipitation events, we suggest complementing the original WEI with a “cross-scale weather extremity index” (xWEI), which integrates extremeness over relevant scales instead of determining its maximum. Based on a set of 101 extreme precipitation events in Germany, we outline and demonstrate the computation of both WEI and xWEI. We find that the choice of the index can lead to considerable differences in the assessment of past events but that the most extreme events are ranked consistently, independently of the index. Even then, the xWEI can reveal cross-scale properties which would otherwise remain hidden. This also applies to the disastrous event from July 2021, which clearly outranks all other analyzed events with regard to both WEI and xWEI. While demonstrating the added value of xWEI, we also identify various methodological challenges along the required computational workflow: these include the parameter estimation for the extreme value distributions, the definition of maximum spatial extent and temporal duration, and the weighting of extremeness at different scales. These challenges, however, also represent opportunities to adjust the retrieval of WEI and xWEI to specific user requirements and application scenarios. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1283 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-570893 SN - 1866-8372 IS - 1283 SP - 2791 EP - 2805 ER - TY - THES A1 - Vu, Nils Leif T1 - A task-based parallel elliptic solver for numerical relativity with discontinuous Galerkin methods N2 - Elliptic partial differential equations are ubiquitous in physics. In numerical relativity---the study of computational solutions to the Einstein field equations of general relativity---elliptic equations govern the initial data that seed every simulation of merging black holes and neutron stars. In the quest to produce detailed numerical simulations of these most cataclysmic astrophysical events in our Universe, numerical relativists resort to the vast computing power offered by current and future supercomputers. To leverage these computational resources, numerical codes for the time evolution of general-relativistic initial value problems are being developed with a renewed focus on parallelization and computational efficiency. Their capability to solve elliptic problems for accurate initial data must keep pace with the increasing detail of the simulations, but elliptic problems are traditionally hard to parallelize effectively. In this thesis, I develop new numerical methods to solve elliptic partial differential equations on computing clusters, with a focus on initial data for orbiting black holes and neutron stars. I develop a discontinuous Galerkin scheme for a wide range of elliptic equations, and a stack of task-based parallel algorithms for their iterative solution. The resulting multigrid-Schwarz preconditioned Newton-Krylov elliptic solver proves capable of parallelizing over 200 million degrees of freedom to at least a few thousand cores, and already solves initial data for a black hole binary about ten times faster than the numerical relativity code SpEC. I also demonstrate the applicability of the new elliptic solver across physical disciplines, simulating the thermal noise in thin mirror coatings of interferometric gravitational-wave detectors to unprecedented accuracy. The elliptic solver is implemented in the new open-source SpECTRE numerical relativity code, and set up to support simulations of astrophysical scenarios for the emerging era of gravitational-wave and multimessenger astronomy. N2 - Elliptische partielle Differentialgleichungen sind in der Physik allgegenwärtig. Das elektrische Feld einer Ladung, die Gravitation der Erde, die Statik einer Brücke, oder die Temperaturverteilung auf einer heißen Herdplatte folgen trotz verschiedenster zugrundeliegender Physik elliptischen Gleichungen ähnlicher Struktur, denn es sind statische, also zeitunabhängige Effekte. Elliptische Gleichungen beschreiben auch astrophysikalische Szenarien von kataklysmischen Ausmaßen, die jegliche Gegebenheiten auf der Erde weit überschreiten. So werden Schwarze Löcher und Neutronensterne -- zwei mögliche Endstadien von massereichen Sternen -- ebenfalls von elliptischen Gleichungen beschrieben. In diesem Fall sind es Einstein's Feldgleichungen von Raum, Zeit, Gravitation und Materie. Da Schwarze Löcher und Neutronensterne mehr Masse als unsere Sonne auf die Größe einer Stadt wie Potsdam komprimieren übernimmt die Gravitation, und damit Einstein's allgemeine Relativitätstheorie, die Kontrolle. Es ist die Aufgabe der numerischen Relativität, Szenarien wie die Kollision solcher gewaltigen Objekte mithilfe von Supercomputern zu simulieren und damit die Gravitationswellensignale vorherzusagen, die von Detektoren auf der Erde gemessen werden können. Jede dieser Simulationen beginnt mit Anfangsdaten, die elliptische Gleichungen erfüllen müssen. In dieser Dissertation entwickle ich neue numerische Methoden um elliptische partielle Differentialgleichungen auf Supercomputern zu lösen, mit besonderem Augenmerk auf Anfangsdaten für Simulationen von Schwarzen Löchern und Neutronensternen. Ich entwickle dafür eine sogenannte discontinuous Galerkin Methode um elliptische Gleichungen auf Computern zu repräsentieren, sowie eine Reihe von Algorithmen um diese Gleichungen anschließend schrittweise numerisch zu lösen bis sie die notwendige Präzision erfüllen. Die Besonderheit dieser Algorithmen liegt in ihrer Eigenschaft, in viele Teilprobleme zerlegt auf einer großen Zahl von Rechenkernen parallel arbeiten zu können. Dieses task-based parallelism ermöglicht die effektive Verwendung von Supercomputern. Ich demonstriere die Fähigkeit meiner Algorithmen, Berechnungen von über 200 Millionen Unbekannten mit hoher Effizienz auf mindestens einige Tausend Rechenkerne verteilen zu können, und Anfangsdaten zweier sich umkreisender Schwarzer Löcher bereits etwa zehnmal schneller zu lösen als der langjährig verwendete Computercode SpEC. Außerdem zeige ich, dass mein neuer Code auch außerhalb der Relativitätstheorie anwendbar ist. Dazu simuliere ich thermisches Rauschen in den Beschichtungen von Spiegeln, das ebenfalls von elliptischen Gleichungen beschrieben wird. Solche Spiegel sind Objekt großen Forschungsinteresses, da sie ein zentrales Element von Gravitationswellendetektoren darstellen. Mein Code zur numerischen Lösung elliptischer Gleichungen ist Teil des kollaborativen und quelloffenen SpECTRE Forschungsprojekts zur Simulation astrophysikalischer Szenarien für die aufstrebende Ära der Gravitationswellen- und Multimessenger-Astronomie. KW - numerical relativity KW - task-based parallelism KW - discontinuous Galerkin methods KW - elliptic partial differential equations KW - black holes KW - initial data KW - high-performance computing KW - iterative methods for sparse linear systems KW - gravitational waves KW - thermal noise in mirror coatings KW - numerische Relativität KW - elliptische partielle Differentialgleichungen KW - schwarze Löcher KW - Anfangsdaten KW - Hochleistungscomputer KW - iterative Methoden zur Lösung linearer Systeme KW - Gravitationswellen KW - thermisches Rauschen in Spiegelbeschichtungen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562265 ER - TY - THES A1 - Müller, Daniela T1 - Abrupt climate changes and extreme events in two different varved lake sediment records T1 - Abrupte Klimaveränderungen und Extremevents in Sedimentprofilen zweier verschiedener warvierter Seen N2 - Different lake systems might reflect different climate elements of climate changes, while the responses of lake systems are also divers, and are not completely understood so far. Therefore, a comparison of lakes in different climate zones, during the high-amplitude and abrupt climate fluctuations of the Last Glacial to Holocene transition provides an exceptional opportunity to investigate distinct natural lake system responses to different abrupt climate changes. The aim of this doctoral thesis was to reconstruct climatic and environmental fluctuations down to (sub-) annual resolution from two different lake systems during the Last Glacial-Interglacial transition (~17 and 11 ka). Lake Gościąż, situated in the temperate central Poland, developed in the Allerød after recession of the Last Glacial ice sheets. The Dead Sea is located in the Levant (eastern Mediterranean) within a steep gradient from sub-humid to hyper-arid climate, and formed in the mid-Miocene. Despite their differences in sedimentation processes, both lakes form annual laminations (varves), which are crucial for studies of abrupt climate fluctuations. This doctoral thesis was carried out within the DFG project PALEX-II (Paleohydrology and Extreme Floods from the Dead Sea ICDP Core) that investigates extreme hydro-meteorological events in the ICDP core in relation to climate changes, and ICLEA (Virtual Institute of Integrated Climate and Landscape Evolution Analyses) that intends to better the understanding of climate dynamics and landscape evolutions in north-central Europe since the Last Glacial. Further, it contributes to the Helmholtz Climate Initiative REKLIM (Regional Climate Change and Humans) Research Theme 3 “Extreme events across temporal and spatial scales” that investigates extreme events using climate data, paleo-records and model-based simulations. The three main aims were to (1) establish robust chronologies of the lakes, (2) investigate how major and abrupt climate changes affect the lake systems, and (3) to compare the responses of the two varved lakes to these hemispheric-scale climate changes. Robust chronologies are a prerequisite for high-resolved climate and environmental reconstructions, as well as for archive comparisons. Thus, addressing the first aim, the novel chronology of Lake Gościąż was established by microscopic varve counting and Bayesian age-depth modelling in Bacon for a non-varved section, and was corroborated by independent age constrains from 137Cs activity concentration measurements, AMS radiocarbon dating and pollen analysis. The varve chronology reaches from the late Allerød until AD 2015, revealing more Holocene varves than a previous study of Lake Gościąż suggested. Varve formation throughout the complete Younger Dryas (YD) even allowed the identification of annually- to decadal-resolved leads and lags in proxy responses at the YD transitions. The lateglacial chronology of the Dead Sea (DS) was thus far mainly based on radiocarbon and U/Th-dating. In the unique ICDP core from the deep lake centre, continuous search for cryptotephra has been carried out in lateglacial sediments between two prominent gypsum deposits – the Upper and Additional Gypsum Units (UGU and AGU, respectively). Two cryptotephras were identified with glass analyses that correlate with tephra deposits from the Süphan and Nemrut volcanoes indicating that the AGU is ~1000 years younger than previously assumed, shifting it into the YD, and the underlying varved interval into the Bølling/Allerød, contradicting previous assumptions. Using microfacies analyses, stable isotopes and temperature reconstructions, the second aim was achieved at Lake Gościąż. The YD lake system was dynamic, characterized by higher aquatic bioproductivity, more re-suspended material and less anoxia than during the Allerød and Early Holocene, mainly influenced by stronger water circulation and catchment erosion due to stronger westerly winds and less lake sheltering. Cooling at the YD onset was ~100 years longer than the final warming, while environmental proxies lagged the onset of cooling by ~90 years, but occurred contemporaneously during the termination of the YD. Chironomid-based temperature reconstructions support recent studies indicating mild YD summer temperatures. Such a comparison of annually-resolved proxy responses to both abrupt YD transitions is rare, because most European lake archives do not preserve varves during the YD. To accomplish the second aim at the DS, microfacies analyses were performed between the UGU (~17 ka) and Holocene onset (~11 ka) in shallow- (Masada) and deep-water (ICDP core) environments. This time interval is marked by a huge but fluctuating lake level drop and therefore the complete transition into the Holocene is only recorded in the deep-basin ICDP core. In this thesis, this transition was investigated for the first time continuously and in detail. The final two pronounced lake level drops recorded by deposition of the UGU and AGU, were interrupted by one millennium of relative depositional stability and a positive water budget as recorded by aragonite varve deposition interrupted by only a few event layers. Further, intercalation of aragonite varves between the gypsum beds of the UGU and AGU shows that these generally dry intervals were also marked by decadal- to centennial-long rises in lake level. While continuous aragonite varves indicate decadal-long stable phases, the occurrence of thicker and more frequent event layers suggests general more instability during the gypsum units. These results suggest a pattern of complex and variable hydroclimate at different time scales during the Lateglacial at the DS. The third aim was accomplished based on the individual studies above that jointly provide an integrated picture of different lake responses to different climate elements of hemispheric-scale abrupt climate changes during the Last Glacial-Interglacial transition. In general, climatically-driven facies changes are more dramatic in the DS than at Lake Gościąż. Further, Lake Gościąż is characterized by continuous varve formation nearly throughout the complete profile, whereas the DS record is widely characterized by extreme event layers, hampering the establishment of a continuous varve chronology. The lateglacial sedimentation in Lake Gościąż is mainly influenced by westerly winds and minor by changes in catchment vegetation, whereas the DS is primarily influenced by changes in winter precipitation, which are caused by temperature variations in the Mediterranean. Interestingly, sedimentation in both archives is more stable during the Bølling/Allerød and more dynamic during the YD, even when sedimentation processes are different. In summary, this doctoral thesis presents seasonally-resolved records from two lake archives during the Lateglacial (ca 17-11 ka) to investigate the impact of abrupt climate changes in different lake systems. New age constrains from the identification of volcanic glass shards in the lateglacial sediments of the DS allowed the first lithology-based interpretation of the YD in the DS record and its comparison to Lake Gościąż. This highlights the importance of the construction of a robust chronology, and provides a first step for synchronization of the DS with other eastern Mediterranean archives. Further, climate reconstructions from the lake sediments showed variability on different time scales in the different archives, i.e. decadal- to millennial fluctuations in the lateglacial DS, and even annual variations and sub-decadal leads and lags in proxy responses during the rapid YD transitions in Lake Gościąż. This showed the importance of a comparison of different lake archives to better understand the regional and local impacts of hemispheric-scale climate variability. An unprecedented example is demonstrated here of how different lake systems show different lake responses and also react to different climate elements of abrupt climate changes. This further highlights the importance of the understanding of the respective lake system for climate reconstructions. N2 - Verschiedene Seesysteme können unterschiedliche Klimaelemente während Klimaveränderungen wiederspiegeln und auch diverse Seesystemreaktionen aufweisen, wobei letztere bislang noch nicht vollständig verstanden sind. Ein Vergleich von Seesystemen in verschiedenen Klimazonen während der hoch-amplituden und abrupten Klimaveränderung innerhalb des Übergangs vom Letzten Glazial zum Holozän, ermöglicht die Untersuchung deutlicher natürlicher Seesystemreaktionen in Bezug zu abrupten Klimaänderungen. Das Ziel dieser Doktorarbeit war die Rekonstruktion von Klima- und Umweltschwankungen von zwei verschiedenen Seesystemen während des Letzten Glazial-Interglazial-Übergangs (~17.000-11.000 BP) bis hinunter zu saisonaler Auflösung. Der Gościąż See liegt in der gemäßigten Klimazone in Zentralpolen und entwickelte sich im Allerød nach dem Rückgang der Eisschilde des letzten Glazials. Das Tote Meer liegt in der Levante (östlicher Mittelmeerraum) innerhalb eines steilen Gradienten von subhumidem zu hyperaridem Klima und entstand im mittleren Miozän. Trotz ihrer unterschiedlichen Sedimentationsprozesse bilden beide Seen jährliche Laminierungen (Warven) aus. Dies ist essentiell für Studien abrupter Klimaveränderungen. Diese Doktorarbeit wurde innerhalb des DFG-Projektes PALEX-II (Paläohydrologie und Sturzfluten vom ICDP-Kern des Toten Meeres) und ICELA (Virtuelles Institut zur Integrierten Klima- und Landschaftsentwicklungsanalyse) durchgeführt. PALEX-II untersucht hydrometeorologische Extremereignisse im ICDP-Kern in Bezug zu Klimaveränderungen, während ICLEA beabsichtig das Verständnis von Klimadynamiken und Landschaftsevolution in Nord- und Zentraleuropa seit dem letzten Glazial zu verbessern. Zudem, trägt diese Doktorarbeit auch zum Forschungsthema 3 „Extremevents auf unterschiedlichen zeitlichen und räumlichen Skalen“ der Helmholtz-Klimainitiative REKLIM (Regionale Klimaänderungen und Mensch) bei, das basierend auf Klimadaten, Paläoarchiven und modelbasierten Simulationen Extremevents untersucht. Robuste Chronologien sind Voraussetzung für hochaufgelöste Klima- und Umweltstudien, sowie für den Vergleich von Archiven. Um das erste Ziel zu erreichen, wurde für den Gościąż See mithilfe von mikroskopischer Warvenzählung und einer bayesschen Alters-Tiefen-Modellierung eine neue Chronologie erstellt. Diese wurde durch unabhängige Altersinformationen von 137Cs Konzentrationsmessungen, AMS Radiokarbondatierung und Pollenanalyse bestätigt. Die Warvenchronologie beginnt im späten Allerød und endet AD 2015. Sie offenbart mehr Warven im Holozän als in einer früheren Studie vom Gościąż See gezeigt wurde. Warvenbildung durch die gesamte Jüngere Dryaszeit (JD) hindurch ermöglicht sogar die Identifizierung von jährlich bis dekadisch aufgelösten Abfolgen in Proxyreaktion während der Übergangszonen der JD. Die spätglaziale Chronologie des Toten Meeres basierte bisher auf Radiokarbon- und U/Th-Datierungen. In den spätglazialen Sedimenten des einzigartigen ICDP-Kern vom tiefen Seezentrum wurde zwischen zwei markanten Gipseinheiten – den Oberen und Zusätzlichen Gipseinheiten (UGU bzw. AGU) – kontinuierlich nach Kryptotephra gesucht. Gläser zweier Kryptotephren korrelieren mit Aschenablagerungen der Süphan und Nemrut Vulkane. Dies deutet darauf hin, dass die AGU ~1000 Jahre jünger ist als bisher angenommen, was sie komplett in die JD verlagert und das darunterliegende warvierte Intervall in das Bølling/Allerød. Diese Ergebnisse widersprechen bisherigen Annahmen. Unter Verwendung von Mikrofaziesanalysen, stabiler Isotope und Temperaturrekonstruktionen, wurde das zweite Ziel am Gościąż See erreicht. Das Seesystem war während der JD dynamisch und durch höhere aquatische Bioproduktivität, Resuspension und geringere anoxische Bedingungen als das Allerød und frühe Holozän gekennzeichnet. Dies wurde hauptsächlich durch eine verstärkte Wasserzirkulation und Erosion im Einzugsgebiet hervorgerufen, die wiederum durch stärkere Westwinde und geringeren Schutz vor Wind im Einzugsgebiet verursacht wurden. Die Abkühlung am Beginn der JD war etwa 100 Jahre länger als die finale Erwärmung an ihrem Ende, während die Umweltproxies ca. 90 Jahre nach Beginn der Abkühlung, aber gleichzeitig mit der Erwärmung auftraten. Auf Chironomiden basierende Temperatur-rekonstruktionen unterstützen neueste Studien, die milde Sommertemperaturen während der JD anzeigen. Da die meisten europäischen Seearchive keine Warven während der JD erhalten, ist ein solcher Vergleich von jährlich aufgelösten Proxyreaktionen während beiden JD Übergangszonen sehr selten. Um das zweite Ziel auch am Toten Meer zu realisieren, wurden Mikrofaziesanalysen zwischen der UGU (~17.000 BP) und dem Beginn des Holozäns (~11.000 BP) in Sedimenten aus dem Flachwasserbereich (Masada) und aus dem tiefen Becken (ICDP-Kern) durchgeführt. In diesem Intervall sinkt der Seespiegel gewaltig ab, wobei er von Schwankungen betroffen ist. Daher ist der komplette Übergang in das Holozän nur im ICDP-Kern enthalten, der im tiefen Becken gezogen wurde. In dieser Doktorarbeit wurde dieser Übergang zum ersten Mal kontinuierlich und im Detail untersucht. Während der beiden finalen Seespiegelabfälle wurden die UGU und AGU abgelagert. Zwischen den beiden Gipseinheiten zeugen jedoch Aragonitwarven und nur wenige Extremevents von sedimentärer Stabilität und einem positiven Wasserbudget für beinahe ein Jahrtausend. Selbst innerhalb der UGU und AGU deutet die Ablagerung von Aragonitwarven zwischen Gipslagen auf Dekaden bis Jahrhunderte andauernde Anstiege im Seespiegel hin, was zeigt, dass UGU und AGU nicht kontinuierlich von Trockenheit gekennzeichnet waren. Die kontinuierliche Bildung von Aragonitwarven zeigt hier stabile Phasen über Dekaden, wohingegen mächtigere und häufigere Extremevents generell auf eine erhöhte Instabilität während der Gipseinheiten hindeuten. Diese Ergebnisse zeigen, dass ein komplexes und variables Hydroklima auf unterschiedlichen Zeitskalen während des Spätglazials am Toten Meer operierte. Das dritte Ziel wurde basierend auf den individuellen Studien erreicht, die zusammen ein ganzheitliches Bild zu verschiedenen Seesystemreaktionen liefern, die während des Übergangs vom letzten Glazial zum Holozän durch diverse Klimaelemente während abrupter Klimaveränderungen mit hemisphärischen Ausmaßen beeinflusst sind. Grundsätzlich sind die durch Klimaänderungen ausgelösten Faziesänderungen ausgeprägter am Toten Meer als im Gościąż See. Zudem ist der Gościąż See beinahe durchgängig warviert, während die Sedimente des Toten Meeres weithin durch Ablagerungen von Extremevents geprägt sind, welche die Konstruktion einer kontinuierlichen Warvenchronologie verhindern. Die spätglaziale Sedimentation im Gościąż See ist hauptsächlich durch Westwinde beeinflusst und untergeordnet auch durch Vegetationsänderungen im Einzugsgebiet. Im Gegensatz dazu ist die spätglaziale Sedimentation im Toten Meer überwiegend von Schwankungen im Niederschlag während des Winters beeinflusst. Diese wiederum werden durch Temperaturschwankungen im Mittelmeer verursacht. Obwohl die Sedimentationsprozesse so verschieden sind, ist die Sedimentation interessanterweise in beiden Archiven stabiler im Bølling/Allerød und dynamischer in der JD. Kurz zusammengefasst, präsentiert diese Doktorarbeit saisonal-aufgelöste Sedimentprofile zweier Seearchive während des Spätglazials (ca. 17.000-11.000 BP), um die Auswirkungen abrupter Klimaveränderungen in verschiedenen Seesystemen zu untersuchen. Neue Altersinformationen anhand der Identifizierung von vulkanischen Aschen in den spätglazialen Sedimenten des Toten Meeres erlaubten die erste Lithologie-basierte Interpretation der JD im Sedimentprofil des Toten Meeres und den Vergleich mit dem Gościąż See. Dies hebt die Bedeutung der Erstellung einer robusten Chronologie hervor und liefert einen ersten Schritt für die Synchronisierung des Toten Meeres mit anderen Archiven im östlichen Mittelmeerraum. Des Weiteren haben die Klimarekonstruktionen anhand der Seesedimente Variabilität auf verschiedenen Zeitskalen in den Archiven gezeigt. Diese umfassen dekadische bis tausendjährige Schwankungen im Toten Meer und sogar jährliche und sub-dekadische Schwankungen in Proxys während der rapiden Übergangszonen der JD im Gościąż See. Dies zeigt wie bedeutend es ist verschiedene Seearchive zu vergleichen um die regionalen und lokalen Auswirkungen von hemisphärischen Klimaschwankungen besser zu verstehen. Hier wurde eine beispiellose Fallstudie gezeigt, die die diversen Reaktionen unterschiedlicher Seen beleuchtet und aufzeigt wie diese von verschiedenen Klimaelementen abrupter Klimaveränderungen beeinflusst werden können. Dies hebt auch hervor, wie bedeutsam es für Klimarekonstruktionen ist das jeweilige Seesystem zu verstehen. KW - paleoclimatology KW - Paläoklimatologie KW - varved lake sediments KW - warvierte Seesedimente KW - extreme events KW - Extremereignisse KW - lake system responses KW - Seesystemreaktionen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558331 ER - TY - RPRT A1 - Meyer, André A1 - Kleinknecht, Marc A1 - Richter, Dirk T1 - Abschlussbericht im BMBF-Projekt "Verbundprojekt E-LANE: E-Learning in der Lehrerfortbildung: Angebote, Nutzung und Erträge" (Förderkennzeichen: 01JD1825A-B) BT - Ausführliche Darstellung der im Vorhaben durchgeführten Arbeiten N2 - Der vorliegende Abschlussbericht präsentiert die Ergebnisse des BMBF-geförderten Verbundprojektes "E-LANE: E-Learning in der Lehrerfortbildung: Angebote, Nutzung und Erträge", das gemeinsam durch die Universität Potsdam (Prof. Dr. Dirk Richter) und der Leuphana Universität Lüneburg (Prof. Dr. Marc Kleinknecht) durchgeführt wurde. Ziel des Projektes war die Untersuchung des Angebotes von digitalen bzw. digital-gestützten Fortbildungen für Lehrkräfte in den Bundesländern Berlin, Brandenburg und Schleswig-Holstein. Im Rahmen von vier Teilstudien wurden Datenbankanalysen der Fortbildungsangebote in den jeweiligen Ländern sowie schriftliche Befragungen mit Fortbildner*innen sowie Teilnehmer*innen von Online-Fortbildungen durchgeführt. Darüber hinaus wurde eine Online-Fortbildung für Lehrkräfte zum Thema Feedback eigens konzipiert und durchgeführt. KW - Fortbildung KW - Online-Fortbildung KW - Lehrkäftefortbildung KW - Fortbildner KW - digitale Medien KW - digitale Kompetenzen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-567428 ER - TY - RPRT A1 - Döllner, Jürgen Roland Friedrich A1 - Friedrich, Tobias A1 - Arnrich, Bert A1 - Hirschfeld, Robert A1 - Lippert, Christoph A1 - Meinel, Christoph T1 - Abschlussbericht KI-Labor ITSE T1 - Final report "AI Lab ITSE" BT - KI-Labor für Methodik, Technik und Ausbildung in der IT-Systemtechnik N2 - Der Abschlussbericht beschreibt Aufgaben und Ergebnisse des KI-Labors "ITSE". Gegenstand des KI-Labors bildeten Methodik, Technik und Ausbildung in der IT-Systemtechnik zur Analyse, Planung und Konstruktion KI-basierter, komplexer IT-Systeme. N2 - Final Report on the "AI Lab ITSE" dedicated to Methodology, Technology and Education of AI in IT-Systems Engineering. KW - Abschlussbericht KW - KI-Labor KW - final report KW - AI Lab Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-578604 ER - TY - RPRT A1 - Meyer, André A1 - Richter, Eric A1 - Richter, Dirk T1 - Abschlussbericht zur wissenschaftlichen Evaluation der Werkstatt "Schule leiten" N2 - Der vorliegende Abschlussbericht umfasst die Ergebnisse der wissenschaftlichen Evaluation der Werkstatt „Schule leiten“. Bei dieser Werkstatt handelt es sich um ein 18-monatiges Fortbildungsangebot für Schulleitungen, das durch die Deutsche Schulakademie konzipiert und in Kooperation mit dem saarländischen Kultusministerium für Bildung und Kultur sowie dem saarländischen Landesinstitut für Pädagogik und Medien durchgeführt wurde. Im Zeitraum 2016–2020 absolvierten jeweils zwei Personen des Schulleitungsteams allgemeinbildender Schulen erstmalig in insgesamt drei Durchgängen verschiedene Angebote der Werkstatt. Weiterhin erhielten die Teilnehmenden die Aufgaben, im Zuge ihres Fortbildungsbesuches ein individuelles Schulentwicklungsprojekt zu planen, zu entwickeln und unter Anleitung der Werkstatt in der Schule zu implementieren. Zur Überprüfung der wahrgenommenen Qualität sowie der Wirksamkeit des Fortbildungsangebotes wurde die Universität Potsdam, Arbeitsbereich Prof. Dr. Dirk Richter, beauftragt. Der vorliegende Bericht präsentiert die Evaluationsergebnisse der Durchgänge 2 und 3. Im Zentrum der Evaluation stehen die folgenden Forschungsfragen: (1) Wie beurteilen die Teilnehmenden die Qualität der Werkstatt „Schule leiten“? (2) Inwiefern hat die Werkstatt „Schule leiten“ dazu beigetragen, die Leitungskompetenzen (u.a. Einstellungen und Führungshandeln) der Teilnehmenden zu stärken? sowie (3) Wie haben sich schulische Strukturen und Prozesse zur Förderung von Schulentwicklung in den teilnehmenden Schulen durch die Werkstatt „Schule leiten“ verändert? Zur Beantwortung der Fragestellungen wurden eine Reihe schriftlicher Befragungen mit den teilnehmenden Schulleitungen sowie den Lehrkräften der teilnehmenden Schulen durchgeführt. Diese Befragungen erfolgten sowohl begleitend zum Fortbildungsprogramm (nach Absolvieren der einzelnen Angebote) sowie in einem Prä-Post-Follow-Up-Design. Weiterhin wurden im Rahmen einer qualitativen Begleitstudie verschiedene Personen (Schulleitung, Mitglieder des Schulleitungsteams, Lehrkräfte) von insgesamt fünf Schulen über drei Zeitpunkte dazu befragt, wie die Planung, Entwicklung und Implementation der Schulentwicklungsprojekte erfolgten. Die Befunde der Evaluation deuten insgesamt darauf hin, dass die Qualität der Werkstatt „Schule leiten“ als Gesamtprogramm sowie die einzelnen Angebote der Werkstatt sehr positiv bewertet werden. Dabei nehmen die Teilnehmenden von Durchgang 2 die Werkstatt in einer Reihe von Merkmalen positiver wahr als die Teilnehmenden von Durchgang 3. Weiterhin deuten die Ergebnisse darauf hin, dass sich bestimmte Facetten des Führungshandelns der Teilnehmenden im zeitlichen Verlauf positiv verändert haben. Hierfür existieren Hinweise sowohl aus Perspektive der Teilnehmenden selbst als auch aus Perspektive der Lehrkräfte ihrer Schulen. Motivationale Merkmale der Teilnehmenden sowie Aspekte des Führungshandelns, die sich auf Tätigkeiten zur Unterstützung der innerschulischen Kooperation beziehen, bleiben aus Perspektive der Teilnehmenden hingegen weitestgehend konstant. Hinsichtlich der Veränderungen schulischer Strukturen zur Schulentwicklung deuten die Ergebnisse auf eine positive Entwicklung der wahrgenommenen Offenheit gegenüber Kooperation im Kollegium aus Perspektive der Lehrkräfte hin. Die Befunde der qualitativen Begleitstudie liefern weitere Informationen über die wahrgenommene Qualität der Werkstatt sowie über Veränderungen aufseiten der Teilnehmenden und der schulischen Strukturen. KW - Schulleitungen KW - Forbildung KW - Evaluation KW - Schulentwicklung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-548869 ER - TY - THES A1 - Gunold, Sascha T1 - Abzug unter Beobachtung T1 - Withdrawal under observation BT - Kooperation und Konkurrenz von Bundeswehr und Bundesnachrichtendienst beim Abzug der sowjetischen/russischen Truppen aus Deutschland bis 1994 BT - competition and cooperation of German Armed Forces and Federal Foreign Intelligence Service during withdrawal of Soviet/Russian forces from Germany until 1994 N2 - Mehr als vier Jahrzehnte lang beobachteten die Streitkräfte und Militärnachrichtendienste der NATO-Staaten die sowjetischen Truppen in der DDR. Hierfür übernahm in der Bundesrepublik Deutschland der Bundesnachrichtendienst (BND) die militärische Auslandsaufklärung unter Anwendung nachrichtendienstlicher Mittel und Methoden. Die Bundeswehr betrieb dagegen taktische Fernmelde- und elektronische Aufklärung und hörte vor allem den Funkverkehr der „Gruppe der sowjetischen Streitkräfte in Deutschland“ (GSSD) ab. Mit der Aufstellung einer zentralen Dienststelle für das militärische Nachrichtenwesen, dem Amt für Nachrichtenwesen der Bundeswehr, bündelte und erweiterte zugleich das Bundesministerium für Verteidigung in den 1980er Jahren seine analytischen Kapazitäten. Das Monopol des BND in der militärischen Auslandsaufklärung wurde von der Bundeswehr dadurch zunehmend infrage gestellt. Nach der deutschen Wiedervereinigung am 3. Oktober 1990 befanden sich immer noch mehr als 300.000 sowjetische Soldaten auf deutschem Territorium. Die 1989 in Westgruppe der Truppen (WGT) umbenannte GSSD sollte – so der Zwei-plus-Vier-Vertrag – bis 1994 vollständig abziehen. Der Vertrag verbot auch den drei Westmächten, in den neuen Bundesländern militärisch tätig zu sein. Die für die Militäraufklärung bis dahin unverzichtbaren Militärverbindungsmissionen der Westmächte mussten ihre Dienste einstellen. Doch was geschah mit diesem „alliierten Erbe“? Wer übernahm auf deutscher Seite die Aufklärung der sowjetischen Truppen und wer kontrollierte den Truppenabzug?  Die Studie untersucht die Rolle von Bundeswehr und BND beim Abzug der WGT zwischen 1990 und 1994 und fragt dabei nach Kooperation und Konkurrenz zwischen Streitkräften und Nachrichtendiensten. Welche militärischen und nachrichtendienstlichen Mittel und Fähigkeiten stellte die Bundesregierung zur Bewältigung des Truppenabzugs zur Verfügung, nachdem die westlichen Militärverbindungsmissionen aufgelöst wurden? Wie veränderten sich die Anforderungen an die militärische Auslandsaufklärung des BND? Inwieweit setzten sich Konkurrenz und Kooperation von Bundeswehr und BNDbeim Truppenabzug fort? Welche Rolle spielten dabei die einstigen Westmächte? Die Arbeit versteht sich nicht nur als Beitrag zur Militärgeschichte, sondern auch zur deutschen Nachrichtendienstgeschichte. N2 - The study examines the cooperation and competition between the Federal Defence Forces of Germany (Bundeswehr) and the German Foreign Intelligence Service (Bundesnachichtendienst, BND) during the withdrawal of Soviet Group of Western Forces from Germany 1990-1994. It is a common approach of military and intelligence history also reflecting the decommissioning of Military Liaison Missions of USA, United Kingdom and France (USMLM, BRIXMIS, MMFL). KW - Bundeswehr KW - Bundesnachrichtendienst KW - Gruppe der Sowjetischen Streitkräfte in Deutschland KW - Westgruppe der Truppen KW - Alliierte Militärverbindungsmissionen KW - Nachrichtendienstgeschichte KW - Militärgeschichte KW - Kalter Krieg KW - Wiedervereinigung KW - Bundeswehrkommando Ost KW - Nuklearwaffen KW - Atomwaffen KW - Spionage KW - Truppenabzug KW - allied military liaison missions KW - nuclear weapons KW - Federal Foreign Intelligence Service KW - Federal Armed Forces of Germany KW - Bundeswehrkommando Ost KW - group of Soviet forces in Germany KW - Cold War KW - military history KW - Intelligence history KW - espionage, Intelligence KW - withdrawal of troops KW - western group of forces KW - German reunification Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571977 ER - TY - GEN A1 - Göldel, Julia M. A1 - Kamrath, Clemens A1 - Minden, Kirsten A1 - Wiegand, Susanna A1 - Lanzinger, Stefanie A1 - Sengler, Claudia A1 - Weihrauch-Blüher, Susann A1 - Holl, Reinhard W. A1 - Tittel, Sascha René A1 - Warschburger, Petra T1 - Access to Healthcare for Children and Adolescents with a Chronic Health Condition during the COVID-19 Pandemic: First Results from the KICK-COVID Study in Germany T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - This study examines the access to healthcare for children and adolescents with three common chronic diseases (type-1 diabetes (T1D), obesity, or juvenile idiopathic arthritis (JIA)) within the 4th (Delta), 5th (Omicron), and beginning of the 6th (Omicron) wave (June 2021 until July 2022) of the COVID-19 pandemic in Germany in a cross-sectional study using three national patient registries. A paper-and-pencil questionnaire was given to parents of pediatric patients (<21 years) during the routine check-ups. The questionnaire contains self-constructed items assessing the frequency of healthcare appointments and cancellations, remote healthcare, and satisfaction with healthcare. In total, 905 parents participated in the T1D-sample, 175 in the obesity-sample, and 786 in the JIA-sample. In general, satisfaction with healthcare (scale: 0–10; 10 reflecting the highest satisfaction) was quite high (median values: T1D 10, JIA 10, obesity 8.5). The proportion of children and adolescents with canceled appointments was relatively small (T1D 14.1%, JIA 11.1%, obesity 20%), with a median of 1 missed appointment, respectively. Only a few parents (T1D 8.6%; obesity 13.1%; JIA 5%) reported obstacles regarding health services during the pandemic. To conclude, it seems that access to healthcare was largely preserved for children and adolescents with chronic health conditions during the COVID-19 pandemic in Germany. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 812 KW - chronic health condition KW - children and adolescents KW - health care KW - COVID-19 pandemic KW - diabetes KW - rheumatic diseases KW - obesity Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-578363 SN - 1866-8364 IS - 812 ER - TY - THES A1 - Chen, Hui Ching T1 - Acquisition of focus - in a cross-linguistic perspective T1 - Spracherwerb im Fokus - eine sprachübergreifende Perspektive N2 - In dieser Dissertation untersuchen wir, wie chinesischen Muttersprachler und deutschen Muttersprachler, sowohl die Erwachsenen als auch die Kinder, verschiedene linguistische Mittel, wie z. B. Wortstellungsinformationen, prosodische und lexikalische Mittel im Sprachverständnis korrekt interpretieren. N2 - Successful communication is often explored by people throughout their life courses. To effectively transfer one’s own information to others, people employ various linguistic tools, such as word order information, prosodic cues, and lexical choices. The exploration of these linguistic cues is known as the study of information structure (IS). Moreover, an important issue in the language acquisition of children is the investigation of how they acquire IS. This thesis seeks to improve our understanding of how children acquire different tools (i.e., prosodical cues, syntactical cues, and the focus particle only) of focus marking in a cross linguistic perspective. In the first study, following Szendrői and her colleagues (2017)- the sentence-picture verification task- was performed to investigate whether three- to five-year-old Mandarin-speaking children as well as Mandarin-speaking adults could apply prosodic information to recognize focus in sentences. More, in the second study, not only Mandarin-speaking adults and Mandarin-speaking children but also German-speaking adults and German-speaking children were included to confirm the assumption that children could have adult-like performance in understanding sentence focus by identifying language specific cues in their mother tongue from early onwards. In this study, the same paradigm- the sentence-picture verification task- as in the first study was employed together with the eye-tracking method. Finally, in the last study, an issue of whether five-year-old Mandarin-speaking children could understand the pre-subject only sentence was carried out and again whether prosodic information would help them to better understand this kind of sentences. The overall results seem to suggest that Mandarin-speaking children from early onwards could make use of the specific linguistic cues in their ambient language. That is, in Mandarin, a Topic-prominent and tone language, the word order information plays a more important rule than the prosodic information and even three-year-old Mandarin-speaking children could follow the word order information. More, although it seems that German-speaking children could follow the prosodic information, they did not have the adult-like performance in the object-accented condition. A feasible reason for this result is that there are more possibilities of marking focus in German, such as flexible word order, prosodic information, focus particles, and thus it would take longer time for German-speaking children to manage these linguistic tools. Another important empirical finding regarding the syntactically-marked focus in German is that it seems that the cleft construction is not a valid focus construction and this result corroborates with the previous observations (Dufter, 2009). Further, eye-tracking method did help to uncover how the parser direct their attention for recognizing focus. In the final study, it is showed that with explicit verbal context Mandarin-speaking children could understand the pre-subject only sentence and the study brought a better understanding of the acquisition of the focus particle- only with the Mandarin-speaking children. KW - information structure KW - language acquisition KW - Mandarin KW - German KW - Prosody KW - Informationsstruktur KW - Spracherwerb KW - Deutsch KW - Mandarin KW - Prosodie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-553458 ER - TY - GEN A1 - Wutzler, Bianca A1 - Hudson, Paul A1 - Thieken, Annegret T1 - Adaptation strategies of flood-damaged businesses in Germany T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Flood risk management in Germany follows an integrative approach in which both private households and businesses can make an important contribution to reducing flood damage by implementing property-level adaptation measures. While the flood adaptation behavior of private households has already been widely researched, comparatively less attention has been paid to the adaptation strategies of businesses. However, their ability to cope with flood risk plays an important role in the social and economic development of a flood-prone region. Therefore, using quantitative survey data, this study aims to identify different strategies and adaptation drivers of 557 businesses damaged by a riverine flood in 2013 and 104 businesses damaged by pluvial or flash floods between 2014 and 2017. Our results indicate that a low perceived self-efficacy may be an important factor that can reduce the motivation of businesses to adapt to flood risk. Furthermore, property-owners tended to act more proactively than tenants. In addition, high experience with previous flood events and low perceived response costs could strengthen proactive adaptation behavior. These findings should be considered in business-tailored risk communication. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1304 KW - risk management KW - climate change adaptation KW - floods KW - disaster risk reduction KW - Germany KW - precaution KW - emergency management Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-577350 SN - 1866-8372 IS - 1304 ER - TY - GEN A1 - Neumann, Daniel A1 - Tiberius, Victor A1 - Biendarra, Florin T1 - Adopting wearables to customize health insurance contributions: a ranking-type Delphi T2 - Zweitveröffentlichungen der Universität Potsdam : Wirtschafts- und Sozialwissenschaftliche Reihe N2 - Background Wearables, as small portable computer systems worn on the body, can track user fitness and health data, which can be used to customize health insurance contributions individually. In particular, insured individuals with a healthy lifestyle can receive a reduction of their contributions to be paid. However, this potential is hardly used in practice. Objective This study aims to identify which barrier factors impede the usage of wearables for assessing individual risk scores for health insurances, despite its technological feasibility, and to rank these barriers according to their relevance. Methods To reach these goals, we conduct a ranking-type Delphi study with the following three stages. First, we collected possible barrier factors from a panel of 16 experts and consolidated them to a list of 11 barrier categories. Second, the panel was asked to rank them regarding their relevance. Third, to enhance the panel consensus, the ranking was revealed to the experts, who were then asked to re-rank the barriers. Results The results suggest that regulation is the most important barrier. Other relevant barriers are false or inaccurate measurements and application errors caused by the users. Additionally, insurers could lack the required technological competence to use the wearable data appropriately. Conclusion A wider use of wearables and health apps could be achieved through regulatory modifications, especially regarding privacy issues. Even after assuring stricter regulations, users’ privacy concerns could partly remain, if the data exchange between wearables manufacturers, health app providers, and health insurers does not become more transparent. T3 - Zweitveröffentlichungen der Universität Potsdam : Wirtschafts- und Sozialwissenschaftliche Reihe - 153 KW - Delphi study KW - Health insurance KW - Wearable electronic device KW - Wearable technology KW - Internet of Things KW - Barriers Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566723 SN - 1867-5808 IS - 153 ER - TY - THES A1 - Schrauth, Philipp T1 - Agglomerations, air quality and urban transformation T1 - Ballungsräume, Luftqualität und städtischer Wandel N2 - Die vorliegende Dissertation stellt empirische Untersuchungen über den Zusammenhang von städtischem Leben und dessen ökonomische Kosten, insbesondere für die Umwelt, an. Dabei werden zum einen bestehende Forschungslücken des Einflusses von Bevölkerungsdichte auf die Luftqualität geschlossen und zum anderen innovative Politikmaßnahmen im Verkehrsbereich untersucht, die Ballungsräume nachhaltiger gestalten sollen. Im Zentrum der Betrachtungen stehen Luftverschmutzung, Staus und Verkehrsunfälle, die für Fragen der allgemeinen Wohlfahrt bedeutend sind und erhebliche Kostenfaktoren für urbanes Leben darstellen. Von ihnen ist ein beträchtlicher Anteil der Weltbevölkerung betroffen. Während im Jahr 2018 bereits 55% der Menschen weltweit in Städten lebten, soll dieser Anteil bis zum Jahr 2050 ungefähr 68% betragen. Die vier in sich geschlossenen Kapitel dieser Arbeit lassen sich in zwei Abschnitte aufteilen: In den Kapiteln 2 und 3 werden neue kausale Erkenntnisse über das komplexe Zusammenspiel von städtischen Strukturen und Luftverschmutzung erbracht. Kapitel 4 und 5 untersuchen anschließend politische Maßnahmen zur Förderung nicht-motorisierter Verkehrsmittel und deren Einfluss auf Luftqualität sowie Staugeschehen und Verkehrsunfälle. N2 - The present dissertation conducts empirical research on the relationship between urban life and its economic costs, especially for the environment. On the one hand, existing gaps in research on the influence of population density on air quality are closed and, on the other hand, innovative policy measures in the transport sector are examined that are intended to make metropolitan areas more sustainable. The focus is on air pollution, congestion and traffic accidents, which are important for general welfare issues and represent significant cost factors for urban life. They affect a significant proportion of the world's population. While 55% of the world's people already lived in cities in 2018, this share is expected to reach approximately 68% by 2050. The four self-contained chapters of this thesis can be divided into two sections: Chapters 2 and 3 provide new causal insights into the complex interplay between urban structures and air pollution. Chapters 4 and 5 then examine policy measures to promote non-motorised transport and their influence on air quality as well as congestion and traffic accidents. KW - air quality KW - urban transformation KW - public transport KW - cycling KW - population density KW - Luftqualität KW - Radverkehr KW - Bevölkerungsdichte KW - Öffentliche Verkehrsmittel KW - städtischer Wandel KW - Verkehr KW - traffic KW - Städte KW - cities KW - Umwelt KW - environment Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586087 ER - TY - THES A1 - Nguyen, Huyen Evelyn T1 - Agilität und Führungskräfte-Mitarbeiter-Beziehung in der öffentlichen Verwaltung T1 - Agility and leader-member-exchange in public administration N2 - Zunehmend komplexe Herausforderungen und Aufgaben lassen sich nicht mehr mit den bisherigen Strukturen, Methoden und Prozessen der klassischen Verwaltung bewältigen. Vielmehr gewinnen Ansätze und Methoden des New Work im öffentlichen Sektor angesichts der sich stetig ändernden und dynamischen Arbeitswelt eine immer größere Bedeutung. Umso mehr besteht die Notwendigkeit, sich in der Verwaltung agil aufzustellen. Unter Agilität wird hierbei die Fähigkeit einer Organisation verstanden, sich schnell verändernden Rahmenbedingungen flexibel und dynamisch anzupassen. Im Fokus dieser Arbeit steht der Einfluss von Agilität auf die Führungskräfte-Mitarbeiter-Beziehung. Mittels einer halbstandardisierten Online-Befragung im Landesamt für Flüchtlingsangelegenheiten und im Bezirksamt Neukölln von Berlin wird zunächst der vorliegende Agilitätsgrad mit dem Fokus auf agile Organisationsstrukturen, agile Organisationskultur und agile Führung ermittelt und sodann anhand der Qualität der dyadischen Arbeitsbeziehung von Führungskraft und Mitarbeiter (LMX-Qualität) überprüft, inwiefern die agile Arbeitsweise im Vergleich zu einer nicht-agilen Arbeitsumgebung die Beziehung beeinflusst. Im Ergebnis der Untersuchung zeigt sich, dass ein positiver Zusammenhang zwischen Agilität und der Führungskräfte-Mitarbeiter-Beziehung besteht. Es stellt sich in beiden Ämtern ein mäßig bis starker Agilitätsgrad heraus, wobei besonders agile Führungseigenschaften zu den wesentlichen Faktoren zählen, die eine hochqualitative Beziehung begünstigen. Während im Bezirksamt ein Zusammenhang zwischen Agilität und hoher LMX-Qualität ermittelt wurde, konnte dieser nicht für die untersuchte Stichprobe des Landesamts festgestellt werden. Dennoch ließ sich in beiden Behörden ein positiver Einfluss von Agilität auf zumindest die Entwicklung einer erfolgreichen Führungskräfte-Mitarbeiter-Beziehung erfassen. N2 - Continuous complex challenges and tasks are no longer solvable with the classic structures and methods of public administration. Rather concepts of New Work are gaining importance due to the dynamic work environment in the public sector. This leads to the necessity of an agile transformation in public administration. Agility in organizations is understood to be the ability to adapt to rapidly changing conditions in the work environment. The following paper focuses on the influence of agility on the Leader-Member-Exchange (LMX). Using a semi-standard online poll, the degree of agility with an emphasis on agile organizational structures, agile organizational culture, and agile leadership is analyzed in the State Office for Refugees Affairs and District Office Neukölln of Berlin. Furthermore, relationships between leaders and subordinates in an agile environment and relationships in a non-agile environment are compared through the lens of the quality of Leader-Member-Exchange (LMX-Quality). The results show a significant influence of agility on Leader-Member-Exchange. In both Offices a moderate to high degree of agility is found. Particularly, agile leadership characteristics encourage high-quality relationships. Whereas a correlation between agility and high LMX-Quality is identified in the District Office Neukölln, this result could not be observed in the State Office of Refugees Affairs. However, the influence of agility on at least the development of a positive and successful relationship is established in both Offices. T3 - Schriftenreihe für Public und Nonprofit Management - 31 KW - Agilität KW - Führungskräfte-Mitarbeiter-Beziehung KW - Öffentliche Verwaltung KW - Leader-Member-Exchange KW - Agile Leadership KW - Public Administration KW - Agility KW - LMX-Theorie KW - Agile Führung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-565831 SN - 2190-4561 ER - TY - GEN A1 - Reeg, Jette A1 - Strigl, Lea A1 - Jeltsch, Florian T1 - Agricultural buffer zone thresholds to safeguard functional bee diversity: Insights from a community modeling approach T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Wild bee species are important pollinators in agricultural landscapes. However, population decline was reported over the last decades and is still ongoing. While agricultural intensification is a major driver of the rapid loss of pollinating species, transition zones between arable fields and forest or grassland patches, i.e., agricultural buffer zones, are frequently mentioned as suitable mitigation measures to support wild bee populations and other pollinator species. Despite the reported general positive effect, it remains unclear which amount of buffer zones is needed to ensure a sustainable and permanent impact for enhancing bee diversity and abundance. To address this question at a pollinator community level, we implemented a process-based, spatially explicit simulation model of functional bee diversity dynamics in an agricultural landscape. More specifically, we introduced a variable amount of agricultural buffer zones (ABZs) at the transition of arable to grassland, or arable to forest patches to analyze the impact on bee functional diversity and functional richness. We focused our study on solitary bees in a typical agricultural area in the Northeast of Germany. Our results showed positive effects with at least 25% of virtually implemented agricultural buffer zones. However, higher amounts of ABZs of at least 75% should be considered to ensure a sufficient increase in Shannon diversity and decrease in quasi-extinction risks. These high amounts of ABZs represent effective conservation measures to safeguard the stability of pollination services provided by solitary bee species. As the model structure can be easily adapted to other mobile species in agricultural landscapes, our community approach offers the chance to compare the effectiveness of conservation measures also for other pollinator communities in future. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1281 KW - agricultural landscape KW - buffer zones KW - community model KW - functional traits KW - solitary bees KW - spatially explicit Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-570800 SN - 1866-8372 IS - 1281 ER - TY - JOUR A1 - Ette, Ottmar ED - Ette, Ottmar ED - Knobloch, Eberhard T1 - Alexander von Humboldt im Archiv BT - die Entstehung eines neuen Humboldt-Bildes aus dem mobilen Blick in vergangene Zukünfte JF - HiN : Alexander von Humboldt im Netz ; International Review for Humboldtian Studies N2 - Der Aufsatz erschließt die Anfänge, Ergebnisse und Erfolge der editionsphilologischen Arbeit im laufenden Projekt des BBAW-Langzeitvorhabens „Alexander von Humboldt auf Reisen – Wissenschaft aus der Bewegung“ und gibt einen Überblick über die Zukünfte philologischen Arbeitens mit den Methoden der Digital Humanities. Dabei werden auch bibliophile Druckausgaben digitaler Publikationen und die kontinuierliche Öffentlichkeitsarbeit der Figur Alexander von Humboldts in den Blick genommen, was durch zahlreiche Vernetzungen zwischen Institutionen international gefördert und durch kontinuierliche Kooperationen insbesondere durch das neu gegründete Humboldt Center for Transdisciplinary Studies (HCTS) in China/Changsha erweitert wird. Diskutiert wird die wissenschaftliche Bedeutung der graphischen und visuellen Dimension des Humboldt’schen Archivs, die durch die digitale Aufbereitung des Materials Forscher:innen weltweit miteinander verbindet und neue Forschungskonzepte eröffnet. N2 - The article opens up the beginnings, results and successes of the philological work on the digital scholarly editions in the current project of the BBAW long-term project “Travelling Humboldt – Science on the Move” and gives an overview of the future of philological methods within the Digital Humanities. It focuses also on bibliophilic print editions of digital publications and the ongoing public relations work of Alexander von Humboldt’s figure, which is promoted internationally through numerous networks between institutions and expanded through ongoing collaborations, especially through the newly founded Humboldt Center for Transdisciplinary Studies (HCTS) in China/Changsha. The article discusses the scientific significance of the graphic and visual dimension of Humboldt’s archive, which connects researchers worldwide through the digital realization of the material and gives rise to new research concepts. N2 - El artículo expone los inicios, resultados y éxitos del trabajo filológico de edición en el proyecto actual de la BBAW “Humboldt Viajero – Ciencia en movimiento“. En ese contexto ofrece una visión general del futuro del trabajo filológico con los métodos de las Humanidades Digitales. También se prestará atención a las ediciones impresas bibliófilas de las publicaciones digitales y a las relaciones públicas de la figura de Alexander von Humboldt, que se promueve internacionalmente a través de numerosas redes entre instituciones y se amplía mediante colaboraciones continuas, especialmente a través del recién fundado Centro Humboldt de Estudios Transdisciplinarios (HCTS) en China/Changsha. Se debatirá la importancia académica de la dimensión gráfica y visual del archivo de Humboldt, que conecta a investigadores de todo el mundo a través del realización digital del material y abre nuevos conceptos de investigación. KW - edition humboldt digital KW - edition humboldt print Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-592326 SN - 2568-3543 SN - 1617-5239 VL - XXIII IS - 45 SP - 13 EP - 28 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Benlian, Alexander A1 - Wiener, Martin A1 - Cram, W. Alec A1 - Krasnova, Hanna A1 - Maedche, Alexander A1 - Mohlmann, Mareike A1 - Recker, Jan A1 - Remus, Ulrich T1 - Algorithmic management BT - Bright and dark sides, practical implications, and research opportunities T2 - Zweitveröffentlichungen der Universität Potsdam : Wirtschafts- und Sozialwissenschaftliche Reihe T3 - Zweitveröffentlichungen der Universität Potsdam : Wirtschafts- und Sozialwissenschaftliche Reihe - 174 Y1 - 0202 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-607112 SN - 2363-7005 SN - 1867-0202 SN - 1867-5808 IS - 6 ER - TY - GEN A1 - Warschburger, Petra A1 - Wortmann, Hanna Rosalie A1 - Gisch, Ulrike Alexandra A1 - Baer, Nadja-Raphaela A1 - Schenk, Liane A1 - Anton, Verena A1 - Bergmann, Manuela M. T1 - An experimental approach to training interoceptive sensitivity BT - study protocol for a pilot randomized controlled trial T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Background Eating in absence of hunger is quite common and often associated with an increased energy intake co-existent with a poorer food choice. Intuitive eating (IE), i.e., eating in accordance with internal hunger and satiety cues, may protect from overeating. IE, however, requires accurate perception and processing of one’s own bodily signals, also referred to as interoceptive sensitivity. Training interoceptive sensitivity might therefore be an effective method to promote IE and prevent overeating. As most studies on eating behavior are conducted in younger adults and close social relationships influence health-related behavior, this study focuses on middle-aged and older couples. Methods The present pilot randomized intervention study aims at investigating the feasibility and effectiveness of a 21-day mindfulness-based training program designed to increase interoceptive sensitivity. A total of N = 60 couples participating in the NutriAct Family Study, aged 50–80 years, will be recruited. This randomized-controlled intervention study comprises three measurement points (pre-intervention, post-intervention, 4-week follow-up) and a 21-day training that consists of daily mindfulness-based guided audio exercises (e.g., body scan). A three-arm intervention study design is applied to compare two intervention groups (training together as a couple vs. training alone) with a control group (no training). Each measurement point includes the assessment of self-reported and objective indicators of interoceptive sensitivity (primary outcome), self-reported indicators of intuitive and maladaptive eating (secondary outcomes), and additional variables. A training evaluation applying focus group discussions will be conducted to assess participants’ overall acceptance of the training and its feasibility. Discussion By investigating the feasibility and effectiveness of a mindfulness-based training program to increase interoceptive sensitivity, the present study will contribute to a deeper understanding of how to promote healthy eating in older age. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 826 KW - Digital intervention KW - Older adults KW - Interoception KW - Eating behavior KW - Intuitive eating KW - Partnership KW - Mindfulness KW - Randomized-controlled trial KW - NutriAct Family Study KW - Mixed methods Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586677 SN - 1866-8364 IS - 826 ER - TY - GEN A1 - Wochatz, Monique A1 - Schraplau, Anne A1 - Engel, Tilman A1 - Zecher, Mahli Megan A1 - Sharon, Hadar A1 - Alt, Yasmin A1 - Mayer, Frank A1 - Kalron, Alon T1 - Application of eccentric training in various clinical populations BT - Protocol for a multi-centered pilot and feasibility study in people with low back pain and people with multiple sclerosis T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Physical activity and exercise are effective approaches in prevention and therapy of multiple diseases. Although the specific characteristics of lengthening contractions have the potential to be beneficial in many clinical conditions, eccentric training is not commonly used in clinical populations with metabolic, orthopaedic, or neurologic conditions. The purpose of this pilot study is to investigate the feasibility, functional benefits, and systemic responses of an eccentric exercise program focused on the trunk and lower extremities in people with low back pain (LBP) and multiple sclerosis (MS). A six-week eccentric training program with three weekly sessions is performed by people with LBP and MS. The program consists of ten exercises addressing strength of the trunk and lower extremities. The study follows a four-group design (N = 12 per group) in two study centers (Israel and Germany): three groups perform the eccentric training program: A) control group (healthy, asymptomatic); B) people with LBP; C) people with MS; group D (people with MS) receives standard care physiotherapy. Baseline measurements are conducted before first training, post-measurement takes place after the last session both comprise blood sampling, self-reported questionnaires, mobility, balance, and strength testing. The feasibility of the eccentric training program will be evaluated using quantitative and qualitative measures related to the study process, compliance and adherence, safety, and overall program assessment. For preliminary assessment of potential intervention effects, surrogate parameters related to mobility, postural control, muscle strength and systemic effects are assessed. The presented study will add knowledge regarding safety, feasibility, and initial effects of eccentric training in people with orthopaedic and neurological conditions. The simple exercises, that are easily modifiable in complexity and intensity, are likely beneficial to other populations. Thus, multiple applications and implementation pathways for the herein presented training program are conceivable. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 833 Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-588493 SN - 1866-8364 IS - 833 ER - TY - THES A1 - Brill, Fabio Alexander T1 - Applications of machine learning and open geospatial data in flood risk modelling N2 - Der technologische Fortschritt erlaubt es, zunehmend komplexe Vorhersagemodelle auf Basis immer größerer Datensätze zu produzieren. Für das Risikomanagement von Naturgefahren sind eine Vielzahl von Modellen als Entscheidungsgrundlage notwendig, z.B. in der Auswertung von Beobachtungsdaten, für die Vorhersage von Gefahrenszenarien, oder zur statistischen Abschätzung der zu erwartenden Schäden. Es stellt sich also die Frage, inwiefern moderne Modellierungsansätze wie das maschinelle Lernen oder Data-Mining in diesem Themenbereich sinnvoll eingesetzt werden können. Zusätzlich ist im Hinblick auf die Datenverfügbarkeit und -zugänglichkeit ein Trend zur Öffnung (open data) zu beobachten. Thema dieser Arbeit ist daher, die Möglichkeiten und Grenzen des maschinellen Lernens und frei verfügbarer Geodaten auf dem Gebiet der Hochwasserrisikomodellierung im weiteren Sinne zu untersuchen. Da dieses übergeordnete Thema sehr breit ist, werden einzelne relevante Aspekte herausgearbeitet und detailliert betrachtet. Eine prominente Datenquelle im Bereich Hochwasser ist die satellitenbasierte Kartierung von Überflutungsflächen, die z.B. über den Copernicus Service der Europäischen Union frei zur Verfügung gestellt werden. Große Hoffnungen werden in der wissenschaftlichen Literatur in diese Produkte gesetzt, sowohl für die akute Unterstützung der Einsatzkräfte im Katastrophenfall, als auch in der Modellierung mittels hydrodynamischer Modelle oder zur Schadensabschätzung. Daher wurde ein Fokus in dieser Arbeit auf die Untersuchung dieser Flutmasken gelegt. Aus der Beobachtung, dass die Qualität dieser Produkte in bewaldeten und urbanen Gebieten unzureichend ist, wurde ein Verfahren zur nachträglichenVerbesserung mittels maschinellem Lernen entwickelt. Das Verfahren basiert auf einem Klassifikationsalgorithmus der nur Trainingsdaten von einer vorherzusagenden Klasse benötigt, im konkreten Fall also Daten von Überflutungsflächen, nicht jedoch von der negativen Klasse (trockene Gebiete). Die Anwendung für Hurricane Harvey in Houston zeigt großes Potenzial der Methode, abhängig von der Qualität der ursprünglichen Flutmaske. Anschließend wird anhand einer prozessbasierten Modellkette untersucht, welchen Einfluss implementierte physikalische Prozessdetails auf das vorhergesagte statistische Risiko haben. Es wird anschaulich gezeigt, was eine Risikostudie basierend auf etablierten Modellen leisten kann. Solche Modellketten sind allerdings bereits für Flusshochwasser sehr komplex, und für zusammengesetzte oder kaskadierende Ereignisse mit Starkregen, Sturzfluten, und weiteren Prozessen, kaum vorhanden. Im vierten Kapitel dieser Arbeit wird daher getestet, ob maschinelles Lernen auf Basis von vollständigen Schadensdaten einen direkteren Weg zur Schadensmodellierung ermöglicht, der die explizite Konzeption einer solchen Modellkette umgeht. Dazu wird ein staatlich erhobener Datensatz der geschädigten Gebäude während des schweren El Niño Ereignisses 2017 in Peru verwendet. In diesem Kontext werden auch die Möglichkeiten des Data-Mining zur Extraktion von Prozessverständnis ausgelotet. Es kann gezeigt werden, dass diverse frei verfügbare Geodaten nützliche Informationen für die Gefahren- und Schadensmodellierung von komplexen Flutereignissen liefern, z.B. satellitenbasierte Regenmessungen, topographische und hydrographische Information, kartierte Siedlungsflächen, sowie Indikatoren aus Spektraldaten. Zudem zeigen sich Erkenntnisse zu den Schädigungsprozessen, die im Wesentlichen mit den vorherigen Erwartungen in Einklang stehen. Die maximale Regenintensität wirkt beispielsweise in Städten und steilen Schluchten stärker schädigend, während die Niederschlagssumme in tiefliegenden Flussgebieten und bewaldeten Regionen als aussagekräftiger befunden wurde. Ländliche Gebiete in Peru weisen in der präsentierten Studie eine höhere Vulnerabilität als die Stadtgebiete auf. Jedoch werden auch die grundsätzlichen Grenzen der Methodik und die Abhängigkeit von spezifischen Datensätzen and Algorithmen offenkundig. In der übergreifenden Diskussion werden schließlich die verschiedenen Methoden – prozessbasierte Modellierung, prädiktives maschinelles Lernen, und Data-Mining – mit Blick auf die Gesamtfragestellungen evaluiert. Im Bereich der Gefahrenbeobachtung scheint eine Fokussierung auf neue Algorithmen sinnvoll. Im Bereich der Gefahrenmodellierung, insbesondere für Flusshochwasser, wird eher die Verbesserung von physikalischen Modellen, oder die Integration von prozessbasierten und statistischen Verfahren angeraten. In der Schadensmodellierung fehlen nach wie vor die großen repräsentativen Datensätze, die für eine breite Anwendung von maschinellem Lernen Voraussetzung ist. Daher ist die Verbesserung der Datengrundlage im Bereich der Schäden derzeit als wichtiger einzustufen als die Auswahl der Algorithmen. N2 - Technological progress allows for producing ever more complex predictive models on the basis of increasingly big datasets. For risk management of natural hazards, a multitude of models is needed as basis for decision-making, e.g. in the evaluation of observational data, for the prediction of hazard scenarios, or for statistical estimates of expected damage. The question arises, how modern modelling approaches like machine learning or data-mining can be meaningfully deployed in this thematic field. In addition, with respect to data availability and accessibility, the trend is towards open data. Topic of this thesis is therefore to investigate the possibilities and limitations of machine learning and open geospatial data in the field of flood risk modelling in the broad sense. As this overarching topic is broad in scope, individual relevant aspects are identified and inspected in detail. A prominent data source in the flood context is satellite-based mapping of inundated areas, for example made openly available by the Copernicus service of the European Union. Great expectations are directed towards these products in scientific literature, both for acute support of relief forces during emergency response action, and for modelling via hydrodynamic models or for damage estimation. Therefore, a focus of this work was set on evaluating these flood masks. From the observation that the quality of these products is insufficient in forested and built-up areas, a procedure for subsequent improvement via machine learning was developed. This procedure is based on a classification algorithm that only requires training data from a particular class to be predicted, in this specific case data of flooded areas, but not of the negative class (dry areas). The application for hurricane Harvey in Houston shows the high potential of this method, which depends on the quality of the initial flood mask. Next, it is investigated how much the predicted statistical risk from a process-based model chain is dependent on implemented physical process details. Thereby it is demonstrated what a risk study based on established models can deliver. Even for fluvial flooding, such model chains are already quite complex, though, and are hardly available for compound or cascading events comprising torrential rainfall, flash floods, and other processes. In the fourth chapter of this thesis it is therefore tested whether machine learning based on comprehensive damage data can offer a more direct path towards damage modelling, that avoids explicit conception of such a model chain. For that purpose, a state-collected dataset of damaged buildings from the severe El Niño event 2017 in Peru is used. In this context, the possibilities of data-mining for extracting process knowledge are explored as well. It can be shown that various openly available geodata sources contain useful information for flood hazard and damage modelling for complex events, e.g. satellite-based rainfall measurements, topographic and hydrographic information, mapped settlement areas, as well as indicators from spectral data. Further, insights on damaging processes are discovered, which mainly are in line with prior expectations. The maximum intensity of rainfall, for example, acts stronger in cities and steep canyons, while the sum of rain was found more informative in low-lying river catchments and forested areas. Rural areas of Peru exhibited higher vulnerability in the presented study compared to urban areas. However, the general limitations of the methods and the dependence on specific datasets and algorithms also become obvious. In the overarching discussion, the different methods – process-based modelling, predictive machine learning, and data-mining – are evaluated with respect to the overall research questions. In the case of hazard observation it seems that a focus on novel algorithms makes sense for future research. In the subtopic of hazard modelling, especially for river floods, the improvement of physical models and the integration of process-based and statistical procedures is suggested. For damage modelling the large and representative datasets necessary for the broad application of machine learning are still lacking. Therefore, the improvement of the data basis in the field of damage is currently regarded as more important than the selection of algorithms. KW - flood risk KW - machine learning KW - open data KW - damage modelling KW - data-mining KW - Schadensmodellierung KW - Data-Mining KW - Hochwasserrisiko KW - maschinelles Lernen KW - offene Daten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555943 ER - TY - THES A1 - Förste, Stefanie T1 - Assemblierung von Proteinkomplexen in vitro und in vivo T1 - Assembly of protein complexes in vitro and in vivo N2 - Proteine sind an praktisch allen Prozessen in lebenden Zellen maßgeblich beteiligt. Auch in der Biotechnologie werden Proteine in vielfältiger Weise eingesetzt. Ein Protein besteht aus einer Kette von Aminosäuren. Häufig lagern sich mehrere dieser Ketten zu größeren Strukturen und Funktionseinheiten, sogenannten Proteinkomplexen, zusammen. Kürzlich wurde gezeigt, dass eine Proteinkomplexbildung bereits während der Biosynthese der Proteine (co-translational) stattfinden kann und nicht stets erst danach (post-translational) erfolgt. Da Fehlassemblierungen von Proteinen zu Funktionsverlusten und adversen Effekten führen, ist eine präzise und verlässliche Proteinkomplexbildung sowohl für zelluläre Prozesse als auch für biotechnologische Anwendungen essenziell. Mit experimentellen Methoden lassen sich zwar u.a. die Stöchiometrie und die Struktur von Proteinkomplexen bestimmen, jedoch bisher nicht die Dynamik der Komplexbildung auf unterschiedlichen Zeitskalen. Daher sind grundlegende Mechanismen der Proteinkomplexbildung noch nicht vollständig verstanden. Die hier vorgestellte, auf experimentellen Erkenntnissen aufbauende, computergestützte Modellierung der Proteinkomplexbildung erlaubt eine umfassende Analyse des Einflusses physikalisch-chemischer Parameter auf den Assemblierungsprozess. Die Modelle bilden möglichst realistisch die experimentellen Systeme der Kooperationspartner (Bar-Ziv, Weizmann-Institut, Israel; Bukau und Kramer, Universität Heidelberg) ab, um damit die Assemblierung von Proteinkomplexen einerseits in einem quasi-zweidimensionalen synthetischen Expressionssystem (in vitro) und andererseits im Bakterium Escherichia coli (in vivo) untersuchen zu können. Mit Hilfe eines vereinfachten Expressionssystems, in dem die Proteine nur an die Chip-Oberfläche, aber nicht aneinander binden können, wird das theoretische Modell parametrisiert. In diesem vereinfachten in-vitro-System durchläuft die Effizienz der Komplexbildung drei Regime – ein bindedominiertes Regime, ein Mischregime und ein produktionsdominiertes Regime. Ihr Maximum erreicht die Effizienz dabei kurz nach dem Übergang vom bindedominierten ins Mischregime und fällt anschließend monoton ab. Sowohl im nicht-vereinfachten in-vitro- als auch im in-vivo-System koexistieren je zwei konkurrierende Assemblierungspfade: Im in-vitro-System erfolgt die Komplexbildung entweder spontan in wässriger Lösung (Lösungsassemblierung) oder aber in einer definierten Schrittfolge an der Chip-Oberfläche (Oberflächenassemblierung); Im in-vivo-System konkurrieren hingegen die co- und die post-translationale Komplexbildung. Es zeigt sich, dass die Dominanz der Assemblierungspfade im in-vitro-System zeitabhängig ist und u.a. durch die Limitierung und Stärke der Bindestellen auf der Chip-Oberfläche beeinflusst werden kann. Im in-vivo-System hat der räumliche Abstand zwischen den Syntheseorten der beiden Proteinkomponenten nur dann einen Einfluss auf die Komplexbildung, wenn die Untereinheiten schnell degradieren. In diesem Fall dominiert die co-translationale Assemblierung auch auf kurzen Zeitskalen deutlich, wohingegen es bei stabilen Untereinheiten zu einem Wechsel von der Dominanz der post- hin zu einer geringen Dominanz der co-translationalen Assemblierung kommt. Mit den in-silico-Modellen lässt sich neben der Dynamik u.a. auch die Lokalisierung der Komplexbildung und -bindung darstellen, was einen Vergleich der theoretischen Vorhersagen mit experimentellen Daten und somit eine Validierung der Modelle ermöglicht. Der hier präsentierte in-silico Ansatz ergänzt die experimentellen Methoden, und erlaubt so, deren Ergebnisse zu interpretieren und neue Erkenntnisse davon abzuleiten. KW - Assemblierung KW - Proteine KW - Multiproteinkomplexbildung KW - co-translationale Assemblierung KW - post-translationale Assemblierung KW - Lösung KW - Oberfläche KW - Lösungsassemblierung KW - Oberflächenassemblierung KW - co-translational KW - post-translational KW - assembly KW - proteins KW - multi protein complex formation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-550742 ER - TY - THES A1 - Reinhardt, Susanne T1 - Assessing interactional competence BT - identifying candidate criterial features for L2 repair skills N2 - The development of speaking competence is widely regarded as a central aspect of second language (L2) learning. It may be questioned, however, if the currently predominant ways of conceptualising the term fully satisfy the complexity of the construct: Although there is growing recognition that language primarily constitutes a tool for communication and participation in social life, as yet it is rare for conceptualisations of speaking competence to incorporate the ability to inter-act and co-construct meaning with co-participants. Accordingly, skills allowing for the successful accomplishment of interactional tasks (such as orderly speaker change, and resolving hearing and understanding trouble) also remain largely unrepresented in language teaching and assessment. As fostering the ability to successfully use the L2 within social interaction should arguably be a main objective of language teaching, it appears pertinent to broaden the construct of speaking competence by incorporating interactional competence (IC). Despite there being a growing research interest in the conceptualisation and development of (L2) IC, much of the materials and instruments required for its teaching and assessment, and thus for fostering a broader understanding of speaking competence in the L2 classroom, still await development. This book introduces an approach to the identification of candidate criterial features for the assessment of EFL learners’ L2 repair skills. Based on a corpus of video-recorded interaction between EFL learners, and following conversation-analytic and interactional-linguistic methodology as well as drawing on basic premises of research in the framework of Conversation Analysis for Second Language Acquisition, differences between (groups of) learners in terms of their L2 repair conduct are investigated through qualitative and inductive analyses. Candidate criterial features are derived from the analysis results. This book does not only contribute to the operationalisation of L2 IC (and of L2 repair skills in particular), but also lays groundwork for the construction of assessment scales and rubrics geared towards the evaluation of EFL learners’ L2 interactional skills. N2 - Die Entwicklung von Sprechkompetenz wird weithin als ein zentraler Bestandteil des Fremdsprachenerwerbs angesehen. Es kann jedoch hinterfragt werden, ob aktuell geläufige Konzeptionen dieses Begriffs der Komplexität des Konstruktes gerecht werden. Es findet zwar zunehmend Berücksichtigung, dass Sprache vor allem als Werkzeug, also als Mittel zur Kommunikation und Teilhabe an sozialer Interaktion, zu verstehen ist, selten schließt Sprechkompetenz aber die Fähigkeit ein, mit Gesprächspartner*innen zu inter-agieren und gemeinsam Sinn zu produzieren. Fähigkeiten, die es erlauben, erfolgreich interaktionale Aufgaben (z.B. reibungsloser Sprecherwechsel, Behebung von (Hör-)Verstehensproblemen) zu bewältigen, sind folglich auch kaum oder gar nicht im Alltag des Vermittelns und Bewertens von Fremdsprachenkenntnissen repräsentiert. Da es wohl eines der zentralen Anliegen bei der Vermittlung von Fremdsprachen ist, Lerner*innen zur erfolgreichen Teilnahme an fremdsprachlicher sozialer Interaktion zu befähigen, erscheint es sinnvoll, das Konstrukt ‚Sprechkompetenz‘ um das Konzept der Interaktionalen Kompetenz (IK) zu erweitern. In der Forschung ist ein wachsendes Interesse an der Konzeptualisierung und Entwicklung von (fremdsprachlicher) IK zu beobachten – um aber ein um IK erweitertes Verständnis von Sprechkompetenz auch im Fremdsprachenunterricht ermöglichen und fördern zu können, besteht noch deutlicher Bedarf bei der Entwicklung von Materialien und Instrumenten für Lehre und Prüfung. Dieses Buch präsentiert einen Ansatz zur Identifikation von candidate criterial features (d.h., möglichen Kriterien) für die Bewertung der fremdsprachlichen Reparaturfähigkeit von Englischlerner*innen. Basierend auf einem Korpus videografierter Interaktionen zwischen Englischlerner*innen werden im Rahmen qualitativer und induktiver Analysen Unterschiede zwischen Lerner*innen(gruppen) in Bezug auf ihr Reparaturverhalten in der Fremdsprache herausgearbeitet. Die Arbeit folgt dabei konzeptionellen und methodologischen Prinzipien der Konversationsanalyse, Interaktionalen Linguistik und Conversation Analysis for Second Language Acquisition. Candidate criterial features werden aus den Ergebnissen der Analysen abgeleitet. Die Arbeit leistet nicht nur einen Beitrag zur Operationalisierung fremdsprachlicher IK (insbesondere fremdsprachlicher Reparaturfähigkeit), sondern auch zum Fundament für die Entwicklung von Skalen und Rastern für die Bewertung fremdsprachlicher interaktionaler Fähigkeiten von Englischlerner*innen. KW - conversation analysis KW - interactional linguistics KW - CA-SLA KW - interactional competence KW - assessment KW - Konversationsanalyse KW - interaktionale Linguistik KW - CA-SLA KW - interaktionale Kompetenz KW - Bewertung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-619423 ER - TY - GEN A1 - Heinze, Peter Eric A1 - Weck, Florian A1 - Kühne, Franziska T1 - Assessing Patient Preferences BT - Examination of the German Cooper-Norcross Inventory of Preferences T2 - Postprints der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Despite the positive effects of including patients’ preferences into therapy on psychotherapy outcomes, there are still few thoroughly validated assessment tools at hand. We translated the 18-item Cooper-Norcross Inventory of Preferences (C-NIP) into German and aimed at replicating its factor structure. Further, we investigated the reliability of the questionnaire and its convergence with trait measures. A heterogeneous sample of N = 969 participants took part in our online survey. Performing ESEM models, we found acceptable model fit for a four-factor structure similar to the original factor structure. Furthermore, we propose an alternative model following the adjustment of single items. The German C-NIP showed acceptable to good reliability, as well as small correlations with Big-Five personality traits, trait and attachment anxiety, locus of control, and temporal focus. However, we recommend further replication of the factor structure and further validation of the C-NIP. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 753 KW - psychotherapy KW - preference KW - activity preference KW - preference assessment KW - validation study Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-544140 SN - 1866-8364 ER - TY - GEN A1 - Francke, Till A1 - Heistermann, Maik A1 - Köhli, Markus A1 - Budach, Christian A1 - Schrön, Martin A1 - Oswald, Sascha T1 - Assessing the feasibility of a directional cosmic-ray neutron sensing sensor for estimating soil moisture T2 - Postprints der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Cosmic-ray neutron sensing (CRNS) is a non-invasive tool for measuring hydrogen pools such as soil moisture, snow or vegetation. The intrinsic integration over a radial hectare-scale footprint is a clear advantage for averaging out small-scale heterogeneity, but on the other hand the data may become hard to interpret in complex terrain with patchy land use. This study presents a directional shielding approach to prevent neutrons from certain angles from being counted while counting neutrons entering the detector from other angles and explores its potential to gain a sharper horizontal view on the surrounding soil moisture distribution. Using the Monte Carlo code URANOS (Ultra Rapid Neutron-Only Simulation), we modelled the effect of additional polyethylene shields on the horizontal field of view and assessed its impact on the epithermal count rate, propagated uncertainties and aggregation time. The results demonstrate that directional CRNS measurements are strongly dominated by isotropic neutron transport, which dilutes the signal of the targeted direction especially from the far field. For typical count rates of customary CRNS stations, directional shielding of half-spaces could not lead to acceptable precision at a daily time resolution. However, the mere statistical distinction of two rates should be feasible. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1228 KW - water-balance KW - quantification KW - calibration KW - validation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-544229 SN - 1866-8372 SP - 75 EP - 92 ER - TY - GEN A1 - Pawlak, Julia A1 - Noetzel, Dominique Christian A1 - Drago, Claudia A1 - Weithoff, Guntram T1 - Assessing the toxicity of polystyrene beads and silica particles on the microconsumer Brachionus calyciflorus at different timescales T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Environmental pollution by microplastics has become a severe problem in terrestrial and aquatic ecosystems and, according to actual prognoses, problems will further increase in the future. Therefore, assessing and quantifying the risk for the biota is crucial. Standardized short-term toxicological procedures as well as methods quantifying potential toxic effects over the whole life span of an animal are required. We studied the effect of the microplastic polystyrene on the survival and reproduction of a common freshwater invertebrate, the rotifer Brachionus calyciflorus, at different timescales. We used pristine polystyrene spheres of 1, 3, and 6 µm diameter and fed them to the animals together with food algae in different ratios ranging from 0 to 50% nonfood particles. As a particle control, we used silica to distinguish between a pure particle effect and a plastic effect. After 24 h, no toxic effect was found, neither with polystyrene nor with silica. After 96 h, a toxic effect was detectable for both particle types. The size of the particles played a negligible role. Studying the long-term effect by using life table experiments, we found a reduced reproduction when the animals were fed with 3 µm spheres together with similar-sized food algae. We conclude that the fitness reduction is mainly driven by the dilution of food by the nonfood particles rather than by a direct toxic effect. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1277 KW - microplastics KW - rotifer KW - freshwater KW - natural particle KW - toxicity KW - environmental pollution Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-569967 SN - 1866-8372 IS - 1277 SP - 1 EP - 11 ER - TY - GEN A1 - Henschke, Jakob A1 - Kaplick, Hannes A1 - Wochatz, Monique A1 - Engel, Tilman T1 - Assessing the validity of inertial measurement units for shoulder kinematics using a commercial sensor-software system T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Background and Aims Wearable inertial sensors may offer additional kinematic parameters of the shoulder compared to traditional instruments such as goniometers when elaborate and time-consuming data processing procedures are undertaken. However, in clinical practice simple-real time motion analysis is required to improve clinical reasoning. Therefore, the aim was to assess the criterion validity between a portable "off-the-shelf" sensor-software system (IMU) and optical motion (Mocap) for measuring kinematic parameters during active shoulder movements. Methods 24 healthy participants (9 female, 15 male, age 29 +/- 4 years, height 177 +/- 11 cm, weight 73 +/- 14 kg) were included. Range of motion (ROM), total range of motion (TROM), peak and mean angular velocity of both systems were assessed during simple (abduction/adduction, horizontal flexion/horizontal extension, vertical flexion/extension, and external/internal rotation) and complex shoulder movements. Criterion validity was determined using intraclass-correlation coefficients (ICC), root mean square error (RMSE) and Bland and Altmann analysis (bias; upper and lower limits of agreement). Results ROM and TROM analysis revealed inconsistent validity during simple (ICC: 0.040-0.733, RMSE: 9.7 degrees-20.3 degrees, bias: 1.2 degrees-50.7 degrees) and insufficient agreement during complex shoulder movements (ICC: 0.104-0.453, RMSE: 10.1 degrees-23.3 degrees, bias: 1.0 degrees-55.9 degrees). Peak angular velocity (ICC: 0.202-0.865, RMSE: 14.6 degrees/s-26.7 degrees/s, bias: 10.2 degrees/s-29.9 degrees/s) and mean angular velocity (ICC: 0.019-0.786, RMSE:6.1 degrees/s-34.2 degrees/s, bias: 1.6 degrees/s-27.8 degrees/s) were inconsistent. Conclusions The "off-the-shelf" sensor-software system showed overall insufficient agreement with the gold standard. Further development of commercial IMU-software-solutions may increase measurement accuracy and permit their integration into everyday clinical practice. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 809 KW - diagnostic techniques and procedures KW - kinematics KW - shoulder joint KW - validation study KW - wearable devices Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-578278 SN - 1866-8364 SP - 1 EP - 11 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Osei, Francis A1 - Block, Andrea A1 - Wippert, Pia-Maria T1 - Association of primary allostatic load mediators and metabolic syndrome (MetS): A systematic review T2 - Zweitveröffentlichungen der Universität Potsdam : Gesundheitswissenschaftliche Reihe N2 - Allostatic load (AL) exposure may cause detrimental effects on the neuroendocrine system, leading to metabolic syndrome (MetS). The primary mediators of AL involve serum dehydroepiandrosterone sulfate (DHEAS; a functional HPA axis antagonist); further, cortisol, urinary norepinephrine (NE), and epinephrine (EPI) excretion levels (assessed within 12-h urine as a golden standard for the evaluation of the HPA axis activity and sympathetic nervous system activity). However, the evidence of an association between the primary mediators of AL and MetS is limited. This systematic review aimed to critically examine the association between the primary mediators of AL and MetS. PubMed and Web of Science were searched for articles from January 2010 to December 2021, published in English. The search strategy focused on cross-sectional and case–control studies comprising adult participants with MetS, obesity, overweight, and without chronic diseases. The STROBE checklist was used to assess study quality control. Of 770 studies, twenty-one studies with a total sample size (n = 10,666) met the eligibility criteria. Eighteen studies were cross-sectional, and three were case–control studies. The included studies had a completeness of reporting score of COR % = 87.0 ± 6.4%. It is to be noted, that cortisol as a primary mediator of AL showed an association with MetS in 50% (urinary cortisol), 40% (serum cortisol), 60% (salivary cortisol), and 100% (hair cortisol) of the studies. For DHEAS, it is to conclude that 60% of the studies showed an association with MetS. In contrast, urinary EPI and urinary NE had 100% no association with MetS. In summary, there is a tendency for the association between higher serum cortisol, salivary cortisol, urinary cortisol, hair cortisol, and lower levels of DHEAS with MetS. Future studies focusing on longitudinal data are warranted for clarification and understanding of the association between the primary mediators of AL and MetS. T3 - Zweitveröffentlichungen der Universität Potsdam : Gesundheitswissenschaftliche Reihe - 6 KW - allostatic load KW - cortisol KW - dehydroepiandrosterone sulfate KW - epinephrine KW - norepinephrine KW - metabolic syndrome KW - primary marker Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-581769 IS - 6 ER - TY - GEN A1 - Wachs, Sebastian A1 - Machimbarrena, Juan Manuel A1 - Wright, Michelle F. A1 - Gámez-Guadix, Manuel A1 - Yang, Soeun A1 - Sittichai, Ruthaychonnee A1 - Singh, Ritu A1 - Biswal, Ramakrishna A1 - Flora, Katerina A1 - Daskalou, Vassiliki A1 - Maziridou, Evdoxia A1 - Sung Hong, Jun A1 - Krause, Norman T1 - Associations between Coping Strategies and Cyberhate Involvement: Evidence from Adolescents across Three World Regions T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Cyberhate represents a risk to adolescents’ development and peaceful coexistence in democratic societies. Yet, not much is known about the relationship between adolescents’ ability to cope with cyberhate and their cyberhate involvement. To fill current gaps in the literature and inform the development of media education programs, the present study investigated various coping strategies in a hypothetical cyberhate scenario as correlates for being cyberhate victims, perpetrators, and both victim–perpetrators. The sample consisted of 6829 adolescents aged 12–18 years old (Mage = 14.93, SD = 1.64; girls: 50.4%, boys: 48.9%, and 0.7% did not indicate their gender) from Asia, Europe, and North America. Results showed that adolescents who endorsed distal advice or endorsed technical coping showed a lower likelihood to be victims, perpetrators, or victim–perpetrators. In contrast, if adolescents felt helpless or endorsed retaliation to cope with cyberhate, they showed higher odds of being involved in cyberhate as victims, perpetrators, or victim–perpetrators. Finally, adolescents who endorsed close support as a coping strategy showed a lower likelihood to be victim–perpetrators, and adolescents who endorsed assertive coping showed higher odds of being victims. In conclusion, the results confirm the importance of addressing adolescents’ ability to deal with cyberhate to develop more tailored prevention approaches. More specifically, such initiatives should focus on adolescents who feel helpless or feel inclined to retaliate. In addition, adolescents should be educated to practice distal advice and technical coping when experiencing cyberhate. Implications for the design and instruction of evidence-based cyberhate prevention (e.g., online educational games, virtual learning environments) will be discussed. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 781 KW - cyberhate KW - hate speech KW - coping strategies KW - cross-national KW - counter-speech Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561927 SN - 1866-8364 SP - 1 EP - 14 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Asche, Matthias A1 - Brechenmacher, Thomas T1 - Auswahlbibliographie zur berlin-brandenburgischen Immigrationsgeschichte JF - Hier geblieben? Brandenburg als Einwanderungsland vom Mittelalter bis heute Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546899 SN - 978-3-86956-506-4 SP - 251 EP - 262 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Dreseler, Markus T1 - Automatic tiering for in-memory database systems N2 - A decade ago, it became feasible to store multi-terabyte databases in main memory. These in-memory databases (IMDBs) profit from DRAM's low latency and high throughput as well as from the removal of costly abstractions used in disk-based systems, such as the buffer cache. However, as the DRAM technology approaches physical limits, scaling these databases becomes difficult. Non-volatile memory (NVM) addresses this challenge. This new type of memory is persistent, has more capacity than DRAM (4x), and does not suffer from its density-inhibiting limitations. Yet, as NVM has a higher latency (5-15x) and a lower throughput (0.35x), it cannot fully replace DRAM. IMDBs thus need to navigate the trade-off between the two memory tiers. We present a solution to this optimization problem. Leveraging information about access frequencies and patterns, our solution utilizes NVM's additional capacity while minimizing the associated access costs. Unlike buffer cache-based implementations, our tiering abstraction does not add any costs when reading data from DRAM. As such, it can act as a drop-in replacement for existing IMDBs. Our contributions are as follows: (1) As the foundation for our research, we present Hyrise, an open-source, columnar IMDB that we re-engineered and re-wrote from scratch. Hyrise enables realistic end-to-end benchmarks of SQL workloads and offers query performance which is competitive with other research and commercial systems. At the same time, Hyrise is easy to understand and modify as repeatedly demonstrated by its uses in research and teaching. (2) We present a novel memory management framework for different memory and storage tiers. By encapsulating the allocation and access methods of these tiers, we enable existing data structures to be stored on different tiers with no modifications to their implementation. Besides DRAM and NVM, we also support and evaluate SSDs and have made provisions for upcoming technologies such as disaggregated memory. (3) To identify the parts of the data that can be moved to (s)lower tiers with little performance impact, we present a tracking method that identifies access skew both in the row and column dimensions and that detects patterns within consecutive accesses. Unlike existing methods that have substantial associated costs, our access counters exhibit no identifiable overhead in standard benchmarks despite their increased accuracy. (4) Finally, we introduce a tiering algorithm that optimizes the data placement for a given memory budget. In the TPC-H benchmark, this allows us to move 90% of the data to NVM while the throughput is reduced by only 10.8% and the query latency is increased by 11.6%. With this, we outperform approaches that ignore the workload's access skew and access patterns and increase the query latency by 20% or more. Individually, our contributions provide novel approaches to current challenges in systems engineering and database research. Combining them allows IMDBs to scale past the limits of DRAM while continuing to profit from the benefits of in-memory computing. N2 - Seit etwa einem Jahrzehnt können Datenbanken mit einer Größe von mehreren Terabytes im Hauptspeicher abgelegt werden. Diese Hauptspeicherdatenbanken (In-Memory Databases) profitieren einerseits von der niedrigen Latenz und dem hohen Durchsatz von DRAM und andererseits vom Fehlen teurer Abstraktionsschichten, wie dem Buffer Cache, welcher in Festplatten-basierten Datenbanksystemen von Nöten war. Dadurch, dass die Entwicklung der DRAM-Technologie mehr und mehr auf physikalische Grenzen stößt, wird es jedoch zunehmend schwierig, Hauptspeicherdatenbanken zu skalieren. Non-volatile Memory (NVM) adressiert diese Herausforderung. Dieser neue Speichertyp ist persistent, hat eine um einen Faktor 4 höhere Kapazität als DRAM und leidet nicht unter den Einschränkungen, welche die Erhöhung der Speicherdichte von DRAM limitieren. Da NVM jedoch eine höhere Latenz (5-15x) und einen niedrigeren Durchsatz (0.35x) aufweist als DRAM, kann es DRAM noch nicht vollständig ersetzen. Bei der Entwicklung von Hauptspeicherdatenbanken muss daher der Zielkonflikt zwischen den beiden Speichertypen ausbalanciert werden. Die vorliegende Arbeit präsentiert eine Lösung für dieses Optimierungsproblem. Indem wir Informationen zu Zugriffshäufigkeiten und -mustern auswerten, können wir die zusätzliche Kapazität von NVM ausnutzen und gleichzeitig die mit NVM verbundene Erhöhung von Zugriffskosten minimieren. Anders als bei bestehenden Ansätzen, welche auf einen Buffer Cache aufsetzen, bleiben bei unserer Ansatz die Kosten von Zugriffen auf DRAM unverändert. Dadurch kann unsere Lösung als unmittelbarer Ersatz für existierende Hauptspeicherdatenbanken genutzt werden. Unsere Arbeit leistet hierfür die folgenden Beiträge: (1) Als Grundlage für unsere Forschung präsentieren wir Hyrise, eine quelloffene, spaltenorientierte Hauptspeicherdatenbank, welche wir von Grund auf neu entwickelt haben. Hyrise ermöglicht realistische End-to-End Benchmarks von SQL Workloads und weist dabei eine Performance auf, welche mit anderen Datenbanksystemen aus Industrie und Forschung vergleichbar ist. Hierbei ist Hyrise leicht zu verstehen und modifizieren. Dies wurde durch den wiederholten Einsatz in Forschung und Lehre demonstriert. (2) Wir präsentieren ein neuartiges Speicherverwaltungs-Framework, welches verschiedene Speicherebenen (Tiers) unterstützt. Indem wir die Allokations- und Zugriffsmethoden dieser Speicherebenen kapseln, ermöglichen wir es, bestehende Datenstrukturen auf diese Ebenen aufzuteilen ohne ihre Implementierung anpassen zu müssen. Neben DRAM und NVM unterstützt unser Ansatz SSDs und ist auf zukünftige Technologien wie Disaggregated Memory vorbereitet. (3) Um jene Teile der Daten zu identifizieren, welche auf langsamere Ebenen verschoben werden können, ohne dass die Performance des Systems als Ganzes negativ beeinträchtigt wird, stellen wir mit unseren Access Countern eine Tracking-Methode vor, welche ungleich verteilte Zugriffshäufigkeiten sowohl in der Zeilen- als auch in der Spaltendimension erkennt. Ebenfalls erkennt die Tracking-Methode Zugriffsmuster in aufeinanderfolgenden Zugriffsoperationen. Trotz ihrer hohen Genauigkeit weisen unsere Access Counter keine messbaren Mehrkosten auf. Dies unterscheidet sie von bestehenden Ansätzen, welche ungleichverteilte Zugriffsmuster weniger gut erkennen, gleichzeitig aber Mehrkosten von 20% verursachen. (4) Abschließend stellen wir einen Tiering-Algorithmus vor, welcher die Verteilung von Daten auf die verschiedenen Speicherebenen optimiert. Am Beispiel des TPC-H-Benchmarks zeigen wir, wie 90% der Daten auf NVM verschoben werden können, wobei der Durchsatz nur um 10.8% reduziert und die durchschnittliche Antwortzeit um 11.6% erhöht wird. Damit übertreffen wir Ansätze, welche Ungleichverteilungen in den Zugriffshäufigkeiten und -mustern ignorieren. Einzeln betrachtet stellen unsere Beiträge neue Herangehensweisen für aktuelle Herausforderungen in der systemnahen Entwicklung und der Datenbankforschung dar. In ihrem Zusammenspiel ermöglichen sie es, Hauptspeicherdatenbanken über die Grenzen von DRAM hinaus zu skalieren und dabei weiterhin von den Vorteilen des In-Memory Computings zu profitieren. T2 - Automatisches Tiering für Hauptspeicherdatenbanken KW - dbms KW - imdb KW - tiering KW - nvm KW - hyrise KW - scm KW - dbms KW - imdb KW - mmdb KW - Datenbanken KW - tiering KW - nvm KW - hyrise KW - scm Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558253 ER - TY - GEN A1 - Pietrek, Anou F. A1 - Kangas, Maria A1 - Kliegl, Reinhold A1 - Rapp, Michael A. A1 - Heinzel, Stephan A1 - Van der Kaap-Deeder, Jolene A1 - Heissel, Andreas T1 - Basic psychological need satisfaction and frustration in major depressive disorder T2 - Zweitveröffentlichungen der Universität Potsdam : Gesundheitswissenschaftliche Reihe N2 - Basic psychological needs theory postulates that a social environment that satisfies individuals’ three basic psychological needs of autonomy, competence, and relatedness leads to optimal growth and well-being. On the other hand, the frustration of these needs is associated with ill-being and depressive symptoms foremost investigated in non-clinical samples; yet, there is a paucity of research on need frustration in clinical samples. Survey data were compared between adult individuals with major depressive disorder (MDD; n = 115; 48.69% female; 38.46 years, SD = 10.46) with those of a non-depressed comparison sample (n = 201; 53.23% female; 30.16 years, SD = 12.81). Need profiles were examined with a linear mixed model (LMM). Individuals with depression reported higher levels of frustration and lower levels of satisfaction in relation to the three basic psychological needs when compared to non-depressed adults. The difference between depressed and non-depressed groups was significantly larger for frustration than satisfaction regarding the needs for relatedness and competence. LMM correlation parameters confirmed the expected positive correlation between the three needs. This is the first study showing substantial differences in need-based experiences between depressed and non-depressed adults. The results confirm basic assumptions of the self-determination theory and have preliminary implications in tailoring therapy for depression. T3 - Zweitveröffentlichungen der Universität Potsdam : Gesundheitswissenschaftliche Reihe - 8 KW - basic need satisfaction and frustration KW - depressive symptoms KW - clinical sample KW - need profiles KW - social environment Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-582269 IS - 8 ER - TY - GEN A1 - Seckler, Henrik A1 - Metzler, Ralf T1 - Bayesian deep learning for error estimation in the analysis of anomalous diffusion T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Sprache Englisch Modern single-particle-tracking techniques produce extensive time-series of diffusive motion in a wide variety of systems, from single-molecule motion in living-cells to movement ecology. The quest is to decipher the physical mechanisms encoded in the data and thus to better understand the probed systems. We here augment recently proposed machine-learning techniques for decoding anomalous-diffusion data to include an uncertainty estimate in addition to the predicted output. To avoid the Black-Box-Problem a Bayesian-Deep-Learning technique named Stochastic-Weight-Averaging-Gaussian is used to train models for both the classification of the diffusionmodel and the regression of the anomalous diffusion exponent of single-particle-trajectories. Evaluating their performance, we find that these models can achieve a wellcalibrated error estimate while maintaining high prediction accuracies. In the analysis of the output uncertainty predictions we relate these to properties of the underlying diffusion models, thus providing insights into the learning process of the machine and the relevance of the output. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1314 KW - random-walk KW - models Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586025 SN - 1866-8372 IS - 1314 ER - TY - JOUR A1 - Günther, Claudia-Susanne A1 - Reitz-Koncebovski, Karen A1 - Klöpping, Peter M. T1 - Begegnungen mit Mathematik BT - Reflexion der persönlichen mathematischen Bildungsbiografie im Lehramtsstudium JF - Professionalisierung in Praxisphasen : Ergebnisse der Lehrerbildungsforschung an der Universität Potsdam (Potsdamer Beiträge zur Lehrerbildung und Bildungsforschung ; 2) N2 - Die Reflexion der eigenen mathematischen Bildungsbiografie angehender Mathematiklehrkräfte bietet eine bisher wenig beachtete, aber lohnende Perspektive auf ihre zukünftige Lehrtätigkeit. Insbesondere bei negativen Vorerfahrungen mit Mathematik bietet die biografische Reflexion eine Gelegenheit zur Aufarbeitung. An der Universität Potsdam wurde deshalb für Studierende des Mathematiklehramts für die Primar- und die Sekundarstufe ein freiwilliges Angebot zur Beschäftigung mit der mathematischen Bildungsbiografie geschaffen. Seit dem Wintersemester 2018/19 ist dieses Angebot in das Fachdidaktische Tagespraktikum integriert. Dieser Artikel stellt den theoretischen und methodischen Hintergrund des Workshops dar. Zudem werden erste Ergebnisse einer begleitenden Untersuchung unter den Workshopteilnehmenden vorgestellt. N2 - The reflection of one’s own ‘mathematical biography’ offers a noteworthy perspective for pre-service teachers on their prospective teaching practice. Autobiographical reflection provides an opportunity to recollect, reprocess and maybe reappraise prior and in particular negatively perceived experience. For this reason, a voluntary workshop was designed at the University of Potsdam for students of primary and secondary education in mathematics to take a closer look at their mathematical biography. The workshop has been held as part of the Fachdidaktisches Praktikum – one of the first teaching internships at a school for students in their teacher training – since the winter semester 2018/19. This article aims at presenting the theoretical and methodological background of the workshop. It also presents first findings of an accompanying survey among workshop participants. Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-570755 SN - 978-3-86956-508-8 SN - 2626-3556 SN - 2626-4722 IS - 2 SP - 123 EP - 143 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Parry, Victor A1 - Schlägel, Ulrike E. A1 - Tiedemann, Ralph A1 - Weithoff, Guntram T1 - Behavioural Responses of Defended and Undefended Prey to Their Predator BT - A Case Study of Rotifera T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Predation is a strong species interaction causing severe harm or death to prey. Thus, prey species have evolved various defence strategies to minimize predation risk, which may be immediate (e.g., a change in behaviour) or transgenerational (morphological defence structures). We studied the behaviour of two strains of a rotiferan prey (Brachionus calyciflorus) that differ in their ability to develop morphological defences in response to their predator Asplanchna brightwellii. Using video analysis, we tested: (a) if two strains differ in their response to predator presence and predator cues when both are undefended; (b) whether defended individuals respond to live predators or their cues; and (c) if the morphological defence (large spines) per se has an effect on the swimming behaviour. We found a clear increase in swimming speed for both undefended strains in predator presence. However, the defended specimens responded neither to the predator presence nor to their cues, showing that they behave indifferently to their predator when they are defended. We did not detect an effect of the spines on the swimming behaviour. Our study demonstrates a complex plastic behaviour of the prey, not only in the presence of their predator, but also with respect to their defence status. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1302 KW - animal behaviour KW - transgenerational response KW - Brachionus calyciflorus KW - Asplanchna brightwellii KW - video analysis Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-577594 SN - 1866-8372 IS - 1302 ER - TY - THES A1 - Theuer, Hanna Katharina T1 - Beherrschung komplexer Produktionsprozesse durch Autonomie T1 - Mastering complex production processes by autonomy N2 - Modern technologies enable the actors of a production process to autonomous decision-making, information-processing, and decision- execution. It devolves hierarchical controlled relationships and distributes decision-making among many actors. Positive consequences include using local competencies and fast on-site action without (time-)consuming cross-process planning run by a central control instance. Evaluating the decentralization of the process helps to compare different control strategies and thus contributes to the mastery of more complex production processes. Although the importance of the communication structure of these actors increases, no method uses this as a basis for operationalizing decentralization. This motivates the focus of this thesis. It develops a three-level evaluation model determining the decentralization of a production process based on two determinants: the communication and decision-making structure of the autonomous actors involved. Based on a definition of decentralization of production processes, it set requirements for a key value that determines the structural autonomy of the actors and selects a suitable social network analysis metric. The possibility of integrated decision-making and decision execution justifies the additional consideration of the decision structure. The differentiation of both factors forms the basis for the classification of actors; the multiplication of both values results in the characteristic value real autonomy describing the autonomy of an actor, which is the key figure of the model's first level. Homogeneous actor autonomy characterizes a high decentralization of the process step, which is the object of consideration of the second level of the model. Comparing the existing with the maximum possible decentralization of the process steps determines the Autonomy Index. This figure operationalizes the decentralization of the process at the third level of the model. A simulation study with two simulation experiments - a central and a decentral controlled process - at Zentrum Industrie 4.0 validates the evaluation model. The application of the model to an industrial production process underlines the practical applicability. N2 - Moderne Technologien befähigen die beteiligten Akteure eines Produktionsprozesses die Informationsaufnahme, Entscheidungsfindung und -ausführung selbstständig auszuführen. Hierarchische Kontrollbeziehungen werden aufgelöst und die Entscheidungsfindung auf eine Vielzahl von Akteuren verteilt. Positive Folgen sind unter anderem die Nutzung lokaler Kompetenzen und ein schnelles Handeln vor Ort ohne (zeit-)aufwändige prozessübergreifende Planungsläufe durch eine zentrale Steuerungsinstanz. Die Bewertung der Dezentralität des Prozesses hilft beim Vergleich verschiedener Steuerungsstrategien und trägt so zur Beherrschung komplexerer Produktionsprozesse bei. Obwohl die Kommunikationsstruktur der an der Entscheidungsfindung beteiligten Akteure zunehmend an Bedeutung gewinnt, existiert keine Methode, welche diese als Grundlage für die Operationalisierung der Dezentralität verwendet. Hier setzt diese Arbeit an. Es wird ein dreistufiges Bewertungsmodell entwickelt, dass die Dezentralität eines Produktionsprozesses auf Basis der Kommunikations- und Entscheidungsstruktur der am Prozess beteiligten, autonomen Akteure ermittelt. Aufbauend auf einer Definition von Dezentralität von Produktionsprozessen werden Anforderungen an eine Kennzahl erhoben und - auf Basis der Kommunikationsstruktur - eine die strukturelle Autonomie der Akteure bestimmenden Kenngröße der sozialen Netzwerkanalyse ermittelt. Die Notwendigkeit der zusätzlichen Berücksichtigung der Entscheidungsstruktur wird basierend auf der Möglichkeit der Integration von Entscheidungsfindung und -ausführung begründet. Die Differenzierung beider Faktoren bildet die Grundlage für die Klassifikation der Akteure; die Multiplikation beider Werte resultiert in dem die Autonomie eines Akteurs beschreibenden Kennwert tatsächliche Autonomie, welcher das Ergebnis der ersten Stufe des Modells darstellt. Homogene Akteurswerte charakterisieren eine hohe Dezentralität des Prozessschrittes, welcher Betrachtungsobjekt der zweiten Stufe ist. Durch einen Vergleich der vorhandenen mit der maximal möglichen Dezentralität der Prozessschritte wird auf der dritten Stufe der Autonomie Index ermittelt, welcher die Dezentralität des Prozesses operationalisiert. Das erstellte Bewertungsmodell wird anhand einer Simulationsstudie im Zentrum Industrie 4.0 validiert. Dafür wird das Modell auf zwei Simulationsexperimente - einmal mit einer zentralen und einmal mit einer dezentralen Steuerung - angewendet und die Ergebnisse verglichen. Zusätzlich wird es auf einen umfangreichen Produktionsprozess aus der Praxis angewendet. KW - Produktion KW - Autonomie KW - Prozessverbesserung KW - Dezentralität KW - Produktionssteuerung KW - autonomy KW - decentrality KW - production KW - production control KW - process improvement Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-541842 ER - TY - JOUR A1 - Bahl, Peter T1 - Belastung und Bereicherung – Vertriebene in Brandenburg ab 1945 JF - Hier geblieben? Brandenburg als Einwanderungsland vom Mittelalter bis heute Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546864 SN - 978-3-86956-506-4 SP - 209 EP - 223 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Gericke, Christian A1 - Soemer, Alexander A1 - Schiefele, Ulrich T1 - Benefits of Mind Wandering for Learning in School Through Its Positive Effects on Creativity T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - There is broad agreement among researchers to view mind wandering as an obstacle to learning because it draws attention away from learning tasks. Accordingly, empirical findings revealed negative correlations between the frequency of mind wandering during learning and various kinds of learning outcomes (e.g., text retention). However, a few studies have indicated positive effects of mind wandering on creativity in real-world learning environments. The present article reviews these studies and highlights potential benefits of mind wandering for learning mediated through creative processes. Furthermore, we propose various ways to promote useful mind wandering and, at the same time, minimize its negative impact on learning. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 835 KW - mind wandering KW - creativity KW - divergent thinking KW - incubation effect KW - school learning KW - creative problem solving Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-588731 SN - 1866-8364 IS - 835 ER - TY - RPRT A1 - Lanzl, Theresa T1 - Bericht über die Tätigkeit des Menschenrechtsausschusses der Vereinten Nationen im Jahre 2021 – Teil I: Staatenberichte T2 - MenschenRechtsMagazin : MRM ; Informationen, Meinungen, Analysen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571380 SN - 1434-2820 VL - 27 IS - 1 SP - 27 EP - 40 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - RPRT A1 - Lanzl, Theresa T1 - Bericht über die Tätigkeit des Menschenrechtsausschusses der Vereinten Nationen im Jahre 2021 – Teil II: Individualbeschwerden T2 - MenschenRechtsMagazin : MRM ; Informationen, Meinungen, Analysen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571582 SN - 1434-2820 VL - 27 IS - 2 SP - 140 EP - 158 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Yang, Jingdan A1 - Kim, Jae-Hyun A1 - Tuomainen, Outi A1 - Rattanasone, Nan Xu T1 - Bilingual Mandarin-English preschoolers’ spoken narrative skills and contributing factors BT - A remote online story-retell study T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - This study examined the spoken narrative skills of a group of bilingual Mandarin–English speaking 3–6-year-olds (N = 25) in Australia, using a remote online story-retell task. Bilingual preschoolers are an understudied population, especially those who are speaking typologically distinct languages such as Mandarin and English which have fewer structural overlaps compared to language pairs that are typologically closer, reducing cross-linguistic positive transfer. We examined these preschoolers’ spoken narrative skills as measured by macrostructures (the global organization of a story) and microstructures (linguistic structures, e.g., total number of utterances, nouns, verbs, phrases, and modifiers) across and within each language, and how various factors such as age and language experiences contribute to individual variability. The results indicate that our bilingual preschoolers acquired spoken narrative skills similarly across their two languages, i.e., showing similar patterns of productivity for macrostructure and microstructure elements in both of their two languages. While chronological age was positively correlated with macrostructures in both languages (showing developmental effects), there were no significant correlations between measures of language experiences and the measures of spoken narrative skills (no effects for language input/output). The findings suggest that although these preschoolers acquire two typologically diverse languages in different learning environments, Mandarin at home with highly educated parents, and English at preschool, they displayed similar levels of oral narrative skills as far as these macro−/micro-structure measures are concerned. This study provides further evidence for the feasibility of remote online assessment of preschoolers’ narrative skills. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 821 KW - narrative skills KW - Mandarin-English bilinguals KW - preschoolers KW - macrostructure KW - microstructure Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-583453 SN - 1866-8364 IS - 821 ER - TY - THES A1 - Lüdecke, Nils T1 - Bio-sourced adsorbing poly(2-oxazoline)s mimicking mussel glue proteins for antifouling applications T1 - Biobasierende, adsorbeirende, Muschelklebeproteine nachahmende Poly(2-oxazoline) für Antifouling-Anwendungen N2 - Nature developed countless systems for many applications. In maritime environments, several organisms established extra-ordinary mechanisms to attach to surfaces. Over the past years, the scientific interest to employ those mechanisms for coatings and long-lasting adhering materials gained significant attention. This work describes the synthesis of bio-inspired adsorbing copoly(2-oxazoline)s for surface coatings with protein repelling effects, mimicking mussel glue proteins. From a set of methoxy substituted phenyl, benzyl, and cinnamyl acids, 2-oxazoline monomers were synthesized. All synthesized 2-oxazolines were analyzed by FT-IR spectroscopy, NMR spectroscopy, and EI mass spectrometry. With those newly synthesized 2-oxazoline monomers and 2-ethyl-2-oxazoline, kinetic studies concerning homo- and copolymerization in a microwave reactor were conducted. The success of the polymerization reactions was demonstrated by FT-IR spectroscopy, NMR spectroscopy, MALDI-TOF mass spectrometry, and size exclusion chromatography (SEC). The copolymerization of 2-ethyl-2-oxazoline with a selection of methoxy-substituted 2-oxazolines resulted in water-soluble copolymers. To release the adsorbing catechol and cationic units, the copoly(2-oxazoline)s were modified. The catechol units were (partially) released by a methyl aryl ether cleavage reaction. A subsequent partial acidic hydrolysis of the ethyl unit resulted in mussel glue protein-inspired catechol and cation-containing copolymers. The modified copolymers were analyzed by NMR spectroscopy, UV-VIS spectroscopy, and SEC. The catechol- and cation-containing copolymers and their precursors were examined by a Quartz Crystal Microbalance with Dissipation (QCM-D), so study the adsorption performance on gold, borosilicate, iron, and polystyrene surfaces. An exemplary study revealed that a catechol and cation-containing copoly(2-oxazoline)-coated gold surface exhibits strong protein repelling properties. N2 - In der Natur entwickelten sich unzählige Anpassungen für ebenso viele Lebensbereiche. In maritimen Umgebungen haben sich beispiels-weise bei verschiedenen Organis-men außergewöhnliche Strategien entwickelt, um sich an Oberflächen an-zuheften. In den letzten Jahren hat das wissenschaftliche Interesse an der Nutzung dieser Mechanismen für an Oberflächen haftende Materialien stark zugenommen. Diese Arbeit beschreibt die Synthese von Muschelklebeprotein nachahmenden, bioinspirierten Copoly(2-oxazolinen) für Oberflächen-beschichtungen mit protein-abweisender Wirkung. Aus einer Gruppe von methoxysubstituierten Phenyl-, Benzyl , und Zimtsäuren wurden 2-Oxazolin-Monomere synthetisiert. Alle synthetisierten 2-Oxazoline wurden mittels FT-IR-Spektroskopie, NMR Spektroskopie und EI-Massenspektrometrie analysiert. Mit diesen neu synthetisierten 2-Oxazolin-Monomeren und 2-Ethyl-2-oxazolin (wasserlösliche Komponente) wurden kinetische Studien zur Homo- und Copolymerisation in einem Mikrowellenreaktor durchgeführt. Der Nachweis der Polymerisationsreaktionen erfolgte durch FT-IR Spektroskopie, NMR Spektroskopie, MALDI-TOF Massenspektrometrie und Gel-Permeations-Chromatographie (GPC). Die Copolymerisation von 2-Ethyl-2-Oxazolin mit Methoxyaryl-substituierten 2-Oxazolinen führte zu wasserlöslichen Copolymeren. Um die adsorbierenden Catechol- und kationischen-Einheiten freizusetzen, wurden die Copolymere modifiziert. Die Catechol-Einheiten wurden durch eine (partielle) Methylaryletherspaltung freigesetzt. Eine anschließende partielle saure Hydrolyse der Ethyleinheit führte zu, von Muschelklebeproteinen inspirierten, catechol- und kationen-haltigen Copolymeren. Die modifizierten Copolymere wurde mittels NMR Spektroskopie, UV-VIS Spektroskopie und SEC analysiert. Die catechol- und kationenhaltigen Copolymere und deren Vorläufercopolymere wurden mittels einer Quarzkristallmikrowaage mit Dissipation (QCM-D) hinsichtlich ihrer Adsorptionsfähigkeit an den Oberflächen Gold, Borosilicat, Eisen und Polystyrol untersucht. Exemplarisch wurde gezeigt, dass eine mit catechol und kationenhaltigem Copoly(2-oxazoline) beschichtete Goldoberfläche, stark proteinabweisende Eigenschaften aufweist. KW - poly(2-oxazoline)s KW - adhesive KW - anti-fouling KW - mussel-mimicking KW - klebend KW - Antifouling KW - Muschelnachahmend KW - Poly(2-oxazoline) Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549836 ER - TY - THES A1 - Tang, Jo Sing Julia T1 - Biofunctional polymers for medical applications T1 - Biofunktionale Polymere für medizinische Anwendungen N2 - Carbohydrates are found in every living organism, where they are responsible for numerous, essential biological functions and processes. Synthetic polymers with pendant saccharides, called glycopolymers, mimic natural glycoconjugates in their special properties and functions. Employing such biomimetics furthers the understanding and controlling of biological processes. Hence, glycopolymers are valuable and interesting for applications in the medical and biological field. However, the synthesis of carbohydrate-based materials can be very challenging. In this thesis, the synthesis of biofunctional glycopolymers is presented, with the focus on aqueous-based, protecting group free and short synthesis routes to further advance in the field of glycopolymer synthesis. A practical and versatile precursor for glycopolymers are glycosylamines. To maintain biofunctionality of the saccharides after their amination, regioselective functionalization was performed. This frequently performed synthesis was optimized for different sugars. The optimization was facilitated using a design of experiment (DoE) approach to enable a reduced number of necessary experiments and efficient procedure. Here, the utility of using DoE for optimizing the synthesis of glycosylamines is discussed. The glycosylamines were converted to glycomonomers which were then polymerized to yield biofunctional glycopolymers. Here, the glycopolymers were aimed to be applicable as layer-by-layer (LbL) thin film coatings for drug delivery systems. To enable the LbL technique, complimentary glycopolymer electrolytes were synthesized by polymerization of the glycomonomers and subsequent modification or by post-polymerization modification. For drug delivery, liposomes were embedded into the glycopolymer coating as potential cargo carriers. The stability as well as the integrity of the glycopolymer layers and liposomes were investigated at physiological pH range. Different glycopolymers were also synthesized to be applicable as anti-adhesion therapeutics by providing advanced architectures with multivalent presentations of saccharides, which can inhibit the binding of pathogene lectins. Here, the synthesis of glycopolymer hydrogel particles based on biocompatible poly(N-isopropylacrylamide) (NiPAm) was established using the free-radical precipitation polymerization technique. The influence of synthesis parameters on the sugar content in the gels and on the hydrogel morphology is discussed. The accessibility of the saccharides to model lectins and their enhanced, multivalent interaction were investigated. At the end of this work, the synthesis strategies for the glycopolymers are generally discussed as well as their potential application in medicine. N2 - Kohlenhydrate sind in jedem Lebewesen zu finden, wo sie für zahlreiche, essenzielle biologische Funktionen und Prozesse verantwortlich sind. Synthetische Polymere, die Saccharide tragen, werden Glykopolymere genannt und können natürliche Glykokonjugate in ihren besonderen Eigenschaften und Funktionen nachahmen. Der Einsatz solcher Biomimetika fördert das Verständnis und die Kontrolle biologischer Prozesse. Daher sind Glykopolymere besonders interessant für Anwendungen im medizinischen und biologischen Bereich. Die Synthese von Materialien auf Kohlenhydratbasis kann jedoch eine große Herausforderung darstellen. In dieser Arbeit wird die Synthese biofunktioneller Glykopolymere vorgestellt, wobei der Schwerpunkt auf wässrigen, schutzgruppenfreien und kurzen Synthesewegen liegt, um weitere Fortschritte auf dem Gebiet der Glykopolymersynthese zu erzielen. Ein praktisches und vielseitiges Ausgangsmaterial für Glykopolymere sind Glykosylamine. Um die Biofunktionalität der Saccharide nach deren Aminierung zu erhalten, wurde eine regioselektive Funktionalisierung durchgeführt. Diese häufig durchgeführte Synthese wurde für verschiedene Zucker optimiert. Die Optimierung wurde durch die Anwendung von statistischer Versuchsplanung (Design of Experiments, DoE) vereinfacht, um die Anzahl der erforderlichen Experimente zu reduzieren und ein effizientes Verfahren zu ermöglichen. Hier wird der Nutzen des DoE-Ansatzes für die Optimierung der Synthese von Glykosylaminen diskutiert. Die Glykosylamine wurden in Glykomonomere umgewandelt, die daraufhin polymerisiert wurden, um biofunktionelle Glykopolymere zu erhalten. Die Glykopolymere sollten als Layer-by-Layer (LbL)-Beschichtungen für Drug-Delivery-Systeme anwendbar sein. Um die LbL-Technik zu ermöglichen, wurden komplementäre Glykopolymerelektrolyte durch Polymerisation der Glykomonomere mit anschließender Modifkation oder durch Postpolymerisationsglykosylierung hergestellt. Für die Verabreichung von Arzneimitteln wurden Liposomen als potenzielle Wirkstoffcarrier in die Glykopolymerbeschichtung eingebettet. Die Stabilität sowie die Unversehrtheit der Glykopolymerschichten und Liposomen wurden im physiologischen pH-Bereich nachgewiesen. Abschließend wurden verschiedene Glykopolymere synthetisiert, die als Anti-Adhäsions-Therapeutika anwendbar sein könnten, indem sie komplexe Architekturen mit multivalenter Präsentation von Sacchariden bereitstellen, welche die Bindung von Pathogenenlektinen hemmen können. Hier wurde die Synthese von Glykopolymer-Hydrogelpartikeln auf der Basis von biokompatiblem Poly(N-isopropylacrylamid) (NiPAm) mit Hilfe einer radikalischen Fällungspolymerisation etabliert. Der Einfluss der Syntheseparameter auf den Zuckergehalt in den Gelen und auf die Hydrogelmorphologie wurde diskutiert. Die Zugänglichkeit der Saccharide für Modell-Lektine und ihre verstärkte, multivalente Interaktion wurden untersucht. Zum Abschluss dieser Arbeit werden die Synthesestrategien für die Glykopolymere sowie deren mögliche Anwendung in der Medizin allgemein diskutiert. KW - glycopolymers KW - Glykopolymere KW - glycoconjugates KW - Glykokonjugate KW - glycogels KW - Glykogele KW - layer-by-layer glycopolymer coating KW - Layer-by-Layer Glykopolymerbeschichtung KW - design of experiments KW - statistische Versuchsplanung (Design of Experiments) KW - glycopolymer electrolytes KW - Glykopolymer-Elektrolyt Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-563639 ER - TY - THES A1 - Demin, Paul T1 - Blaulicht-aktivierbares Proteinexpressionssystem in Saccharomyces cerevisiae T1 - Blue light-inducible protein expression system in Saccharomyces cerevisiae N2 - Synthetische Transkriptionsfaktoren bestehen wie natürliche Transkriptionsfaktoren aus einer DNA-Bindedomäne, die sich spezifisch an die Bindestellensequenz vor dem Ziel-Gen anlagert, und einer Aktivierungsdomäne, die die Transkriptionsmaschinerie rekrutiert, sodass das Zielgen exprimiert wird. Der Unterschied zu den natürlichen Transkriptionsfaktoren ist, sowohl dass die DNA-Bindedomäne als auch die Aktivierungsdomäne wirtsfremd sein können und dadurch künstliche Stoffwechselwege im Wirt, größtenteils chemisch, induziert werden können. Optogenetische synthetische Transkriptionsfaktoren, die hier entwickelt wurden, gehen einen Schritt weiter. Dabei ist die DNA-Bindedomäne nicht mehr an die Aktivierungsdomäne, sondern mit dem Blaulicht-Photorezeptor CRY2 gekoppelt. Die Aktivierungsdomäne wurde mit dem Interaktionspartner CIB1 fusioniert. Unter Blaulichtbestrahlung dimerisieren CRY2 und CIB1 und damit einhergehend die beiden Domänen, sodass ein funktionsfähiger Transkriptionsfaktor entsteht. Dieses System wurde in die Saccharomyces cerevisiae genomisch integriert. Verifiziert wurde das konstruierte System mit Hilfe des Reporters yEGFP, welcher durchflusszytometrisch detektiert werden konnte. Es konnte gezeigt werden, dass die yEGFP Expression variabel gestaltet werden kann, indem unterschiedlich lange Blaulichtimpulse ausgesendet wurden, die DNA-Bindedomäne, die Aktivierungsdomäne oder die Anzahl der Bindestellen, an dem sich die DNA-Bindedomäne anlagert, verändert wurden. Um das System für industrielle Anwendungen attraktiv zu gestalten, wurde das System vom Deepwell-Maßstab auf Photobioreaktor-Maßstab hochskaliert. Außerdem erwies sich das Blaulichtsystem sowohl im Laborstamm YPH500 als auch im industriell oft verwendeten Hefestamm CEN.PK als funktional. Des Weiteren konnte ein industrierelevante Protein ebenso mit Hilfe des verifizierten Systems exprimiert werden. Schlussendlich konnte in dieser Arbeit das etablierte Blaulicht-System erfolgreich mit einem Rotlichtsystem kombiniert werden, was zuvor noch nicht beschrieben wurde. N2 - Like natural transcription factors, synthetic transcription factors consist of a DNA-binding domain that attaches specifically to the binding site sequence in front of the target gene, and an activation domain that recruits the transcription machinery so that the target gene is expressed. The difference to natural transcription factors is that both the DNA binding domain and the activation domain can be host foreign and artificial metabolic pathways, mostly chemically, can be induced in the host. In this work, new optogenetic synthetic transcription factors were developed so that chemical induction becomes obsolete. The DNA binding domain is no longer linked to the activation domain but to the blue light photoreceptor CRY2. The activation domain was fused to the interaction partner CIB1. Upon blue light irradiation, CRY2 and CIB1 dimerize and thus the two domains, resulting in a functional transcription factor. Six different prokaryotic DNA-binding domains and a total of two different activation domains, viral and fungal, were recombined with CRY2 and CIB1, respectively, and genomically integrated into the eukaryotic cell factory Saccharomyces cerevisiae. Since the blue light dimerization is based on the chromophore FAD, which the yeast can synthesize itself, only the blue light had to be switched on for the induction. The constructed system was verified with the help of the reporter yEGFP, which could be detected by flow cytometry. It could be shown that the yEGFP expression could be made variable by emitting blue light pulses of different lengths, changing the DNA binding domain, the activation domain or the copy number of binding sites at which the DNA binding domain attaches. To make the system attractive for industrial applications, the system was scaled up from deepwell scale to photobioreactor scale. In addition, the blue light system proved to be functional both in the laboratory strain YPH500 and in the yeast strain CEN.PK, which is often used industrially. Furthermore, the industrially relevant protein VP1 could also be expressed using the verified system. Due to its great flexibility, the blue light system established here was christened/named FLIRT (Flexible Blue Light Induced Transcription). Finally, in this work, the established flirt system could be successfully combined with a red light system, which has not been described before. KW - Synthetische Biologie KW - Hefe KW - Saccharomyces cerevisiae KW - Blaulicht KW - Transkriptionsfaktoren KW - Bioreaktor KW - bioreactor KW - blue light KW - budding yeast KW - Saccharomyces cerevisiae KW - synthetic biology KW - transcription factors Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559696 ER - TY - THES A1 - Hannes, Sebastian T1 - Boundary Value Problems for the Lorentzian Dirac Operator N2 - The index theorem for elliptic operators on a closed Riemannian manifold by Atiyah and Singer has many applications in analysis, geometry and topology, but it is not suitable for a generalization to a Lorentzian setting. In the case where a boundary is present Atiyah, Patodi and Singer provide an index theorem for compact Riemannian manifolds by introducing non-local boundary conditions obtained via the spectral decomposition of an induced boundary operator, so called APS boundary conditions. Bär and Strohmaier prove a Lorentzian version of this index theorem for the Dirac operator on a manifold with boundary by utilizing results from APS and the characterization of the spectral flow by Phillips. In their case the Lorentzian manifold is assumed to be globally hyperbolic and spatially compact, and the induced boundary operator is given by the Riemannian Dirac operator on a spacelike Cauchy hypersurface. Their results show that imposing APS boundary conditions for these boundary operator will yield a Fredholm operator with a smooth kernel and its index can be calculated by a formula similar to the Riemannian case. Back in the Riemannian setting, Bär and Ballmann provide an analysis of the most general kind of boundary conditions that can be imposed on a first order elliptic differential operator that will still yield regularity for solutions as well as Fredholm property for the resulting operator. These boundary conditions can be thought of as deformations to the graph of a suitable operator mapping APS boundary conditions to their orthogonal complement. This thesis aims at applying the boundary conditions found by Bär and Ballmann to a Lorentzian setting to understand more general types of boundary conditions for the Dirac operator, conserving Fredholm property as well as providing regularity results and relative index formulas for the resulting operators. As it turns out, there are some differences in applying these graph-type boundary conditions to the Lorentzian Dirac operator when compared to the Riemannian setting. It will be shown that in contrast to the Riemannian case, going from a Fredholm boundary condition to its orthogonal complement works out fine in the Lorentzian setting. On the other hand, in order to deduce Fredholm property and regularity of solutions for graph-type boundary conditions, additional assumptions for the deformation maps need to be made. The thesis is organized as follows. In chapter 1 basic facts about Lorentzian and Riemannian spin manifolds, their spinor bundles and the Dirac operator are listed. These will serve as a foundation to define the setting and prove the results of later chapters. Chapter 2 defines the general notion of boundary conditions for the Dirac operator used in this thesis and introduces the APS boundary conditions as well as their graph type deformations. Also the role of the wave evolution operator in finding Fredholm boundary conditions is analyzed and these boundary conditions are connected to notion of Fredholm pairs in a given Hilbert space. Chapter 3 focuses on the principal symbol calculation of the wave evolution operator and the results are used to proof Fredholm property as well as regularity of solutions for suitable graph-type boundary conditions. Also sufficient conditions are derived for (pseudo-)local boundary conditions imposed on the Dirac operator to yield a Fredholm operator with a smooth solution space. In the last chapter 4, a few examples of boundary conditions are calculated applying the results of previous chapters. Restricting to special geometries and/or boundary conditions, results can be obtained that are not covered by the more general statements, and it is shown that so-called transmission conditions behave very differently than in the Riemannian setting. N2 - Der Indexsatz für elliptische Operatoren auf geschlossenen Riemannschen Mannigfaltigkeiten von Atiyah und Singer hat zahlreiche Anwendungen in Analysis, Geometrie und Topologie, ist aber ungeeignet für eine Verallgemeinerung auf Lorentz-Mannigfaltigkeiten. Durch die Einführung nicht-lokaler Randbedingungen, gewonnen aus der Spektralzerlegung eines induzierten Randoperators, beweisen Atiyah, Patodi und Singer (APS) einen Indexsatz für den Fall kompakter Riemannscher Mannigfaltigkeiten mit Rand. Aufbauend auf diesem Resultat und mit Hilfe der Charakterisierung des Spektralflusses durch Philipps gelangen Bär und Strohmaier zu einem Indexsatz für den Dirac-Operator auf global hyperbolischen Lorentz-Mannigfaltigkeiten mit kompakten und raumartigen Cauchy-Hyperflächen. Ihr Ergebnis zeigt unter anderem, dass der Dirac Operator auf solchen Mannigfaltigkeiten und unter APS Randbedingungen ein Fredholm-Operator mit glattem Kern ist und das sein Index sich aus einer zum Riemannschen Fall analogen Formel berechnen lässt. Zurück im Riemannschen Setup zeigen Bär und Ballmann eine allgemeine Charakterisierung von Randbedingungen für elliptische Differentialoperatoren erster Ordnung die sowohl die Regularität von Lösungen, als auch Fredholm-Eigenschaft des resultierenden Operators garantieren. Die dort entwickelten Randbedingungen können als Deformation auf den Graphen einer geeigneten Abbildung der APS-Randbedingung auf ihr orthogonales Komplement verstanden werden. Die vorliegende Arbeit hat das Ziel die von Bär und Ballmann beschriebenen Randbedingungen auf den Dirac-Operator von global hyperbolischen Lorentz-Mannigfaltigkeiten zu übertragen um eine allgemeinere Klasse von Randbedingungen zu finden unter denen der resultierende Dirac-Operator Fredholm ist und einen glatten Lösungsraum hat. Weiterhin wird analysiert wie sich derartige Deformation von APS-Randbedingungen auf den Index solcher Operatoren auswirken und wie dieser aus den bekannten Resultaten für den APS-Index berechnet werden kann. Es wird unter anderem gezeigt, dass im Gegensatz zum Riemannschen Fall beim Übergang von Randbedingungen zu ihrem orthogonalen Komplement die Fredholm-Eigenschaft des Operators erhalten bleibt. Andererseits sind zusätzliche Annahme nötig um die Regularität von Lösungen, sowie die Fredholm-Eigenschaft für Graph-Deformationen im Fall von Lorentz-Mannigfaltigkeiten zu erhalten. Die Arbeit ist dabei wie folgt aufgebaut. In Kapitel 1 werden grundlegende Fakten zu Lorentzschen und Riemannschen Spin-Mannigfaltigkeiten, ihren Spinor-Bündeln und Dirac-Operatoren zusammengetragen. Diese Informationen dienen als Ausgangspunkt zur Definition und Analyse von Randbedingungen in späteren Kapiteln der Arbeit. Kapitel 2 definiert allgemein den Begriff der Randbedingung wie er in dieser Arbeit verwendet wird und führt zudem den sogenannten ''wave-evolution-Operator'' ein, der eine wichtige Rolle im Finden und Analysieren von Fredholm-Randbedingungen für den Dirac-Operator spielen wird. Zuletzt wird der Zusammenhang zwischen Fredholm-Paaren eines Hilbert-Raumes und Fredholm-Randbedingungen für den Dirac-Operator erklärt. Kapitel 3 beschäftigt sich mit der Berechnung des Hauptsymbols des wave-evolution-Operators und die dort erzielten Resultate werden verwendet um Fredholm-Eigenschaft, sowie Regularität von Lösungen für geeignete Deformationen von APS-Randbedingungen zu beweisen. Weiterhin werden hinreichende Bedingungen für (pseudo-)lokale Randbedingungen abgeleitet, die Fredholm-Eigenschaft und Regularität für den resultierenden Dirac-Operator garantieren. Kapitel 4 zeigt, aufbauend auf den Ergebnissen der Kapitel 1-3, einige Beispiele von lokalen und nicht-lokalen Randbedingungen für den Dirac-Operator. Unter gewissen Einschränkungen an die Geometrie der zugrunde liegenden Mannigfaltigkeit bzw. den gestellten Randbedingungen können Ergebnisse erzielt werden die in den allgemeineren Resultaten der vorangehenden Kapitel nicht enthalten sind. Zuletzt werden sogenannte Transmission-Bedingungen analysiert und die Unterschiede dieser Randbedingungen zum Riemannschen Fall aufgezeigt. T2 - Randwertprobleme für den Lorentschen Diracoperator KW - Dirac Operator KW - Boundary Value Problems KW - Lorentzian Geometry KW - Randwertprobleme KW - Diracoperator KW - Lorentzgeometrie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-548391 ER - TY - JOUR A1 - Asche, Matthias A1 - Brechenmacher, Thomas T1 - Brandenburg und die Migration – thematische Einführung und chronologische Übersicht JF - Hier geblieben? Brandenburg als Einwanderungsland vom Mittelalter bis heute Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546516 SN - 978-3-86956-506-4 SP - 11 EP - 34 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wijesingha Ahchige, Micha T1 - Canalization of plant metabolism and yield T1 - Kanalisierung des Pflanzenmetabolismus und -ertrags N2 - Plant metabolism is the main process of converting assimilated carbon to different crucial compounds for plant growth and therefore crop yield, which makes it an important research topic. Although major advances in understanding genetic principles contributing to metabolism and yield have been made, little is known about the genetics responsible for trait variation or canalization although the concepts have been known for a long time. In light of a growing global population and progressing climate change, understanding canalization of metabolism and yield seems ever-more important to ensure food security. Our group has recently found canalization metabolite quantitative trait loci (cmQTL) for tomato fruit metabolism, showing that the concept of canalization applies on metabolism. In this work two approaches to investigate plant metabolic canalization and one approach to investigate yield canalization are presented. In the first project, primary and secondary metabolic data from Arabidopsis thaliana and Phaseolus vulgaris leaf material, obtained from plants grown under different conditions was used to calculate cross-environment coefficient of variations or fold-changes of metabolite levels per genotype and used as input for genome wide association studies. While primary metabolites have lower CV across conditions and show few and mostly weak associations to genomic regions, secondary metabolites have higher CV and show more, strong metabolite to genome associations. As candidate genes, both potential regulatory genes as well as metabolic genes, can be found, albeit most metabolic genes are rarely directly related to the target metabolites, suggesting a role for both potential regulatory mechanisms as well as metabolic network structure for canalization of metabolism. In the second project, candidate genes of the Solanum lycopersicum cmQTL mapping are selected and CRISPR/Cas9-mediated gene-edited tomato lines are created, to validate the genes role in canalization of metabolism. Obtained mutants appeared to either have strong aberrant developmental phenotypes or appear wild type-like. One phenotypically inconspicuous mutant of a pantothenate kinase, selected as candidate for malic acid canalization shows a significant increase of CV across different watering conditions. Another such mutant of a protein putatively involved in amino acid transport, selected as candidate for phenylalanine canalization shows a similar tendency to increased CV without statistical significance. This potential role of two genes involved in metabolism supports the hypothesis of structural relevance of metabolism for its own stability. In the third project, a mutant for a putative disulfide isomerase, important for thylakoid biogenesis, is characterized by a multi-omics approach. The mutant was characterized previously in a yield stability screening and showed a variegated leaf phenotype, ranging from green leaves with wild type levels of chlorophyll over differently patterned variegated to completely white leaves almost completely devoid of photosynthetic pigments. White mutant leaves show wild type transcript levels of photosystem assembly factors, with the exception of ELIP and DEG orthologs indicating a stagnation at an etioplast to chloroplast transition state. Green mutant leaves show an upregulation of these assembly factors, possibly acting as overcompensation for partially defective disulfide isomerase, which seems sufficient for proper chloroplast development as confirmed by a wild type-like proteome. Likely as a result of this phenotype, a general stress response, a shift to a sink-like tissue and abnormal thylakoid membranes, strongly alter the metabolic profile of white mutant leaves. As the severity and pattern of variegation varies from plant to plant and may be effected by external factors, the effect on yield instability, may be a cause of a decanalized ability to fully exploit the whole leaf surface area for photosynthetic activity. N2 - Der pflanzliche Stoffwechsel ist der Hauptprozess, der assimilierten Kohlenstoff in unterschiedliche Stoffe umwandelt, die wichtig für das Pflanzenwachstum und somit den Ertrag sind, weswegen es ein wichtiges Forschungsthema ist. Obwohl große Fortschritte beim Verständnis der genetischen Prinzipien, die zum Stoffwechsel und Ertrag beitragen, gemacht wurden, ist noch relativ wenig über die genetischen Prinzipien bekannt, die für die Variation oder Kanalisierung von Eigenschaften verantwortlich sind, obwohl diese Konzepte schon lange bekannt sind. In Anbetracht einer wachsenden Weltbevölkerung und des fortschreitenden Klimawandels, scheint es immer wichtiger zu sein, Kanalisierung von Metabolismus und Ertrag zu verstehen, um Ernährungssicherheit zu garantieren. Unsere Gruppe hat kürzlich metabolisch kanalisierte quantitative Merkmalsregionen für den Stoffwechsel von Tomatenfrüchten gefunden und damit gezeigt, dass sich das Konzept der Kanalisierung sich auf den Stoffwechsel anwenden lässt. In dieser Arbeit werden zwei Ansätze zu Untersuchung von Kanalisierung des pflanzlichen Stoffwechsels und ein Ansatz zur Untersuchung von Ertragskanalisierung präsentiert. Im ersten Projekt, wurden Daten von Primär- und Sekundärmetaboliten von Arabidopsis thaliana und Phaseolus vulgaris, gewonnen von Pflanzen, die unter unterschiedlichen Bedingungen wuchsen, verwendet, um den Variationskoeffizient (VarK) oder die relative Änderung von Stoffgehalten umweltübergreifend für jeden Genotyp zu berechnen und als Eingabe für genomweite Assoziationsstudien verwendet. Während Primärmetabolite über unterschiedliche Umweltbedingungen einen geringeren VarK haben und nur wenige eher schwache Assoziationen zu genomischen Regionen zeigen, haben Sekundärstoffe einen höheren VarK und zeigen mehr und stärkere Assoziationen zwischen Metabolit und Genom. Als Kandidatengene können sowohl potenziell regulatorische, als auch metabolische Gene gefunden werden, jedoch sind metabolische Gene selten direkt zu den Zielmetaboliten verbunden, was für eine Rolle von sowohl regulatorischen Mechanismen als auch metabolischer Netzwerkstruktur für die Kanalisierung des Stoffwechsels spricht. Im zweiten Projekt wurden Kandidatengene aus der Solanum lycopersicum cmQTL-Kartierung, ausgewählt und CRISPR/Cas9-vermittelte, genomeditierte Tomatenlinien erschaffen, um die Rolle dieser Gene in der Kanalisierung des Metabolismus zu validieren. Erhaltene Mutanten zeigten entweder starke Fehlentwicklungsphänotypen oder erschienen wildtypähnlich. Eine phänotypisch unauffällige Mutante einer Pantothensäurekinase, die als Kandidat für die Kanalisierung von Apfelsäure gewählt wurde, zeigte einen signifikanten Anstieg des VarK über unterschiedliche Bewässerungsbedingungen. Eine andere solche Mutante eines Proteins, welches mutmaßlich im Aminosäuretransport involviert ist, welches als Kandidat für die Kanalisierung von Phenylalanin gewählt wurde, zeigt eine ähnliche Tendenz zu einem erhöhten VarK ohne statistische Signifikanz. Diese potenzielle Rolle von zwei Genen, die im Stoffwechsel involviert sind, unterstützt die Hypothese einer strukturellen Relevanz des Metabolismus für seine eigene Stabilität. Im dritten Projekt wurde eine Mutante einer mutmaßlichen Disulfid-Isomerase, welche wichtig für die Thylakoidbiogenese ist, durch einen Multiomik Ansatz charakterisiert. Die Mutante wurde vorher in einer Ertragsstabilitäts-Selektierung charakterisiert und zeigte einen panaschierten Blattphänotyp, welcher von grünen Blättern mit Wildtyp Chlorophyllgehalt über unterschiedlich gemustert panaschierte Blätter bis zu komplett weißen Blätter reichte, die fast gar keine photosynthetischen Pigmente enthielten. Weiße Blätter der Mutante zeigen Wildtyp Transkriptlevel von Photosystem-Aufbaufaktoren, mit der Ausnahme von ELIP und DEG Orthologen, was indikativ für eine Stagnation in einer Etioplast-zu-Chloroplast-Übergangsphase ist. Grüne Blätter der Mutante zeigen eine Hochregulierung dieser Aufbaufaktoren, was möglicherweise als Überkompensation für eine partiell defekte Disulfid-Isomerase wirkt und letztlich ausreichend für Chloroplastenentwicklung zu sein scheint, was wiederum durch ein wildtyp-ähnliches Proteom bestätigt wird. Wahrscheinlich als Effekt dieses Phänotyps ändern, eine generelle Stressantwort, eine Umschaltung zu einem Senke-ähnlichen Gewebe und abnormale Thylakoidmembranen, stark das metabolische Profil von weißen Blättern der Mutante. Da der Schweregrad und das Muster der Panaschierung von Pflanze zu Pflanze unterschiedlich ist und durch äußere Faktoren beeinflusst sein könnte, könnte der Effekt auf die Ertragsstabilität eine Folge einer dekanalisierten Fähigkeit sein die ganze Blattoberfläche für photosynthetische Aktivität zu nutzen. KW - canalization KW - phenotypic variation KW - metabolism KW - CRISPR/Cas9 KW - GWAS KW - CRISPR/Cas9 KW - GWAS KW - Kanalisierung KW - Metabolismus KW - phänotypische Variation Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-548844 ER - TY - THES A1 - Gleiß, Alexander T1 - Case Studies on Digital Transformation T1 - Fallstudien zur Digitalen Transformation BT - Research on the Impact of Digital Technologies and Digital Platforms on the Economy BT - Aufsätze zum Einfluss digitaler Technologien und Plattformen auf die Wirtschaft N2 - Digital transformation (DT) has not only been a major challenge in recent years, it is also supposed to continue to enormously impact our society and economy in the forthcoming decade. On the one hand, digital technologies have emerged, diffusing and determining our private and professional lives. On the other hand, digital platforms have leveraged the potentials of digital technologies to provide new business models. These dynamics have a massive effect on individuals, companies, and entire ecosystems. Digital technologies and platforms have changed the way persons consume or interact with each other. Moreover, they offer companies new opportunities to conduct their business in terms of value creation (e.g., business processes), value proposition (e.g., business models), or customer interaction (e.g., communication channels), i.e., the three dimensions of DT. However, they also can become a threat for a company's competitiveness or even survival. Eventually, the emergence, diffusion, and employment of digital technologies and platforms bear the potential to transform entire markets and ecosystems. Against this background, IS research has explored and theorized the phenomena in the context of DT in the past decade, but not to its full extent. This is not surprising, given the complexity and pervasiveness of DT, which still requires far more research to further understand DT with its interdependencies in its entirety and in greater detail, particularly through the IS perspective at the confluence of technology, economy, and society. Consequently, the IS research discipline has determined and emphasized several relevant research gaps for exploring and understanding DT, including empirical data, theories as well as knowledge of the dynamic and transformative capabilities of digital technologies and platforms for both organizations and entire industries. Hence, this thesis aims to address these research gaps on the IS research agenda and consists of two streams. The first stream of this thesis includes four papers that investigate the impact of digital technologies on organizations. In particular, these papers study the effects of new technologies on firms (paper II.1) and their innovative capabilities (II.2), the nature and characteristics of data-driven business models (II.3), and current developments in research and practice regarding on-demand healthcare (II.4). Consequently, the papers provide novel insights on the dynamic capabilities of digital technologies along the three dimensions of DT. Furthermore, they offer companies some opportunities to systematically explore, employ, and evaluate digital technologies to modify or redesign their organizations or business models. The second stream comprises three papers that explore and theorize the impact of digital platforms on traditional companies, markets, and the economy and society at large. At this, paper III.1 examines the implications for the business of traditional insurance companies through the emergence and diffusion of multi-sided platforms, particularly in terms of value creation, value proposition, and customer interaction. Paper III.2 approaches the platform impact more holistically and investigates how the ongoing digital transformation and "platformization" in healthcare lastingly transform value creation in the healthcare market. Paper III.3 moves on from the level of single businesses or markets to the regulatory problems that result from the platform economy for economy and society, and proposes appropriate regulatory approaches for addressing these problems. Hence, these papers bring new insights on the table about the transformative capabilities of digital platforms for incumbent companies in particular and entire ecosystems in general. Altogether, this thesis contributes to the understanding of the impact of DT on organizations and markets through the conduction of multiple-case study analyses that are systematically reflected with the current state of the art in research. On this empirical basis, the thesis also provides conceptual models, taxonomies, and frameworks that help describing, explaining, or predicting the impact of digital technologies and digital platforms on companies, markets and the economy or society at large from an interdisciplinary viewpoint. N2 - Die Digitale Transformation (DT) war in den letzten Jahren eine große Herausforderung und wird auch im kommenden Jahrzehnt unsere Gesellschaft und Wirtschaft weiterhin enorm beeinflussen. Neue digitale Technologien durchdringen unseren Alltag, beeinflussen unser Leben maßgeblich und werden es zunehmend mitbestimmen. Gleichzeitig haben digitale Plattformen die Potenziale digitaler Technologien genutzt, um neue Geschäftsmodelle zu entwickeln und zu etablieren, mit tiefgreifenden Auswirkungen auf Einzelpersonen, Unternehmen und ganze Ökosysteme. Digitale Technologien und Plattformen haben das Konsum- und Kommunikationsverhalten der Menschen in den letzten Jahren erheblich und nachhaltig verändert. Einerseits bieten digitale Technologien Unternehmen verschiedener Branchen neue Gestaltungsmöglichkeiten in allen drei Dimension der DT, nämlich dem Leistungserstellungsmodell (z. B. bessere Geschäftsprozesse), dem Leistungsangebotsmodell (z. B. neue Geschäftsmodelle) und dem Kundeninteraktionsmodell (z. B. zeitgemäße Kommunikationskanäle). Anderseits besitzen digitale Technologien und Plattformen das Potenzial, ganze Ökosysteme zu verändern, und können daher auch zu einer Bedrohung für die Wettbewerbsfähigkeit – oder gar das Überleben – einzelner Unternehmen oder ganzer Märkte werden. Vor diesem Hintergrund hat die Forschung der Wirtschaftsinformatik und Information Systems (WI/IS) die Phänomene im Zusammenhang mit der DT in den letzten Jahren erforscht und in Theorien überführt, jedoch angesichts des Ausmaßes, der Dynamik und Komplexität der DT noch nicht vollumfänglich erschlossen. Folglich bedarf es noch weiterer Forschungsanstrengungen, um die DT einschließlich der Interdependenzen in ihrer Gesamtheit und im Detail besser zu verstehen, insbesondere durch die WI/IS-geprägte Perspektive in der Schnittmenge von Technologie, Wirtschaft und Gesellschaft. Folgerichtig wurde in der WI/IS-Disziplin eine Vielzahl bedeutender Forschungslücken diagnostiziert, u. a. den Mangel an empirischen Daten, an Theorien und Konzepten sowie an Wissen über die dynamischen und transformativen Fähigkeiten digitaler Technologien und Plattformen sowohl für einzelne Organisationen als auch für ganze Branchen und Ökosysteme. Daher zielt diese Arbeit darauf ab, ausgewählte Forschungslücken auf der WI/IS-Forschungsagenda anzugehen. Die Arbeit ist hierzu in zwei Bereiche aufgegliedert. Der erste Bereich dieser Arbeit umfasst vier Beiträge zur Analyse der Auswirkungen digitaler Technologien auf Organisationen. Beleuchtet werden hier im Speziellen Einflüsse neuer Technologien auf Unternehmen (Beitrag II.1) und deren Innovationsfähigkeit (II.2), Wesen und Eigenschaften datengetriebener Geschäftsmodelle (II.3) sowie Entwicklungen in Forschung und Praxis zu On-demand Healthcare, d. h. digitalen, patientenzentrierten Ad-hoc-Gesundheitsservices (II.4). Diese Beiträge liefern der Forschung neue Erkenntnisse über die dynamischen Fähigkeiten digitaler Technologien für Unternehmen entlang der drei Dimensionen der DT und zeigen Firmen neue Möglichkeiten auf, digitale Technologien zur Umgestaltung der Organisation oder zur Entwicklung neuer Geschäftsmodelle systematisch zu erkunden, einzusetzen und zu bewerten. Der zweite Bereich dieser Arbeit beinhaltet drei Beiträge zur Analyse der Auswirkungen digitaler Plattformen auf traditionelle Unternehmen und Märkte sowie die Wirtschaft und Gesellschaft als Ganzes. Im Speziellen beleuchtet Beitrag III.1 den Einfluss digitaler Plattformen auf das Geschäft traditioneller Versicherungsunternehmen und demnach, wie sich Wertschöpfung, Leistungsangebot und Kundeninteraktion in der Folge wandeln. Beitrag III.2 betrachtet den Einfluss digitaler Plattformen ganzheitlicher und untersucht, wie sich die Wertschöpfungsstrukturen im Gesundheitsmarkt infolge der Digitalisierung und "Plattformisierung" nachhaltig verändern. Gegenstand der Betrachtung sind hierbei insbesondere die fünf großen Player: Google, Apple, Facebook, Amazon und Microsoft (GAFAM). Beitrag III.3 verlässt die Ebene einzelner Unternehmen und Märkte und untersucht die regulatorischen Probleme, die infolge der Plattformökonomie für Wirtschaft und Gesellschaft entstehen, und entwickelt entsprechende Lösungsansätze, diese anzugehen. Die Beiträge steuern somit neue Erkenntnisse über die transformativen Auswirkungen digitaler Plattformen auf etablierte Unternehmen im Speziellen und ganze Ökosysteme im Allgemeinen bei. Die Erkenntnisse aller Beiträge stützen sich im Wesentlichen auf der Analyse von Fallstudien, die im Kontext bestehender Forschung in den einzelnen Bereichen systematisch untersucht werden. Auf dieser empirischen Grundlage werden im Rahmen dieser Arbeit theoretische Modelle, Taxonomien und Frameworks entwickelt, die helfen, diese Auswirkungen aus interdisziplinärer Sicht zu beschreiben, zu erklären oder vorherzusagen. Insgesamt trägt diese Arbeit demzufolge zum weiteren Verständnis der Auswirkungen der DT auf Organisationen, Märkte und die Gesellschaft bei. KW - Digital Transformation KW - Digitalization KW - Digital Health KW - Digital Platforms KW - Platform Economy KW - Digitalisierung KW - Plattformökonomie KW - Digitale Transformation KW - Digitale Plattformen KW - Digitale Gesundheit Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546159 ER - TY - GEN A1 - Schaefer, Laura A1 - Bittmann, Frank T1 - Case Study: Intra- and Interpersonal Coherence of Muscle and Brain Activity of Two Coupled Persons during Pushing and Holding Isometric Muscle Action T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Inter-brain synchronization is primarily investigated during social interactions but had not been examined during coupled muscle action between two persons until now. It was previously shown that mechanical muscle oscillations can develop coherent behavior between two isometrically interacting persons. This case study investigated if inter-brain synchronization appears thereby, and if differences of inter- and intrapersonal muscle and brain coherence exist regarding two different types of isometric muscle action. Electroencephalography (EEG) and mechanomyography/mechanotendography (MMG/MTG) of right elbow extensors were recorded during six fatiguing trials of two coupled isometrically interacting participants (70% MVIC). One partner performed holding and one pushing isometric muscle action (HIMA/PIMA; tasks changed). The wavelet coherence of all signals (EEG, MMG/MTG, force, ACC) were analyzed intra- and interpersonally. The five longest coherence patches in 8–15 Hz and their weighted frequency were compared between real vs. random pairs and between HIMA vs. PIMA. Real vs. random pairs showed significantly higher coherence for intra-muscle, intra-brain, and inter-muscle-brain activity (p < 0.001 to 0.019). Inter-brain coherence was significantly higher for real vs. random pairs for EEG of right and central areas and for sub-regions of EEG left (p = 0.002 to 0.025). Interpersonal muscle-brain synchronization was significantly higher than intrapersonal one, whereby it was significantly higher for HIMA vs. PIMA. These preliminary findings indicate that inter-brain synchronization can arise during muscular interaction. It is hypothesized both partners merge into one oscillating neuromuscular system. The results reinforce the hypothesis that HIMA is characterized by more complex control strategies than PIMA. The pilot study suggests investigating the topic further to verify these results on a larger sample size. Findings could contribute to the basic understanding of motor control and is relevant for functional diagnostics such as the manual muscle test which is applied in several disciplines, e.g., neurology, physiotherapy. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 782 KW - interpersonal muscle action KW - wavelet coherence KW - inter-brain synchronization KW - inter-muscle-brain synchronization KW - electroencephalography (EEG) KW - mechanomyography (MMG) KW - holding isometric muscle action (HIMA) KW - pushing isometric muscle action (PIMA) Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561942 SN - 1866-8364 SP - 1 EP - 27 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Miklashevsky, Alex T1 - Catch the star! Spatial information activates the manual motor system T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Previous research demonstrated a close bidirectional relationship between spatial attention and the manual motor system. However, it is unclear whether an explicit hand movement is necessary for this relationship to appear. A novel method with high temporal resolution–bimanual grip force registration–sheds light on this issue. Participants held two grip force sensors while being presented with lateralized stimuli (exogenous attentional shifts, Experiment 1), left- or right-pointing central arrows (endogenous attentional shifts, Experiment 2), or the words "left" or "right" (endogenous attentional shifts, Experiment 3). There was an early interaction between the presentation side or arrow direction and grip force: lateralized objects and central arrows led to a larger increase of the ipsilateral force and a smaller increase of the contralateral force. Surprisingly, words led to the opposite pattern: larger force increase in the contralateral hand and smaller force increase in the ipsilateral hand. The effect was stronger and appeared earlier for lateralized objects (60 ms after stimulus presentation) than for arrows (100 ms) or words (250 ms). Thus, processing visuospatial information automatically activates the manual motor system, but the timing and direction of this effect vary depending on the type of stimulus. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 795 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-564464 SN - 1866-8364 SP - 1 EP - 30 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - König, Alexander T1 - Change-Prozesse in der öffentlichen Verwaltung – Der Einfluss von direkten Vorgesetzten auf die Einstellung von Mitarbeitenden T1 - Change processes in public administration - The influence of direct supervisors on the attitudes of employees BT - eine Literaturanalyse hinsichtlich des Einflusses des Supports durch direkte Vorgesetzte auf die Einstellung von Mitarbeitenden BT - a literature review regarding the influence of direct supervisor support on the attitudes of employees N2 - Die öffentliche Verwaltung wird in den nächsten Jahrzehnten große Reformen durchlaufen müssen. Ein wichtiger Einflussfaktor für das Gelingen von geplanten organisatorischen Veränderungen ist auch im Verwaltungskontext die Einstellung von Mitarbeiter*innen gegenüber diesem Wandel. Hier existieren gerade bei Mitarbeiter*innen ohne Führungsverantwortlichkeit häufig negative Einstellungen gegenüber Veränderungen. Dies wird auch mit dem hohen Stress in diesen Situationen in Verbindung gebracht. Besonders direkte Führungskräfte sind hier eine wichtige Einflussgröße auf die Einstellungen. Die folgende Bachelorarbeit beschäftigt sich dementsprechend mit diesen Einfluss und konzentriert sich dabei auf den Effekt der sozialen Unterstützung dieser Führungskräfte auf die Einstellung der Mitarbeiter*innen, da soziale Unterstützung einen nachgewiesenen mildernden Effekt auf den wahrgenommenen Stress besitzt. Soziale Unterstützung wird nach der Social-Support-Theorie in die dort identifizierten vier Unter-arten differenziert, namentlich Appraisal, Emotional, Informational und Instrumental Support. Im Rahmen einer Literaturanalyse konnte für zwei der vier Supportarten (Emotional, Informational) ein Einfluss nachgewiesen werden. Auch für die anderen Supportarten bestehen Hinweise auf einen positiven Effekt. Dies weist darauf hin, dass direkte Führungskräfte während Reformen der öffentlichen Verwaltung als Quellen der Unterstützung fungieren und mittels dieser die Einstellung der Mitarbeiter*innen gegenüber Wandel positiv beeinflussen. Darüber hinaus können die Unterschiede der Ergebnisse nach Supportart darauf hinweisen, dass situationsspezifisch ver-schiedene Unterstützung mehr oder weniger relevant ist. Für Führungskräfte in diesem Kontext verweisen die Ergebnisse der Arbeit darauf, dass der unterstützende Kontakt mit direkt Untergebenen in Phasen des Wandels wichtig und die Anforderungen breiter als die reine Anweisung dieser Untergebenen sind. N2 - Public administration will have to implement major reforms in the coming decades. An important factor influencing the success of planned organizational changes in the administrative context is the attitude of employees towards these changes. Especially employees without management responsibility often have negative attitudes towards change, which can be associated with the high stress in these situations. Direct managers in particular are an important factor influencing these attitudes. The following bachelor thesis deals with this influence and focuses on the effect of the social support of these leaders on employee attitudes regarding change, as social support has a proven mitigating effect on the perceived stress. According to the social support theory, social support is differentiated into the four subtypes: appraisal, emotional, informational and instrumental support. Within the framework of a literature analysis, an influence could be proven for two out of the four types of support (emotional, informational). There are also indications of a positive effect for the other types of support. This sug-gests that direct managers act as sources of support during public administration reforms and use these to positively influence employees' attitudes towards change. Furthermore, the differences in results by support type may indicate that different types of support are more or less relevant de-pending on the situation. For managers in this context, the resulting research points to the im-portance of supportive contact with direct subordinates in phases of change and that the requirements placed on them are broader than simply instructing these subordinates. T3 - Schriftenreihe für Public und Nonprofit Management - 30 KW - Direct Supervisors KW - Social Support KW - Change Leadership KW - Attitudes towards Change KW - Public Administration KW - Direkte Vorgesetzte KW - Sozialer Support KW - Change Management KW - Einstellung gegenüber Wandel KW - Öffentliche Verwaltung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-565713 SN - 2190-4561 ER - TY - THES A1 - Banerjee, Abhirup T1 - Characterizing the spatio-temporal patterns of extreme events BT - from recurrence to prediction N2 - Over the past decades, there has been a growing interest in ‘extreme events’ owing to the increasing threats that climate-related extremes such as floods, heatwaves, droughts, etc., pose to society. While extreme events have diverse definitions across various disciplines, ranging from earth science to neuroscience, they are characterized mainly as dynamic occurrences within a limited time frame that impedes the normal functioning of a system. Although extreme events are rare in occurrence, it has been found in various hydro-meteorological and physiological time series (e.g., river flows, temperatures, heartbeat intervals) that they may exhibit recurrent behavior, i.e., do not end the lifetime of the system. The aim of this thesis to develop some sophisticated methods to study various properties of extreme events. One of the main challenges in analyzing such extreme event-like time series is that they have large temporal gaps due to the paucity of the number of observations of extreme events. As a result, existing time series analysis tools are usually not helpful to decode the underlying information. I use the edit distance (ED) method to analyze extreme event-like time series in their unaltered form. ED is a specific distance metric, mainly designed to measure the similarity/dissimilarity between point process-like data. I combine ED with recurrence plot techniques to identify the recurrence property of flood events in the Mississippi River in the United States. I also use recurrence quantification analysis to show the deterministic properties and serial dependency in flood events. After that, I use this non-linear similarity measure (ED) to compute the pairwise dependency in extreme precipitation event series. I incorporate the similarity measure within the framework of complex network theory to study the collective behavior of climate extremes. Under this architecture, the nodes are defined by the spatial grid points of the given spatio-temporal climate dataset. Each node is associated with a time series corresponding to the temporal evolution of the climate observation at that grid point. Finally, the network links are functions of the pairwise statistical interdependence between the nodes. Various network measures, such as degree, betweenness centrality, clustering coefficient, etc., can be used to quantify the network’s topology. We apply the methodology mentioned above to study the spatio-temporal coherence pattern of extreme rainfall events in the United States and the Ganga River basin, which reveals its relation to various climate processes and the orography of the region. The identification of precursors associated with the occurrence of extreme events in the near future is extremely important to prepare the masses for an upcoming disaster and mitigate the potential risks associated with such events. Under this motivation, I propose an in-data prediction recipe for predicting the data structures that typically occur prior to extreme events using the Echo state network, a type of Recurrent Neural Network which is a part of the reservoir computing framework. However, unlike previous works that identify precursory structures in the same variable in which extreme events are manifested (active variable), I try to predict these structures by using data from another dynamic variable (passive variable) which does not show large excursions from the nominal condition but carries imprints of these extreme events. Furthermore, my results demonstrate that the quality of prediction depends on the magnitude of events, i.e., the higher the magnitude of the extreme, the better is its predictability skill. I show quantitatively that this is because the input signals collectively form a more coherent pattern for an extreme event of higher magnitude, which enhances the efficiency of the machine to predict the forthcoming extreme events. N2 - In den letzten Jahrzehnten hat das Interesse an ‘Extremereignissen’ aufgrund der zunehmenden Bedrohung, die klimabedingte Extreme wie Überschwemmungen, Hitzewellen, Dürren usw. für die Gesellschaft darstellen, zugenommen. Obwohl Extremereignisse in verschiedenen Disziplinen - von der Geowissenschaft bis zu den Neurowissenschaften - unterschiedlich definiert werden, werden sie hauptsächlich als dynamische Ereignisse innerhalb eines begrenzten Zeitrahmens charakterisiert, die das normale Funktionieren eines Systems beeinträchtigen. Obwohl Extremereignisse selten vorkommen, wurde festgestellt, dass verschiedene hydro-meteorologische und physiologische Zeitreihen (z. B. Stromabflussmengen, Temperaturen, Herzschlagintervalle) rekurrentes Verhalten. Das heißt, sie enden nicht an der Lebensdauer des Systems. Das Ziel dieser Arbeit ist es, fortschrittliche Methoden zur Untersuchung verschiedener Eigenschaften von Extremereignissen zu entwickeln. Eine der größten Herausforderungen bei der Analyse solcher extremen Ereignisse ist, dass sie große zeitliche Lücken aufweisen, da die Anzahl beobachteter Extremereignissen gering ist. Bestehende Zeitreihenanalysetools sind daher in der Regel nicht hilfreich, um die zugrundeliegenden Informationen zu entschlüsseln. Ich verwende die Edit-Distanz (ED) Methode, um extremeereignisähnliche Zeitreihen in ihrer unveränderten Form zu analysieren. ED ist eine spezielle Abstandsmetrik, die hauptsächlich zur Messung der Ähnlichkeit/Unähnlichkeit zwischen punktprozessähnlichen Daten entwickelt wurde. Ich kombiniere ED mit Rekurrenzplots, um die Wiederkehr-Eigenschaften von Hochwasserereignissen am Mississippi in den Vereinigten Staaten zu ermitteln. Außerdem werte ich die Wiederkehr-Eigenschaften quantitativ aus, um die deterministische Charakteristik und die serielle Abhängigkeit bei Hochwasserereignissen aufzuzeigen. Anschließend verwende ich dieses nichtlineare Ähnlichkeitsmaß(ED), um die paarweise Abhängigkeit in extremen Niederschlagsereignisreihen zu berechnen. Ich verknüpfe das Ähnlichkeitsmaß mit der Theorie komplexer Netzwerke, um das kollektive Verhalten von Klimaextremen zu untersuchen. In diesem Fall werden die Knoten durch die räumlichen Gitterpunkte des zu untersuchenden raumzeitlichen Klimadatensatzes definiert. Jeder Knoten repräsentiert eine Zeitreihe, die die zeitliche Entwicklung der Klimabeobachtung an diesem Gitterpunkt beschreibt. Schließlich sind die Netzwerkverbindungen Funktionen der paarweisen statistischen Interdependenz zwischen den Knotenpunkten. Zur Quantifizierung der Netztopologie können verschiedene Netzwerkmaße wie unter anderem der Grad, die Betweenness-Zentralität, oder der Clustering-Koeffizient verwendet werden. Wir wenden die oben erwähnte Methodik an, um das raumzeitliche Kohärenzmuster extremer Niederschlagsereignisse in den Vereinigten Staaten und im Einzugsgebiet des Ganges zu untersuchen. Die Ergebnisse zeigen, dass ein Zusammenhang zwischen dem Kohärenzmuster und verschiedenen Klimaprozessen und der Orographie der Region besteht. Die Identifizierung von Vorläufern, die mit dem Auftreten von Extremereignissen in naher Zukunft verbunden sind, ist äußerst wichtig, um die Bevölkerung auf eine bevorstehende Katastrophe vorzubereiten und potenziell resultierende Risiken zu mindern. Deshalb schlage ich ein datenbasiertes Vorhersageverfahren zur Bestimmung der Datenstrukturen vor, die typischerweise vor extremen Ereignissen auftreten. Das Verfahren basiert auf dem Echo-State Netzwerk, einem rekurrenten neuronalen Netz, das dem Reservoir-Computing zugeordnet wird. Im Gegensatz zu früheren Arbeiten, die Vorläuferstrukturen in der Variablen identifizieren, in der sich Extremereignisse manifestieren (aktive Variable), versuche ich die Strukturen anhand anderer dynamischer Variablen (passive Variablen) vorherzusagen. Diese Variablen weichen selbst nicht sonderlich von ihrem eigenen Sollzustand ab, aber sie besitzen eine Aussagekraft gegenüber den Extremereignissen. Meine Ergebnisse zeigen, dass die Qualität der Vorhersage von der Magnitude der Ereignisse abhängt, d.h. je extremer ein Ereignis ist, desto besser kann es vorhergesagt werden. Ich belege quantitativ, dass dieser Zusammenhang darauf basiert, dass die gesammelten Eingangssignale aussagekräftigere Kohärenzmuster für Extremereignisse hoher Magnitude bilden. Dies erhöht die Wirksamkeit des Ansatzes bei der Vorhersage bevorstehender Extremereignisse. KW - extreme events KW - Extremereignisse KW - floods KW - extreme precipitation KW - edit distance KW - recurrence plot KW - complex network KW - echo state network KW - Überschwemmungen KW - Extremniederschläge KW - Edit-Distanz KW - Rekurrenzplot KW - komplexes Netzwerk KW - Echo-State Netzwerk Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559839 ER - TY - GEN A1 - Lindner, Nadja A1 - Moeller, Korbinian A1 - Dresen, Verena A1 - Pixner, Silvia A1 - Lonnemann, Jan T1 - Children's spatial language skills predict their verbal number skills BT - A longitudinal study N2 - The process of number symbolization is assumed to be critically influenced by the acquisition of so-called verbal number skills (e.g., verbally reciting the number chain and naming Arabic numerals). For the acquisition of these verbal number skills, verbal and visuospatial skills are discussed as contributing factors. In this context, children’s verbal number skills have been found to be associated with their concurrent spatial language skills such as mastery of verbal descriptions of spatial position (e.g., in front of, behind). In a longitudinal study with three measurement times (T1, T2, T3) at an interval of about 6 months, we evaluated the predictive role of preschool children’s (mean age at T1: 3 years and 10 months) spatial language skills for the acquisition of verbal number skills. Children’s spatial language skills at T2 significantly predicted their verbal number skills at T3, when controlling for influences of important covariates such as vocabulary knowledge. In addition, further analyses replicated previous results indicating that children’s spatial language skills at T2 were associated with their verbal number skills at T2. Exploratory analyses further revealed that children’s verbal number skills at T1 predict their spatial language at T2. Results suggests that better spatial language skills at the age of 4 years facilitate the future acquisition of verbal number skills. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 827 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-587298 SN - 1866-8364 IS - 827 ER - TY - GEN A1 - Lindner, Nadja A1 - Moeller, Korbinian A1 - Hildebrandt, Frauke A1 - Hasselhorn, Marcus A1 - Lonnemann, Jan T1 - Children's use of egocentric reference frames in spatial language is related to their numerical magnitude understanding T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Numerical magnitude information is assumed to be spatially represented in the form of a mental number line defined with respect to a body-centred, egocentric frame of reference. In this context, spatial language skills such as mastery of verbal descriptions of spatial position (e.g., in front of, behind, to the right/left) have been proposed to be relevant for grasping spatial relations between numerical magnitudes on the mental number line. We examined 4- to 5-year-old’s spatial language skills in tasks that allow responses in egocentric and allocentric frames of reference, as well as their relative understanding of numerical magnitude (assessed by a number word comparison task). In addition, we evaluated influences of children’s absolute understanding of numerical magnitude assessed by their number word comprehension (montring different numbers using their fingers) and of their knowledge on numerical sequences (determining predecessors and successors as well as identifying missing dice patterns of a series). Results indicated that when considering responses that corresponded to the egocentric perspective, children’s spatial language was associated significantly with their relative numerical magnitude understanding, even after controlling for covariates, such as children’s SES, mental rotation skills, and also absolute magnitude understanding or knowledge on numerical sequences. This suggests that the use of egocentric reference frames in spatial language may facilitate spatial representation of numbers along a mental number line and thus seem important for preschoolers’ relative understanding of numerical magnitude. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 815 KW - spatial language KW - frames of reference KW - numerical development KW - mental number line KW - preschool children Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-581270 SN - 1866-8364 IS - 815 ER - TY - GEN A1 - Al Laban, Firas A1 - Reger, Martin A1 - Lucke, Ulrike T1 - Closing the Policy Gap in the Academic Bridge T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - The highly structured nature of the educational sector demands effective policy mechanisms close to the needs of the field. That is why evidence-based policy making, endorsed by the European Commission under Erasmus+ Key Action 3, aims to make an alignment between the domains of policy and practice. Against this background, this article addresses two issues: First, that there is a vertical gap in the translation of higher-level policies to local strategies and regulations. Second, that there is a horizontal gap between educational domains regarding the policy awareness of individual players. This was analyzed in quantitative and qualitative studies with domain experts from the fields of virtual mobility and teacher training. From our findings, we argue that the combination of both gaps puts the academic bridge from secondary to tertiary education at risk, including the associated knowledge proficiency levels. We discuss the role of digitalization in the academic bridge by asking the question: which value does the involved stakeholders expect from educational policies? As a theoretical basis, we rely on the model of value co-creation for and by stakeholders. We describe the used instruments along with the obtained results and proposed benefits. Moreover, we reflect on the methodology applied, and we finally derive recommendations for future academic bridge policies. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1310 KW - policy evaluation KW - higher education KW - virtual mobility KW - teacher training Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-583572 SN - 1866-8372 IS - 1310 ER - TY - GEN A1 - Weithoff, Guntram A1 - Bell, Elanor Margaret T1 - Complex Trophic Interactions in an Acidophilic Microbial Community T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Extreme habitats often harbor specific communities that differ substantially from non-extreme habitats. In many cases, these communities are characterized by archaea, bacteria and protists, whereas the number of species of metazoa and higher plants is relatively low. In extremely acidic habitats, mostly prokaryotes and protists thrive, and only very few metazoa thrive, for example, rotifers. Since many studies have investigated the physiology and ecology of individual species, there is still a gap in research on direct, trophic interactions among extremophiles. To fill this gap, we experimentally studied the trophic interactions between a predatory protist (Actinophrys sol, Heliozoa) and its prey, the rotifers Elosa woralli and Cephalodella sp., the ciliate Urosomoida sp. and the mixotrophic protist Chlamydomonas acidophila (a green phytoflagellate, Chlorophyta). We found substantial predation pressure on all animal prey. High densities of Chlamydomonas acidophila reduced the predation impact on the rotifers by interfering with the feeding behaviour of A. sol. These trophic relations represent a natural case of intraguild predation, with Chlamydomonas acidophila being the common prey and the rotifers/ciliate and A. sol being the intraguild prey and predator, respectively. We further studied this intraguild predation along a resource gradient using Cephalodella sp. as the intraguild prey. The interactions among the three species led to an increase in relative rotifer abundance with increasing resource (Chlamydomonas) densities. By applying a series of laboratory experiments, we revealed the complexity of trophic interactions within a natural extremophilic community. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1276 KW - acid mine drainage KW - extremophiles KW - food web KW - heliozoa KW - intraguild predation KW - mining lakes KW - Rotifera Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-569945 SN - 1866-8372 SP - 1 EP - 10 ER - TY - THES A1 - Lissón Hernández, Paula J. T1 - Computational models of sentence comprehension in aphasia T1 - Komputationale Modelle des Satzverständnisses bei Aphasie N2 - It is well-known that individuals with aphasia (IWA) have difficulties understanding sentences that involve non-adjacent dependencies, such as object relative clauses or passives (Caplan, Baker, & Dehaut, 1985; Caramazza & Zurif, 1976). A large body of research supports the view that IWA’s grammatical system is intact, and that comprehension difficulties in aphasia are caused by a processing deficit, such as a delay in lexical access and/or in syntactic structure building (e.g., Burkhardt, Piñango, & Wong, 2003; Caplan, Michaud, & Hufford, 2015; Caplan, Waters, DeDe, Michaud, & Reddy, 2007; Ferrill, Love, Walenski, & Shapiro, 2012; Hanne, Burchert, De Bleser, & Vasishth, 2015; Love, Swinney, Walenski, & Zurif, 2008). The main goal of this dissertation is to computationally investigate the processing sources of comprehension impairments in sentence processing in aphasia. In this work, prominent theories of processing deficits coming from the aphasia literature are implemented within two cognitive models of sentence processing –the activation-based model (Lewis & Vasishth, 2005) and the direct-access model (McEl- ree, 2000)–. These models are two different expressions of the cue-based retrieval theory (Lewis, Vasishth, & Van Dyke, 2006), which posits that sentence processing is the result of a series of iterative retrievals from memory. These two models have been widely used to account for sentence processing in unimpaired populations in multiple languages and linguistic constructions, sometimes interchangeably (Parker, Shvarts- man, & Van Dyke, 2017). However, Nicenboim and Vasishth (2018) showed that when both models are implemented in the same framework and fitted to the same data, the models yield different results, because the models assume different data- generating processes. Specifically, the models hold different assumptions regarding the retrieval latencies. The second goal of this dissertation is to compare these two models of cue-based retrieval, using data from individuals with aphasia and control participants. We seek to answer the following question: Which retrieval mechanism is more likely to mediate sentence comprehension? We model 4 subsets of existing data: Relative clauses in English and German; and control structures and pronoun resolution in German. The online data come from either self-paced listening experiments, or visual-world eye-tracking experiments. The offline data come from a complementary sentence-picture matching task performed at the end of the trial in both types of experiments. The two competing models of retrieval are implemented in the Bayesian framework, following Nicenboim and Vasishth (2018). In addition, we present a modified version of the direct-acess model that – we argue – is more suitable for individuals with aphasia. This dissertation presents a systematic approach to implement and test verbally- stated theories of comprehension deficits in aphasia within cognitive models of sen- tence processing. The conclusions drawn from this work are that (a) the original direct-access model (as implemented here) cannot account for the full pattern of data from individuals with aphasia because it cannot account for slow misinterpretations; and (b) an activation-based model of retrieval can account for sentence comprehension deficits in individuals with aphasia by assuming a delay in syntactic structure building, and noise in the processing system. The overall pattern of results support an activation-based mechanism of memory retrieval, in which a combination of processing deficits, namely slow syntax and intermittent deficiencies, cause comprehension difficulties in individuals with aphasia. N2 - Es ist allgemein bekannt, dass Menschen mit Aphasie (PmA) Verständnisschwierigkeiten bei Sätzen haben, die nicht zusammenhängende Abhängigkeiten, wie z.B. Objektrelativsätze oder Passive, enthalten (Caplan, Baker, & Dehaut, 1985; Caramazza & Zurif, 1976). Ein Großteil der Forschung unterstützt dabei die Ansicht, dass das grammatikalische System von Personen mit Aphasie (PmA) intakt ist und dass die Verständnisschwierigkeiten bei Aphasie durch ein Verarbeitungsdefizit, wie z.B. einer Verzögerung beim lexikalischen Zugriff und/oder beim syntaktischen Strukturaufbau, verursacht werden (siehe, Burkhardt, Pin˜ango, & Wong, 2003; Caplan, Michaud, & Hufford, 2015; Caplan, Waters, DeDe, Michaud, & Reddy, 2007; Ferrill, Love, Walenski, & Shapiro, 2012; Hanne, Burchert, De Bleser, & Vasishth, 2015; Love, Swinney, Walenski, & Zurif, 2008). Das wesentliche Ziel dieser Dissertation ist deshalb die rechnergestützte Untersuchung der Verarbeitungsquellen von Verständnisstörungen bei der Satzverarbeitung bei Aphasie. In dieser Arbeit werden bekannte Theorien der Verarbeitungsdefizite aus der Literatur über Aphasie mit zwei kognitiven Modellen der Satzverarbeitung verbunden, dem activation-based Modell (Lewis & Vasishth, 2005) und dem direct-acces Modell (McElree, 2000). Beide Modelle sind zwei verschiedene Ausprägungen der cue-based retrieval Theorie (Lewis, Vasishth, & Van Dyke, 2006), die annimmt, dass die Satzverarbeitung das Ergenis einer Reihe iterativer Abrufe aus dem Gedächtnis ist. Diese beiden Modelle wurden häufig und vereinzelt austauschbar verwendet, um die Satzverarbeitung in nicht beeinträchtigten Populationen in mehreren Sprachen und sprachlichen Konstruktionen zu erklären (Parker, Shvartsman, & Van Dyke, 2017). Allerdings konnten sowohl Nicenboim als auch Vasishth (2018) zeigen, dass wenn beide Modelle im gleichen Framework implementiert und an die gleichen Daten angepasst werden, die Modelle verschiedene Ergebnisse ergaben, weil die Modelle abweichende Prozesse in der Generierung der Daten annahmen. Insbesondere enthalten die Modelle unterschiedliche Annahmen bezüglich der Abruf-Latenzen. Das zweite Ziel dieser Dissertation ist der Vergleich der beiden Stichwort Abruf basierten Modelle unter Verwendung von Daten von Individuen mit Aphasie und einer Kontrollgruppe. Wir versuchen dabei die folgenden Fragen zu beantworten: Welcher Abrufmechanismus vermittelt eher das Satzverständnis? Wir modellieren 4 Untergruppen von existierenden Daten: Relativsätze in Englisch und Deutsch; und Kontrollstrukturen und Pronomenauflösung im Deutschen. Die Online-Daten entstammen entweder Hörexperimenten in eigenem Tempo oder Eye-Tracking-Experimenten der visuellen Welt. Die Offline-Daten kommen aus einem am Ende beider Versuche durchgeführten ergänzenden Satz-Bild-Matching-Aufgabe. Die sich gegenüberstehenden Abruf-Modelle werden in einem Bayesian Framework nach Nicemboim und Vasishth (2018) implementiert. Darüber hinaus stellen wir ein verändertes direct-access Modell vor, welches, gemäß unserer Argumentation, besser für Menschen mit Aphasie geeignet ist. Diese Dissertation präsentiert ein systematisches Vorgehen zur Implementierung und verbalem Testen bestehender Theorien von Verständnisdefiziten bei Aphasie mittels kognitiver Modelle der Satzverarbeitung. Aus dieser Arbeit ergeben sich folgende Schlussfolgerungen: Das hier verwendete ursprüngliche direct-access Modell kann nicht das ganze Daten-Muster von PmA erklären, da es langsame Fehlinterpretationen nicht abdecken kann; und das activation-based Modell kann Satzverständnisschwierigkeiten von PmA durch Annahme von Verzögerungen in der Bildung syntaktischer Strukturen und Rauschen im Verarbeitungssystem berücksichtigen. Insgesamt weist das Muster der Ergebnisse auf einen Aktivierungsbasierten Mechanismus des Abrufs von Erinnerungen hin, bei dem eine Kombination aus Verarbeitungsdefiziten (namentlich langsame Syntax und intermittierende Schwierigkeiten) Verständnisschwierigkeiten bei PmA verursacht. KW - aphasia KW - cognitive modeling KW - sentence processing KW - cue-based retrieval KW - Aphasie KW - kognitive Modellierung KW - cue-based retrieval KW - Satzverständnisses Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555487 ER - TY - GEN A1 - Bouamra, Marwa A1 - Zouhal, Hassane A1 - Ratel, Sébastien A1 - Makhlouf, Issam A1 - Bezrati, Ikram A1 - Chtara, Moktar A1 - Behm, David George A1 - Granacher, Urs A1 - Chaouachi, Anis T1 - Concurrent Training Promotes Greater Gains on Body Composition and Components of Physical Fitness Than Single-Mode Training (Endurance or Resistance) in Youth With Obesity T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - The prevalence of obesity in the pediatric population has become a major public health issue. Indeed, the dramatic increase of this epidemic causes multiple and harmful consequences, Physical activity, particularly physical exercise, remains to be the cornerstone of interventions against childhood obesity. Given the conflicting findings with reference to the relevant literature addressing the effects of exercise on adiposity and physical fitness outcomes in obese children and adolescents, the effect of duration-matched concurrent training (CT) [50% resistance (RT) and 50% high-intensity-interval-training (HIIT)] on body composition and physical fitness in obese youth remains to be elucidated. Thus, the purpose of this study was to examine the effects of 9-weeks of CT compared to RT or HIIT alone, on body composition and selected physical fitness components in healthy sedentary obese youth. Out of 73 participants, only 37; [14 males and 23 females; age 13.4 ± 0.9 years; body-mass-index (BMI): 31.2 ± 4.8 kg·m-2] were eligible and randomized into three groups: HIIT (n = 12): 3-4 sets×12 runs at 80–110% peak velocity, with 10-s passive recovery between bouts; RT (n = 12): 6 exercises; 3–4 sets × 10 repetition maximum (RM) and CT (n = 13): 50% serial completion of RT and HIIT. CT promoted significant greater gains compared to HIIT and RT on body composition (p < 0.01, d = large), 6-min-walking test distance (6 MWT-distance) and on 6 MWT-VO2max (p < 0.03, d = large). In addition, CT showed substantially greater improvements than HIIT in the medicine ball throw test (20.2 vs. 13.6%, p < 0.04, d = large). On the other hand, RT exhibited significantly greater gains in relative hand grip strength (p < 0.03, d = large) and CMJ (p < 0.01, d = large) than HIIT and CT. CT promoted greater benefits for fat, body mass loss and cardiorespiratory fitness than HIIT or RT modalities. This study provides important information for practitioners and therapists on the application of effective exercise regimes with obese youth to induce significant and beneficial body composition changes. The applied CT program and the respective programming parameters in terms of exercise intensity and volume can be used by practitioners as an effective exercise treatment to fight the pandemic overweight and obesity in youth. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 791 KW - weight loss KW - adolescents KW - high-intensity-interval training KW - resistance training KW - DXA KW - matched time Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-563974 SN - 1866-8364 SP - 1 EP - 16 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Richter, Maximilian Jacob Enzo Amandus T1 - Continental rift dynamics across the scales T1 - Dynamiken kontinentaler Grabenbrüche über die Skalen BT - numerical modelling of localisation processes BT - numerische Modellierung von Lokalisations-Prozessen N2 - Localisation of deformation is a ubiquitous feature in continental rift dynamics and observed across drastically different time and length scales. This thesis comprises one experimental and two numerical modelling studies investigating strain localisation in (1) a ductile shear zone induced by a material heterogeneity and (2) in an active continental rift setting. The studies are related by the fact that the weakening mechanisms on the crystallographic and grain size scale enable bulk rock weakening, which fundamentally enables the formation of shear zones, continental rifts and hence plate tectonics. Aiming to investigate the controlling mechanisms on initiation and evolution of a shear zone, the torsion experiments of the experimental study were conducted in a Patterson type apparatus with strong Carrara marble cylinders with a weak, planar Solnhofen limestone inclusion. Using state-of-the-art numerical modelling software, the torsion experiments were simulated to answer questions regarding localisation procedure like stress distribution or the impact of rheological weakening. 2D numerical models were also employed to integrate geophysical and geological data to explain characteristic tectonic evolution of the Southern and Central Kenya Rift. Key elements of the numerical tools are a randomized initial strain distribution and the usage of strain softening. During the torsion experiments, deformation begins to localise at the limestone inclusion tips in a process zone, which propagates into the marble matrix with increasing deformation until a ductile shear zone is established. Minor indicators for coexisting brittle deformation are found close to the inclusion tip and presumed to slightly facilitate strain localisation besides the dominant ductile deformation processes. The 2D numerical model of the torsion experiment successfully predicts local stress concentration and strain rate amplification ahead of the inclusion in first order agreement with the experimental results. A simple linear parametrization of strain weaking enables high accuracy reproduction of phenomenological aspects of the observed weakening. The torsion experiments suggest that loading conditions do not affect strain localisation during high temperature deformation of multiphase material with high viscosity contrasts. A numerical simulation can provide a way of analysing the process zone evolution virtually and extend the examinable frame. Furthermore, the nested structure and anastomosing shape of an ultramylonite band was mimicked with an additional second softening step. Rheological weakening is necessary to establish a shear zone in a strong matrix around a weak inclusion and for ultramylonite formation. Such strain weakening laws are also incorporated into the numerical models of the Southern and Central Kenya Rift that capture the characteristic tectonic evolution. A three-stage early rift evolution is suggested that starts with (1) the accommodation of strain by a single border fault and flexure of the hanging-wall crust, after which (2) faulting in the hanging-wall and the basin centre increases before (3) the early-stage asymmetry is lost and basinward localisation of deformation occurs. Along-strike variability of rifts can be produced by modifying the initial random noise distribution. In summary, the three studies address selected aspects of the broad range of mechanisms and processes that fundamentally enable the deformation of rock and govern the localisation patterns across the scales. In addition to the aforementioned results, the first and second manuscripts combined, demonstrate a procedure to find new or improve on existing numerical formulations for specific rheologies and their dynamic weakening. These formulations are essential in addressing rock deformation from the grain to the global scale. As within the third study of this thesis, where geodynamic controls on the evolution of a rift were examined and acquired by the integration of geological and geophysical data into a numerical model. N2 - Die Lokalisierung von Deformation ist ein allgegenwärtiges Merkmal in der Dynamik von Grabenbrüchen bzw. Riftzonen und wird über verschiedene Zeit- und Längenskalen beobachtet. Diese Arbeit umfasst eine experimentelle und zwei numerische Studien zur Untersuchung der Lokalisierung von Deformation in (1) einer durch eine Materialheterogenität induzierten duktilen Scherzone und (2) in einem aktiven Kontinentalgraben. Die Studien verbindet, dass die Schwächungsmechanismen auf der kristallographischen Skala und der Korngrößenskala eine Enthärtung eines Gesteinkörpers ermöglicht, was im Wesentlichen die Bildung von Scherzonen, Grabenbrüchen und damit Plattentektonik ermöglicht. Um die Kontrollmechanismen für die Initiierung und Entwicklung einer Scherzone zu untersuchen, wurden die Torsionsexperimente der experimentellen Studie in einem Patterson-Gerät an starken Carrara-Marmorzylinder mit einer schwachen, planaren Solnhofen-Kalksteineinschluss durchgeführt. Mit modernster numerischer Modellierungssoftware wurden die Torsionsexperimente simuliert, um weitere Fragen zum Lokalisierungsablauf wie die Verteilung der Spannung oder den Einfluss rheologischer Schwächung zu beantworten. Numerische 2D-Modelle wurden auch verwendet, um geophysikalische und geologische Daten zu kombinieren, um die charakteristische tektonische Entwicklung des südlichen und zentralen Kenia-Rifts zu erklären. Schlüsselelemente der verwendeten numerischen Werkzeuge sind eine randomisierte Anfangsverteilung des Strain und der Einsatz von Strain basierter Enthärtung. Während der Torsionsversuche lokalisiert die Deformation zunächst an den Kalksteineinschlussspitzen in einer Prozesszone, die sich mit zunehmender Deformation in die Marmormatrix ausbreitet bis sich eine duktile Scherzone einstellt. Neben den dominierenden duktilen Verformungsprozessen werden geringfügige Indikatoren für eine koexistierende spröde Verformung nahe der Einschlussspitzen gefunden und es wird angenommen, dass diese die Lokalisierung der Deformation geringfügig erleichtern. In erster Ordnung sagt das numerische 2D-Modell des Torsionsexperiments erfolgreich lokale Spannungskonzentration und Strainratenverstärkung vor der Inklusion in Übereinstimmung mit den experimentellen Ergebnissen vorher. Eine einfache lineare Parametrisierung der Enthärtung durch Strain ermöglicht eine genaue Reproduktion phänomenologischer Aspekte der beobachteten Schwächung. Die Torsionsexperimente legen nahe, dass die Randbedingungen die Lokalisierung des Strain während der Hochtemperaturverformung von Mehrphasenmaterial mit hohen Viskositätskontrasten nicht beeinflussen. Die numerische Simulation ermöglicht es, die Entwicklung der Prozesszone virtuell zu analysieren und den Untersuchungsrahmen zu erweitern. Darüber hinaus wurde die verschachtelte Struktur und anastomosierende Form eines Ultramylonitbandes mit einem zusätzlichen zweiten Enthärtungsschritt nachgeahmt. Die rheologische Schwächung ist notwendig, um eine Scherzone in einer starken Matrix um einen schwachen Einschluss herum und für die Ultramylonitbildung zu etablieren. Solche Schwächungsgesetze, die auf Strain basieren, fließen auch in die numerischen Modelle des südlichen und zentralen Kenia-Rifts ein, die die charakteristische tektonische Entwicklung erfassen. Es wird eine dreistufige frühe Riftentwicklung vorgeschlagen, die mit (1) der Anpassung von Spannungen durch eine einzelne Grenzstörung und Biegung der hangenden Kruste beginnt, wonach (2) die Verwerfung im Hangenden und im Beckenzentrum zunimmt, bevor (3) die Asymmetrie des Frühstadiums verloren geht und es zu einer beckenseitigen Deformationslokalisierung kommt. Die Variabilität von Rissen entlang des Rifts kann durch Modifizieren der anfänglichen zufälligen Rauschverteilung erzeugt werden. Zusammenfassend befassen sich die drei Studien mit ausgewählten Aspekten der breiten Palette von Mechanismen und Prozessen, die die Deformation von Gestein grundlegend ermöglichen und die Lokalisierungsmuster über die Skalen bestimmen. Zusätzlich zu den oben genannten Ergebnissen demonstrieren das erste und zweite Manuskript in Kombination ein Verfahren, um neue oder bestehende numerische Formulierungen für spezifische Rheologien und deren dynamische Schwächung zu finden oder zu verbessern. Diese Formulierungen sind essenziell, um Gesteinsverformung von der Korngrößen bis zur globalen Skala zu untersuchen. Wie in der dritten Studie dieser Dissertation, in der geodynamische Kontrollen auf die Entwicklung eines Grabenbruchs durch die Integration geologischer und geophysikalischer Daten in ein numerisches Modell untersucht und erfasst wurden. KW - Strain Localisation KW - Continental Rifts KW - Torsion Experiments KW - Geodynamic Modelling KW - 2D Numerical Modelling KW - Lokalisierung von Deformation KW - Grabenbrüche KW - Geodynamische Modellierung KW - Torsionsexperimente KW - Numerische 2D Modellierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-550606 ER - TY - THES A1 - Heuberger, Moritz T1 - Coordinating digital government T1 - Die Koordination der digitalen Verwaltung BT - explaining coordination challenges regarding the digital transformation of public administration in a federal context BT - Erläuterung der Koordinationsherausforderungen bei der digitalen Transformation der öffentlichen Verwaltung im föderalen Kontext N2 - This thesis is analyzing multiple coordination challenges which arise with the digital transformation of public administration in federal systems, illustrated by four case studies in Germany. I make various observations within a multi-level system and provide an in-depth analysis. Theoretical explanations from both federalism research and neo-institutionalism are utilized to explain the findings of the empirical driven work. The four articles evince a holistic picture of the German case and elucidate its role as a digital government laggard. Their foci range from macro, over meso to micro level of public administration, differentiating between the governance and the tool dimension of digital government. The first article shows how multi-level negotiations lead to expensive but eventually satisfying solutions for the involved actors, creating a subtle balance between centralization and decentralization. The second article identifies legal, technical, and organizational barriers for cross-organizational service provision, highlighting the importance of inter-organizational and inter-disciplinary exchange and both a common language and trust. Institutional change and its effects on the micro level, on citizens and the employees in local one-stop shops, mark the focus of the third article, bridging the gap between reforms and the administrative reality on the local level. The fourth article looks at the citizens’ perspective on digital government reforms, their expectations, use and satisfaction. In this vein, this thesis provides a detailed account of the importance of understanding the digital divide and therefore the necessity of reaching out to different recipients of digital government reforms. I draw conclusions from the factors identified as causes for Germany’s shortcomings for other federal systems where feasible and derive reform potential therefrom. This allows to gain a new perspective on digital government and its coordination challenges in federal contexts. N2 - Die vorliegende Arbeit analysiert die vielfältigen Koordinationsherausforderungen, vor welchen die öffentliche Verwaltung im Zuge der digitalen Transformation steht. Dabei werden im Speziellen Herausforderungen in föderalen Systemen anhand von vier Fallstudien in Deutschland betrachtet. Theoretische Erklärungen, sowohl aus der Föderalismusforschung als auch aus dem Neo-Institutionalismus, werden herangezogen, um die Ergebnisse der empirisch getriebenen Arbeit zu erklären. Die vier Artikel zeichnen ein umfassendes Bild des deutschen Falls und beleuchten Gründe für Deutschlands Nachholbedarf im Bereich der digitalen Verwaltung. Die Schwerpunkte der Untersuchungen sind dabei verteilt: Von Makro- über die Meso- bis zur Mikroebene der öffentlichen Verwaltung, wobei zwischen der Governance- und der instrumentellen Dimension von digitaler Verwaltung unterschieden wird. Der erste Artikel zeigt, wie Verhandlungen im Mehrebenensystem zu kostspieligen, aber letztendlich zufriedenstellenden Lösungen für die beteiligten Akteure führen und ein subtiles Gleichgewicht zwischen Zentralisierung und Dezentralisierung geschaffen wird. Im zweiten Artikel werden rechtliche, technische und organisatorische Hindernisse für die organisationsübergreifende Erbringung von Dienstleistungen diskutiert und die Bedeutung des interorganisatorischen und interdisziplinären Austauschs betont. Vor allem wird dabei die Notwendigkeit eines gemeinsamen Verständnisses und von gegenseitigem Vertrauen herausgearbeitet. Der institutionelle Wandel und seine Auswirkungen auf die Mikroebene, auf die Bürger*innen und die Mitarbeitenden in Bürgerämtern, stehen im Mittelpunkt des dritten Artikels, der die Kluft zwischen den Reformen und der Verwaltungsrealität auf kommunaler Ebene aufzeigt. Der vierte Artikel befasst sich mit der Sicht der Bürger*innen auf die digitalen Reformen der öffentlichen Verwaltung, ihren Erwartungen, ihrer Nutzung und ihrer Zufriedenheit. Im Zuge dessen wird in dieser Arbeit ausführlich dargelegt, wie wichtig das Bewusstsein für den Digital Divide ist, um die verschiedenen Adressat*innen von digitalen Verwaltungsreformen zu erreichen. Die identifizierten Faktoren für die Defizite in Deutschland lassen sich bis zu einem gewissen Grad auf andere föderale Systeme generalisieren und aus den Ergebnissen können Reformpotenziale abgeleitet werden - was eine neue Perspektive auf die Debatte rund um die digitale Verwaltung und die damit zusammenhängenden Herausforderungen für die Koordination in föderalen Kontexten ermöglicht. KW - digital government KW - e-government KW - federalism KW - institutional reform KW - multi-level governance KW - public management KW - e-services KW - digitale Verwaltung KW - e-government KW - e-services KW - Föderalismus KW - institutional reform KW - Mehrebenen-System KW - Public Management Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562691 ER - TY - THES A1 - Bastian, Philipp U. T1 - Core-shell upconversion nanoparticles - investigation of dopant intermixing and surface modification T1 - Kern-Schale Aufkonvertierende Nanopartikel — eine Untersuchung der Dotandenvermischung und Oberflächenmodifikation N2 - Frequency upconversion nanoparticles (UCNPs) are inorganic nanocrystals capable to up-convert incident photons of the near-infrared electromagnetic spectrum (NIR) into higher energy photons. These photons are re-emitted in the range of the visible (Vis) and even ultraviolet (UV) light. The frequency upconversion process (UC) is realized with nanocrystals doped with trivalent lanthanoid ions (Ln(III)). The Ln(III) ions provide the electronic (excited) states forming a ladder-like electronic structure for the Ln(III) electrons in the nanocrystals. The absorption of at least two low energy photons by the nanoparticle and the subsequent energy transfer to one Ln(III) ion leads to the promotion of one Ln(III) electron into higher excited electronic states. One high energy photon will be emitted during the radiative relaxation of the electron in the excited state back into the electronic ground state of the Ln(III) ion. The excited state electron is the result of the previous absorption of at least two low energy photons. The UC process is very interesting in the biological/medical context. Biological samples (like organic tissue, blood, urine, and stool) absorb high-energy photons (UV and blue light) more strongly than low-energy photons (red and NIR light). Thanks to a naturally occurring optical window, NIR light can penetrate deeper than UV light into biological samples. Hence, UCNPs in bio-samples can be excited by NIR light. This possibility opens a pathway for in vitro as well as in vivo applications, like optical imaging by cell labeling or staining of specific organic tissue. Furthermore, early detection and diagnosis of diseases by predictive and diagnostic biomarkers can be realized with bio-recognition elements being labeled to the UCNPs. Additionally, "theranostic" becomes possible, in which the identification and the treatment of a disease are tackled simultaneously. For this to succeed, certain parameters for the UCNPs must be met: high upconversion efficiency, high photoluminescence quantum yield, dispersibility, and dispersion stability in aqueous media, as well as availability of functional groups to introduce fast and easy bio-recognition elements. The UCNPs used in this work were prepared with a solvothermal decomposition synthesis yielding in particles with NaYF4 or NaGdF4 as host lattice. They have been doped with the Ln(III) ions Yb3+ and Er3+, which is only one possible upconversion pair. Their upconversion efficiency and photoluminescence quantum yield were improved by adding a passivating shell to reduce surface quenching. However, the brightness of core-shell UCNPs stays behind the expectations compared to their bulk material (being at least μm-sized particles). The core-shell structures are not clearly separated from each other, which is a topic in literature. Instead, there is a transition layer between the core and the shell structure, which relates to the migration of the dopants within the host lattice during the synthesis. The ion migration has been examined by time-resolved laser spectroscopy and the interlanthanoid resonance energy transfer (LRET) in the two different host lattices from above. The results are presented in two publications, which dealt with core-shell-shell structured nanoparticles. The core is doped with the LRET-acceptor (either Nd3+ or Pr3+). The intermediate shell serves as an insulation shell of pure host lattice material, whose shell thickness has been varied within one set of samples having the same composition, so that the spatial separation of LRET-acceptor and -donor changes. The outer shell with the same host lattice is doped with the LRET-donor (Eu3+). The effect of the increasing insulation shell thickness is significant, although the LRET cannot be suppressed completely. Next to the Ln(III) migration within a host lattice, various phase transfer reactions were investigated in order to subsequently perform surface modifications for bioapplications. One result out of this research has been published using a promising ligand, that equips the UCNP with bio-modifiable groups and has good potential for bio-medical applications. This particular ligand mimics natural occurring mechanisms of mussel protein adhesion and of blood coagulation, which is why the UCNPs are encapsulated very effectively. At the same time, bio-functional groups are introduced. In a proof-of-concept, the encapsulated UCNP has been coupled successfully with a dye (which is representative for a biomarker) and the system’s photoluminescence properties have been investigated. N2 - Frequenzaufkonvertierende Nanopartikel (UCNP) sind anorganische Nanokristalle. Sie können einfallende Photonen des nah-infraroten elektromagnetischen Spektrums (NIR) in höher energetische Photonen im Bereich des sichtbaren Lichtes und sogar des ultravioletten Lichtes (UV) umwandeln und wieder emittieren. Dieser Frequenzaufkonversionsprozess (UC) basiert auf Nanokristallen, die mit dreiwertigen Lanthanoid-Ionen (Ln(III)) dotiert sind. Die elektronisch angeregten Zustände der Ln(III)-Ionen stehen zur Verfügung, mit deren Hilfe Elektronen über eine leiterartige elektronische Struktur der elektronischen Zustände der Ln(III)-Ionen in höher angeregte Zustände gelangen können. Zuvor müssen mindestens zwei niederenergetische Photonen vom Nanopartikel absorbiert werden. Die absorbierte Energie muss über einen oder mehrere Energieübertragungen das gleiche Ln(III)-Ion erreichen um beim strahlenden Relaxieren des Elektrones im angeregten Zustand zurück in den elektronischen Grundzustand des Ln(III)-Ions ein höherenergetisches Photon zu emittieren. Der Frequenzaufkonversionsprozess ist sehr interessant für die Anwendung im biologisch/medizinischen Bereich. Biologische Proben (z.B. organisches Gewebe, Blut, Urin und Stuhl) absorbieren höherenergetische Photonen (UV) stärker als niederenergetische Photonen (NIR). Dank eines natürlich vorkommenden optischen Fensters in biologischen Proben kann NIR-Licht tiefer als UV-Licht eindringen, sodass die UCNPs in biologischen Proben mit NIR-Licht angeregt werden können. Dies ermöglicht in vitro als auch in vivo Anwendungen, z.B. für die optische Bildgebung durch Markieren von Zellen oder durch Einfärben von bestimmten Bereichen organischer Gewebe. Frühzeitige Erkennung von Krankheiten kann durch prädiktive und diagnostisch geeignete Biomarker, die mit Erkennungselementen an den UCNPs detektiert werden, realisiert werden. Demnach ist „Theranostic“ ein mögliches Szenario, das die Identifikation und die gleichzeitige Behandlung einer Krankheit ermöglichen könnte. Um diese Vision zu realisieren, müssen die UCNPs bestimmte Parameter erfüllen: Eine hohe Aufkonversionseffizienz, eine hohe Photolumineszenzquantenausbeute, eine gute Dispergierbarkeit und Stabilität der Dispersion in wässrigen Medien, sowie die Verfügbarkeit von funktionellen Gruppen, um schnell und einfach biologische Erkennungselemente daran zu koppeln. Die UCNPs dieser Arbeit wurden mit Hilfe einer solvothermalen Zersetzungsreaktion durchgeführt. Die Nanopartikel bestanden aus unterschiedlichen Wirtsgittern, entweder aus NaYF4 oder NaGdF4. Die Wirtsgitter wurden mit den Ln(III)-Ionen Yb3+ und Er3+ dotiert. Die Aufkonversionseffizienz, somit auch deren Quantenausbeute, konnte mit einer passivierenden Schale verbessert werden. Dennoch leuchten die Kern-Schale-UCNPs schlechter als es im Vergleich mit μm-großen Partikeln zu erwarten wäre. Die Kern-Schale-Strukturen gehen ineinander über und sind nicht klar voneinander getrennt. Zwischen dem Kern und der Schale existiert eine Übergangsregion, die mit der Wanderung der Ionen des Wirtsgitters und den dotierten Ln(III)-Ionen einhergeht. Diese Beobachtung wird auch in der Literatur diskutiert. Die Ionenwanderung wurde mit Hilfe von zeitaufgelöster Laserspektroskopie und dem Interlanthanoidenergietransfer (LRET) in den beiden erwähnten Wirtsgittern untersucht. Die Ergebnisse sind in zwei Publikationen veröffentlicht, die auf Kern-Schale-Schale-Strukturen basieren. Der Kern ist mit dem LRET-Akzeptor dotiert (Nd3+ oder Pr3+). Die Zwischenschale besteht aus dem gleichen Wirtsgitter ohne Dotierstoffe und dient als Isolationsschale, deren Schalendicke innerhalb einer Experimentierreihe variiert wurde, um eine räumliche Trennung von LRET-Akzeptor und -Donor zu schaffen. Die äußere Schale, aus dem gleichen Wirtsgitter, ist mit dem LRET-donor (Eu3+) dotiert. Der Effekt der wachsenden Isolationsschalendicke ist signifikant. Aber es ist nicht möglich gewesen, den Energietransfer vom Donor auf den Akzeptor komplett zu unterbinden. Neben der Untersuchung der Wanderung von Ln(III)-Ionen in einem Wirtsgitter wurden verschiedene Phasentransferreaktionen durchgeführt, um anschließende Oberflächenmodifikationen anzuwenden, damit die Anwendungen der UCNPs im biologischen Kontext prinzipiell demonstriert werden kann. Ein Ergebnis mit einem sehr vielversprechenden Liganden für die bio-medizinische Anwendung wurde in einer Publikation veröffentlicht. Dieser Ligand imitiert natürliche Mechanismen von Muschelproteinen und von Blutkoagulation, sodass die untersuchten Nanopartikel sehr effektiv eingekapselt werden. Gleichzeitig sind funktionelle Gruppen zur Bio-Funktionalisierung vorhanden. In einer Machbarkeitsstudie wurde der eingekapselte UCNP erfolgreich mit einem Farbstoff (der durch einen Biomarker ersetzt werden kann) gekoppelt und die Photolumineszenzeigenschaften des Systems untersucht. KW - upconversion KW - Aufkonversion KW - Nanopartikel KW - nanoparticle KW - bio-modification KW - Biomodification KW - Ionenmigration KW - ion migration KW - surface modification KW - Oberflächenmodifizierung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-551607 ER - TY - THES A1 - Mauerberger, Stefan T1 - Correlation based Bayesian modeling T1 - Korrelationsbasierte Bayesianische Modellierung BT - with applications in travel time tomography, seismic source inversion and magnetic field modeling BT - mit Anwendungen in der Laufzeittomographie, Seismischer Quellinversion und Magnetfeldmodellierung N2 - The motivation for this work was the question of reliability and robustness of seismic tomography. The problem is that many earth models exist which can describe the underlying ground motion records equally well. Most algorithms for reconstructing earth models provide a solution, but rarely quantify their variability. If there is no way to verify the imaged structures, an interpretation is hardly reliable. The initial idea was to explore the space of equivalent earth models using Bayesian inference. However, it quickly became apparent that the rigorous quantification of tomographic uncertainties could not be accomplished within the scope of a dissertation. In order to maintain the fundamental concept of statistical inference, less complex problems from the geosciences are treated instead. This dissertation aims to anchor Bayesian inference more deeply in the geosciences and to transfer knowledge from applied mathematics. The underlying idea is to use well-known methods and techniques from statistics to quantify the uncertainties of inverse problems in the geosciences. This work is divided into three parts: Part I introduces the necessary mathematics and should be understood as a kind of toolbox. With a physical application in mind, this section provides a compact summary of all methods and techniques used. The introduction of Bayesian inference makes the beginning. Then, as a special case, the focus is on regression with Gaussian processes under linear transformations. The chapters on the derivation of covariance functions and the approximation of non-linearities are discussed in more detail. Part II presents two proof of concept studies in the field of seismology. The aim is to present the conceptual application of the introduced methods and techniques with moderate complexity. The example about traveltime tomography applies the approximation of non-linear relationships. The derivation of a covariance function using the wave equation is shown in the example of a damped vibrating string. With these two synthetic applications, a consistent concept for the quantification of modeling uncertainties has been developed. Part III presents the reconstruction of the Earth's archeomagnetic field. This application uses the whole toolbox presented in Part I and is correspondingly complex. The modeling of the past 1000 years is based on real data and reliably quantifies the spatial modeling uncertainties. The statistical model presented is widely used and is under active development. The three applications mentioned are intentionally kept flexible to allow transferability to similar problems. The entire work focuses on the non-uniqueness of inverse problems in the geosciences. It is intended to be of relevance to those interested in the concepts of Bayesian inference. N2 - Die Motivation für diese Arbeit war die Frage nach Verlässlichkeit und Belastbarkeit der seismischen Tomographie. Das Problem besteht darin, dass sehr viele Erdmodelle existieren welche die zugrundeliegenden seismischen Aufzeichnungen gleich gut beschreiben können. Die meisten Algorithmen zur Rekonstruktion von Erdmodellen liefern zwar eine Lösung, quantifizierten jedoch kaum deren Variabilität. Wenn es keine Möglichkeit gibt die abgebildeten Strukturen zu verifizieren, so ist eine Interpretation kaum verlässlich. Der ursprüngliche Gedanke war den Raum äquivalenter Erdmodelle mithilfe Bayesianische Inferenz zu erkunden. Es stellte sich jedoch schnell heraus, dass die vollständige Quantifizierung tomographischer Unsicherheiten im Rahmen einer Promotion nicht zu bewältigen ist. Um das wesentliche Konzept der statistischen Inferenz beizubehalten werden stattdessen weniger komplexe Problemstellungen aus den Geowissenschaften behandelt. Diese Dissertation hat das Ziel die Bayesianische Inferenz tiefer in den Geowissenschaften zu verankern und Wissen aus der angewandten Mathematik zu transferieren. Die zugrundeliegende Idee besteht darin auf bekannte Methoden und Techniken der Statistik zurückzugreifen um die Unsicherheiten inverser Probleme in den Geowissenschaften zu quantifizieren. Diese Arbeit gliedert sich in drei Teile: Teil I führt die notwendige Mathematik ein und soll als eine Art Werkzeugkasten verstanden werden. In Hinblick auf eine physikalische Anwendung bietet dieser Abschnitt eine kompakte Zusammenfassung aller eingesetzter Methoden und Techniken. Den Anfang macht die Einführung der Bayesianische Inferenz. Danach steht als Spezialfall die Regression mit Gauß-Prozessen unter linearen Transformationen im Vordergrund. Die Kapitel zur Herleitung von Kovarianzfunktionen und die Approximation von Nichtlinearitäten gehen etwas weiter in die Tiefe. Teil II präsentiert zwei Konzeptstudien aus dem Bereich der Seismologie. Ziel ist es bei moderater Komplexität die prinzipielle Anwendung der eingeführten Methoden und Techniken zu präsentieren. Das Beispiel zur Laufzeittomographie wendet die Näherungs\-methoden für nichtlineare Zusammenhänge an. Die Herleitung einer Kovarianzfunktion mithilfe der Wellengleichung ist am Beispiel der gedämpften Saitenschwingung gezeigt. Mit diesen beiden synthetischen Anwendungen wurde ein konsistentes Konzept zur Quantifizierung von Modellierungsunsicherheiten erarbeitet. Teil III präsentiert die Rekonstruktion des archeomagnetischen Feldes unserer Erde. Diese Anwendung nutzt den gesamten Werkzeugkasten aus Teil I und ist entsprechend umfangreich. Die Modellierung der vergangenen 1000 Jahre basiert auf echten Daten und quantifiziert zuverlässig die räumlichen Modellierungsunsicherheiten. Das präsentierte statistische Modell findet breite Anwendung und wird aktiv weiter entwickelt. Die drei genannten Anwendungen sind bewusst flexibel gehalten um die Übertragbarkeit auf ähnliche Problemstellungen zu ermöglichen. Die gesamte Arbeit legt den Fokus auf die nicht-Eindeutigkeit inverser Probleme in den Geowissenschaften. Sie will für all Jene von Relevanz sein, die sich für die Konzepte der Bayesianischen Inferenz interessieren. KW - statistical inference KW - Bayesian inversion KW - travel time tomography KW - seismic source inversion KW - magnetic field modeling KW - mit Anwendungen in der Laufzeittomographie, Seismischer Quellinversion und Magnetfeldmodellierung KW - Magnetfeldmodellierung KW - seismische Quellinversion KW - statistische Inferenz KW - Laufzeittomographie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-537827 ER - TY - THES A1 - Schanner, Maximilian Arthus T1 - Correlation based modeling of the archeomagnetic field T1 - Korrelationsbasierte Modellierung des archäomagnetischen Feldes N2 - The geomagnetic main field is vital for live on Earth, as it shields our habitat against the solar wind and cosmic rays. It is generated by the geodynamo in the Earth’s outer core and has a rich dynamic on various timescales. Global models of the field are used to study the interaction of the field and incoming charged particles, but also to infer core dynamics and to feed numerical simulations of the geodynamo. Modern satellite missions, such as the SWARM or the CHAMP mission, support high resolution reconstructions of the global field. From the 19 th century on, a global network of magnetic observatories has been established. It is growing ever since and global models can be constructed from the data it provides. Geomagnetic field models that extend further back in time rely on indirect observations of the field, i.e. thermoremanent records such as burnt clay or volcanic rocks and sediment records from lakes and seas. These indirect records come with (partially very large) uncertainties, introduced by the complex measurement methods and the dating procedure. Focusing on thermoremanent records only, the aim of this thesis is the development of a new modeling strategy for the global geomagnetic field during the Holocene, which takes the uncertainties into account and produces realistic estimates of the reliability of the model. This aim is approached by first considering snapshot models, in order to address the irregular spatial distribution of the records and the non-linear relation of the indirect observations to the field itself. In a Bayesian setting, a modeling algorithm based on Gaussian process regression is developed and applied to binned data. The modeling algorithm is then extended to the temporal domain and expanded to incorporate dating uncertainties. Finally, the algorithm is sequentialized to deal with numerical challenges arising from the size of the Holocene dataset. The central result of this thesis, including all of the aspects mentioned, is a new global geomagnetic field model. It covers the whole Holocene, back until 12000 BCE, and we call it ArchKalmag14k. When considering the uncertainties that are produced together with the model, it is evident that before 6000 BCE the thermoremanent database is not sufficient to support global models. For times more recent, ArchKalmag14k can be used to analyze features of the field under consideration of posterior uncertainties. The algorithm for generating ArchKalmag14k can be applied to different datasets and is provided to the community as an open source python package. N2 - Das geomagnetische Hauptfeld ist essenziell für das Leben auf der Erde, da es unseren Lebensraum gegen den Sonnenwind und kosmische Strahlung abschirmt. Es wird vom Geodynamo im Erdkern erzeugt und zeigt eine komplexe Dynamik auf unterschiedlichen Zeitskalen. Globale Modelle des Magnetfelds werden zur Studie der Wechselwirkung von einströmenden geladenen Teilchen genutzt, aber auch um Kerndynamiken zu untersuchen und um sie in numerische Simulationen des Geodynamos einzuspeisen. Moderne Satellitenmissionen, wie SWARM und CHAMP, stützen hochauflösende Rekonstruktionen des globalen Felds. Seit dem 19. Jahrhundert wird ein globales Netzwerk von magnetischen Observatorien aufgebaut. Es wächst stetig und globale Modelle können aus den Daten, die es liefert, konstruiert werden. Geomagnetische Feldmodelle, die weiter in der Zeit zurückreichen, basieren auf indirekten Beobachtungen des Felds, d.h. auf thermoremanenten Daten, wie gebrannten Tonen oder vulkanischen Gesteinen, und auf Sedimentdaten aus Seen und Meeren. Diese indirekten Beobachtungen werden mit (teilweise sehr hohen) Unsicherheiten geliefert, die aus den komplexen Datierungs- und Messmethoden resultieren. Ziel dieser Arbeit ist die Entwicklung einer neuen Modellierungsmethode für das globale geomagnetische Feld während des Holozäns, welche die Unsicherheiten berücksichtigt und realistische Schätzungen für die Verlässlichkeit des Modells liefert. Dabei werden lediglich thermoremanente Daten betrachtet. Diesem Ziel wird sich zunächst genähert, indem ein Schnappschuss-Modell konstruiert wird, um die unregelmäßige räumliche Verteilung der Daten und die nichtlineare Beziehung zwischen Daten und Magnetfeld zu untersuchen. In einem Bayesianischen Rahmen wird ein auf Gaussprozessen basierender Algorithmus entwickelt und zunächst auf diskretisierte Daten angewendet. Dieser Algorithmus wird dann um eine zeitabhängige Komponente ergänzt und erweitert, um Datierungsfehler zu berücksichtigen. Zuletzt wird der Algorithmus sequenzialisiert, um mit numerischen Herausforderungen umzugehen, die aufgrund der Größe des Holozän-Datensatzes bestehen. Das zentrale Ergebnis dieser Arbeit, welches alle genannten Aspekte beinhaltet, ist ein neues globales geomagnetisches Feldmodell. Es deckt das gesamte Holozän ab, bis ins Jahr 12000 BCE, und wir nennen es ArchKalmag14k. Bei Betrachtung der Unsicherheiten, die gemeinsam mit dem Modell ermittelt werden, wird deutlich, dass die thermoremanente Datenbasis nicht ausreicht, um globale Modelle vor dem Jahr 6000 BCE zu stützen. Für jüngere Zeiträume kann ArchKalmag14k genutzt werden, um Merkmale des Erdmagnetfelds unter Berücksichtigung der a posteriori Unsicherheiten zu analysieren. Der Algorithmus, mit dem ArchKalmag14k erzeugt wurde, kann auf weitere Datensätze angewendet werden und wird als quelloffenes python-Paket zur Verfügung gestellt. KW - geomagnetism KW - applied mathematics KW - Gaussian processes KW - Kalman filter KW - Gauß-Prozesse KW - Kalman Filter KW - angewandte Mathematik KW - Geomagnetismus Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-555875 ER - TY - THES A1 - Schemenz, Victoria T1 - Correlations between osteocyte lacuno-canalicular network and material characteristics in bone adaptation and regeneration T1 - Korrelationen zwischen dem lakuno-kanalikulären Netzwerk der Osteozyten und Materialeigenschaften bei der Knochenanpassung und -regeneration N2 - The complex hierarchical structure of bone undergoes a lifelong remodeling process, where it adapts to mechanical needs. Hereby, bone resorption by osteoclasts and bone formation by osteoblasts have to be balanced to sustain a healthy and stable organ. Osteocytes orchestrate this interplay by sensing mechanical strains and translating them into biochemical signals. The osteocytes are located in lacunae and are connected to one another and other bone cells via cell processes through small channels, the canaliculi. Lacunae and canaliculi form a network (LCN) of extracellular spaces that is able to transport ions and enables cell-to-cell communication. Osteocytes might also contribute to mineral homeostasis by direct interactions with the surrounding matrix. If the LCN is acting as a transport system, this should be reflected in the mineralization pattern. The central hypothesis of this thesis is that osteocytes are actively changing their material environment. Characterization methods of material science are used to achieve the aim of detecting traces of this interaction between osteocytes and the extracellular matrix. First, healthy murine bones were characterized. The properties analyzed were then compared with three murine model systems: 1) a loading model, where a bone of the mouse was loaded during its life time; 2) a healing model, where a bone of the mouse was cut to induce a healing response; and 3) a disease model, where the Fbn1 gene is dysfunctional causing defects in the formation of the extracellular tissue. The measurement strategy included routines that make it possible to analyze the organization of the LCN and the material components (i.e., the organic collagen matrix and the mineral particles) in the same bone volumes and compare the spatial distribution of different data sets. The three-dimensional network architecture of the LCN is visualized by confocal laser scanning microscopy (CLSM) after rhodamine staining and is then subsequently quantified. The calcium content is determined via quantitative backscattered electron imaging (qBEI), while small- and wide-angle X-ray scattering (SAXS and WAXS) are employed to determine the thickness and length of local mineral particles. First, tibiae cortices of healthy mice were characterized to investigate how changes in LCN architecture can be attributed to interactions of osteocytes with the surrounding bone matrix. The tibial mid-shaft cross-sections showed two main regions, consisting of a band with unordered LCN surrounded by a region with ordered LCN. The unordered region is a remnant of early bone formation and exhibited short and thin mineral particles. The surrounding, more aligned bone showed ordered and dense LCN as well as thicker and longer mineral particles. The calcium content was unchanged between the two regions. In the mouse loading model, the left tibia underwent two weeks of mechanical stimulation, which results in increased bone formation and decreased resorption in skeletally mature mice. Here the specific research question addressed was how do bone material characteristics change at (re)modeling sites? The new bone formed in response to mechanical stimulation showed similar properties in terms of the mineral particles, like the ordered calcium region but lower calcium content compared to the right, non-loaded control bone of the same mice. There was a clear, recognizable border between mature and newly formed bone. Nevertheless, some canaliculi went through this border connecting the LCN of mature and newly formed bone. Additionally, the question should be answered whether the LCN topology and the bone matrix material properties adapt to loading. Although, mechanically stimulated bones did not show differences in calcium content compared to controls, different correlations were found between the local LCN density and the local Ca content depending on whether the bone was loaded or not. These results suggest that the LCN may serve as a mineral reservoir. For the healing model, the femurs of mice underwent an osteotomy, stabilized with an external fixator and were allowed to heal for 21 days. Thus, the spatial variations in the LCN topology with mineral properties within different tissue types and their interfaces, namely calcified cartilage, bony callus and cortex, could be simultaneously visualized and compared in this model. All tissue types showed structural differences across multiple length scales. Calcium content increased and became more homogeneous from calcified cartilage to bony callus to lamellar cortical bone. The degree of LCN organization increased as well, while the lacunae became smaller, as did the lacunar density between these different tissue types that make up the callus. In the calcified cartilage, the mineral particles were short and thin. The newly formed callus exhibited thicker mineral particles, which still had a low degree of orientation. While most of the callus had a woven-like structure, it also served as a scaffold for more lamellar tissue at the edges. The lamelar bone callus showed thinner mineral particles, but a higher degree of alignment in both, mineral particles and the LCN. The cortex showed the highest values for mineral length, thickness and degree of orientation. At the same time, the lacunae number density was 34% lower and the lacunar volume 40% smaller compared to bony callus. The transition zone between cortical and callus regions showed a continuous convergence of bone mineral properties and lacunae shape. Although only a few canaliculi connected callus and the cortical region, this indicates that communication between osteocytes of both tissues should be possible. The presented correlations between LCN architecture and mineral properties across tissue types may suggest that osteocytes have an active role in mineralization processes of healing. A mouse model for the disease marfan syndrome, which includes a genetic defect in the fibrillin-1 gene, was investigated. In humans, Marfan syndrome is characterized by a range of clinical symptoms such as long bone overgrowth, loose joints, reduced bone mineral density, compromised bone microarchitecture, and increased fracture rates. Thus, fibrillin-1 seems to play a role in the skeletal homeostasis. Therefore, the present work studied how marfan syndrome alters LCN architecture and the surrounding bone matrix. The mice with marfan syndrome showed longer tibiae than their healthy littermates from an age of seven weeks onwards. In contrast, the cortical development appeared retarded, which was observed across all measured characteristics, i. e. lower endocortical bone formation, looser and less organized lacuno-canalicular network, less collagen orientation, thinner and shorter mineral particles. In each of the three model systems, this study found that changes in the LCN architecture spatially correlated with bone matrix material parameters. While not knowing the exact mechanism, these results provide indications that osteocytes can actively manipulate a mineral reservoir located around the canaliculi to make a quickly accessible contribution to mineral homeostasis. However, this interaction is most likely not one-sided, but could be understood as an interplay between osteocytes and extra-cellular matrix, since the bone matrix contains biochemical signaling molecules (e.g. non-collagenous proteins) that can change osteocyte behavior. Bone (re)modeling can therefore not only be understood as a method for removing defects or adapting to external mechanical stimuli, but also for increasing the efficiency of possible osteocyte-mineral interactions during bone homeostasis. With these findings, it seems reasonable to consider osteocytes as a target for drug development related to bone diseases that cause changes in bone composition and mechanical properties. It will most likely require the combined effort of materials scientists, cell biologists, and molecular biologists to gain a deeper understanding of how bone cells respond to their material environment. N2 - Knochen haben eine komplexe hierarchische Struktur, die einen lebenslangen Umbauprozess durchläuft, bei dem der Knochen sich seinen mechanischen Anforderungen anpasst. Um ein gesundes und stabiles Organ zu erhalten müssen Knochenresorption (durch Osteoklasten) und Knochenbildung (durch Osteoblasten) ausgewogen sein. Osteozyten lenken dieses Wechselspiel, indem sie mechanische Belastungen wahrnehmen und sie in biochemische Signale übersetzen. Die Osteozyten sitzen in Lakunen und sind durch Kanälchen untereinander und mit anderen Knochenzellen über ein Netzwerk (LCN) verbunden, das in der Lage ist, Ionen zu transportieren und eine Kommunikation von Zelle zu Zelle zu ermöglichen. Außerdem vermutet man, dass Osteozyten auch durch direkte Wechselwirkungen mit der umgebenden Matrix zur Mineralhomöostase beitragen könnten. Im Mittelpunkt dieser Arbeit steht die Frage, ob Osteozyten ihre materielle Umgebung aktiv verändern können. Um Spuren dieser Wechselwirkung zwischen Osteozyten und der extrazellulären Matrix nachzuweisen, werden materialwissenschaftliche Charakterisierungsmethoden eingesetzt. Zunächst wurden gesunde Mäuseknochen charakterisiert. Die erworbenen Ergebnisse wurden dann mit drei murinen Modellsystemen verglichen: 1) einem Belastungsmodell; 2) ein Heilungsmodell und 3) ein Krankheitsmodell, bei dem das Fbn1-Gen dysfunktional ist und Defekte in der Bildung des extrazellulären Gewebes verursacht werden. Die Messstrategie umfasste Routinen, die es ermöglichen, die Organisation des LCN und der Materialkomponenten (d.h. die organische Kollagenmatrix und die mineralischen Partikel) in denselben Knochenvolumina zu analysieren und die räumliche Verteilung der verschiedenen Datensätze zu vergleichen. Die dreidimensionale Netzwerkarchitektur des LCN wird durch konfokale Laser-Scanning-Mikroskopie nach Rhodamin-Färbung gemessen und anschließend quantifiziert. Der Kalziumgehalt wird mittels quantitativer Rückstreuelektronenbildgebung bestimmt, während Klein- und Weitwinkel-Röntgenstreuung verwendet werden, um die Dicke und Länge der Mineralpartikel zu bestimmen. Zunächst wurden Querschnitte der Unterschenkel von gesunden Mäusen charakterisiert, um zu untersuchen, ob Veränderungen in der LCN-Architektur auf Wechselwirkungen von Osteozyten mit der umgebenden Knochenmatrix zurückgeführt werden können. Die Kortizes zeigten zwei Hauptregionen, ein Band mit ungeordneter LCN-Architektur, umgeben von einer Region mit geordneter LCN. Die ungeordnete Region ist ein Überbleibsel der frühen Knochenbildung und wies kurze und dünne Mineralpartikel auf. Der umgebende, stärker ausgerichtete Knochen zeigte ein geordnetes und dichtes LCN, sowie dickere und längere Mineralpartikel. Der Kalziumgehalt blieb bei beiden Regionen unverändert. Im Mausbelastungsmodell wurde das linke Schienbein zwei Wochen lang mechanisch stimuliert, was zu einer erhöhten Knochenbildung führt. Hier sollte die Forschungsfrage beantwortet werden, wie sich Knochenmaterialeigenschaften an (Re-)Modellierungsstellen aufgrund von Belastung ändern. Der, als Reaktion auf die mechanische Stimulation, gebildete neue Knochen zeigte ähnliche Eigenschaften in Bezug auf die Mineralpartikel, wie die geordnete Kortexregion. Es gab eine klar erkennbare Grenze zwischen reifem und neu gebildetem Knochen. Trotzdem gingen einige Kanälchen durch diese Grenze, die die LCN aus reifem und neu gebildetem Knochen verband. Für das Heilungsmodell wurden die Oberschenkel von Mäusen einer Osteotomie unterzogen (einer Operation, bei der durch einen Schnitt in der Diaphyse ein Bruch erzeugt wird). Danach konnte die Fraktur 21 Tage heilen. Dadurch konnten in diesem Modell gleichzeitig verkalkter Knorpel, knöcherner Kallus und Kortex untersucht werden. Dafür wurde die räumliche Verteilung der LCN-Topologie sowie die Mineraleigenschaften der verschiedenen Gewebetypen und ihrer Grenzflächen visualisiert und verglichen. Alle Gewebetypen zeigten strukturelle Unterschiede über mehrere Längenskalen hinweg. Der Kalziumgehalt nahm von kalzifiziertem Knorpel zu knöchernem Kallus zu lamellarem kortikalem Knochen zu und wurde homogener. Der Grad der LCN-Organisation nahm ebenfalls zu, während die Lakunen vom Kallus zum Kortexgewebe kleiner wurden, ebenso wie die Lakunendichte. Im verkalkten Knorpel waren die Mineralpartikel kurz und dünn. Der größte Teil des Kallus wies eine Geflechtsknochenstruktur auf und diente als Gerüst für lamellares Gewebe, das dünnere Mineralpartikel, aber einen höheren Grad an Ausrichtung sowohl in den Mineralpartikeln als auch im LCN aufwies. Der Kortex zeigte die höchsten Werte für Minerallänge, Dicke und Orientierungsgrad. Obwohl nur wenige Kanälchen den Kallus und kortikale Regionen verbinden, weist dies darauf hin, dass eine Kommunikation zwischen Osteozyten beider Gewebe möglich sein sollte. Es wurde auch ein Mausmodell für das Marfan-Syndrom untersucht, das einen Gendefekt im Fibrillin-1-Gen beinhaltet. Beim Menschen ist das Marfan-Syndrom durch eine Reihe klinischer Symptome gekennzeichnet, wie z. B. übermäßiges Wachstum der Gliedmaßen, überstreckbare Gelenke, verringerte Knochenmineraldichte, beeinträchtigte Knochenmikroarchitektur und erhöhte Frakturraten. Somit scheint Fibrillin-1 eine Rolle in der Skeletthomöostase zu spielen. Deswegen untersuchte die vorliegende Arbeit, ob und wie das Marfan-Syndrom die LCN-Architektur und die umgebende Knochenmatrix verändert. Die Mäuse mit Marfan-Syndrom zeigten bereits ab einem Alter von sieben Wochen längere Schienbeine als ihre gesunden Wurfgeschwister. Im Gegensatz dazu erschien die kortikale Entwicklung verzögert, was über alle gemessenen Merkmale hinweg beobachtet wurde, d.h. niedrigere endokortikale Knochenbildung, lockereres und weniger organisiertes LCN, geringerer Grad an Kollagenorientierung sowie ein Trend zu dünneren und kürzeren Mineralpartikel. In jedem der drei Modellsysteme fand diese Studie, dass Änderungen in der LCN-Architektur räumlich mit Parametern des Knochenmatrixmaterials korrelierten. Obwohl der genaue Mechanismus nicht bekannt ist, liefern diese Ergebnisse Hinweise darauf, dass Osteozyten ein Mineralreservoir aktiv manipulieren können. Dieses Reservoir befindet sich um die Kanälchen herum und dieser Prozess würde es ermöglichen, einen schnell zugänglichen Beitrag zur Mineralhomöostase zu leisten. Diese Interaktion ist jedoch höchstwahrscheinlich nicht einseitig, sondern könnte als Wechselspiel zwischen Osteozyten und extrazellulärer Matrix verstanden werden, da die Knochenmatrix biochemische Signalmoleküle enthält, die das Verhalten von Osteozyten verändern können. Knochen(re)modellierung kann daher nicht nur als Methode zur Defektbeseitigung oder Anpassung an äußere mechanische Reize verstanden werden, sondern auch zur Effizienzsteigerung möglicher Osteozyten-Mineral-Interaktionen während der Knochenhomöostase. Angesichts dieser Ergebnisse erscheint es sinnvoll, Osteozyten als Ziel für die Arzneimittelentwicklung im Zusammenhang mit Knochenerkrankungen in Betracht zu ziehen, die Veränderungen der Knochenzusammensetzung und deren mechanischen Eigenschaften verursachen. KW - bone KW - lacunae KW - mineralization KW - SAXS KW - lacuno-canalicular network KW - µCT KW - CLSM KW - konfokales Laser-Scanning-Mikroskop KW - Kleinwinkelröntgenstreuung KW - Knochen KW - Lakunen KW - lakuno-kanaliculäres Netzwerk KW - Mineralisierung KW - µCT Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559593 ER - TY - THES A1 - Thomas, Timon T1 - Cosmic-ray hydrodynamics: theory, numerics, applications T1 - Hydrodynamik der kosmischen Strahlung: Theorie, Numerik, Anwendungen N2 - Cosmic rays (CRs) are a ubiquitous and an important component of astrophysical environments such as the interstellar medium (ISM) and intracluster medium (ICM). Their plasma physical interactions with electromagnetic fields strongly influence their transport properties. Effective models which incorporate the microphysics of CR transport are needed to study the effects of CRs on their surrounding macrophysical media. Developing such models is challenging because of the conceptional, length-scale, and time-scale separation between the microscales of plasma physics and the macroscales of the environment. Hydrodynamical theories of CR transport achieve this by capturing the evolution of CR population in terms of statistical moments. In the well-established one-moment hydrodynamical model for CR transport, the dynamics of the entire CR population are described by a single statistical quantity such as the commonly used CR energy density. In this work, I develop a new hydrodynamical two-moment theory for CR transport that expands the well-established hydrodynamical model by including the CR energy flux as a second independent hydrodynamical quantity. I detail how this model accounts for the interaction between CRs and gyroresonant Alfvén waves. The small-scale magnetic fields associated with these Alfvén waves scatter CRs which fundamentally alters CR transport along large-scale magnetic field lines. This leads to the effects of CR streaming and diffusion which are both captured within the presented hydrodynamical theory. I use an Eddington-like approximation to close the hydrodynamical equations and investigate the accuracy of this closure-relation by comparing it to high-order approximations of CR transport. In addition, I develop a finite-volume scheme for the new hydrodynamical model and adapt it to the moving-mesh code Arepo. This scheme is applied using a simulation of a CR-driven galactic wind. I investigate how CRs launch the wind and perform a statistical analysis of CR transport properties inside the simulated circumgalactic medium (CGM). I show that the new hydrodynamical model can be used to explain the morphological appearance of a particular type of radio filamentary structures found inside the central molecular zone (CMZ). I argue that these harp-like features are synchrotron-radiating CRs which are injected into braided magnetic field lines by a point-like source such as a stellar wind of a massive star or a pulsar. Lastly, I present the finite-volume code Blinc that uses adaptive mesh refinement (AMR) techniques to perform simulations of radiation and magnetohydrodynamics (MHD). The mesh of Blinc is block-structured and represented in computer memory using a graph-based approach. I describe the implementation of the mesh graph and how a diffusion process is employed to achieve load balancing in parallel computing environments. Various test problems are used to verify the accuracy and robustness of the employed numerical algorithms. N2 - Kosmische Strahlung (CR) ist ein allgegenwärtiger und wichtiger Bestandteil astrophysikalischer Umgebungen wie des interstellaren Mediums (ISM) und des Intracluster-Mediums (ICM). Ihre plasmaphysikalischen Wechselwirkungen mit elektromagnetischen Feldern beeinflussen ihre Transporteigenschaften weitgehend. Effektive Modelle, die die Mikrophysik des CR-Transports einbeziehen, sind erforderlich, um die Auswirkungen von CRs auf die sie umgebenden makrophysikalischen Medien zu untersuchen. Die Entwicklung solcher Modelle ist eine Herausforderung, aufgrund der konzeptionellen, Längenskalen-, und Zeitskalen-Unterschiede zwischen den Mikroskalen der Plasmaphysik und den Makroskalen der Umgebung. Hydrodynamische Theorien des CR-Transports erreichen dies, indem sie die Entwicklung der CR-Population in Form von statistischen Momenten erfassen. Im etablierten hydrodynamischen Ein-Moment Modell für den CR-Transport wird die Dynamik der gesamten CR-Population durch eine einzige statistische Größe wie der häufig verwendeten CR-Energiedichte beschrieben. In dieser Arbeit entwickle ich eine neue hydrodynamische Zwei-Momenten Theorie für den CR-Transport, die das etablierte hydrodynamische Modell um den CR-Energiefluss als zweite unabhängige hydrodynamische Größe erweitert. Ich erläutere, wie dieses Modell die Wechselwirkung zwischen CRs und gyroresonanten Alfvén-Wellen berücksichtigt. Die mit diesen Alfvén-Wellen verbundenen kleinskaligen Magnetfelder streuen die CRs, was den CR-Transport entlang großskaligen Magnetfeldlinien grundlegend verändert. Dies führt zu den CR-Strömungs-und Diffusioneffekten, welche beide in der neu vorgestellten hydrodynamischen Theorie erfasst werden. Ich verwende eine adaptierte Eddington Näherung, um die hydrodynamischen Gleichungen zu schließen und untersuche die Genauigkeit dieser Näherung, indem ich sie mit Näherungen höherer Ordnung für den CR-Transport vergleiche. Darüber hinaus entwickle ich ein Finite-Volumen-Schema für das neue hydrodynamische Modell und passe es an den mitbewegten Gitter Code Arepo an. Dieses Schema wird mittels einer Simulation eines CR-getriebenen galaktischen Windes angewendet. Ich untersuche, wie CRs den Wind beschleunigen und führe eine statistische Analyse der CR-Transporteigenschaften innerhalb des simulierten zirkumgalaktischen Mediums (CGM) durch. Ich zeige, dass das neue hydrodynamische Modell das morphologische Erscheinungsbild eines neu-entdeckten bestimmten Typs von filamentartigen Radiostrukturen, welcher in der zentralen molekularen Zone (CMZ) auffindbar ist, erklären kann. Ich schlage vor, dass es sich bei diesen harfenartigen Strukturen um synchrotronstrahlende CRs handelt, die zuvor von einer punktförmigen Quelle wie dem stellaren Wind eines massereichen Sterns oder eines Pulsars in geflochtene Magnetfeldlinien injiziert wurden. Schließlich stelle ich den Finite-Volumen-Code Blinc vor, der adaptive Gitterverfeinerungstechniken (AMR) verwendet, um Simulationen von Strahlungs-und Magnetohydrodynamik (MHD) durchzuführen. Das Gitter von Blinc ist blockstrukturiert und wird im Computerspe-icher mittels eines graphbasierten Ansatzes dargestellt. Ich beschreibe die Implementierung des Gittergraphen und wie ein Diffusionsprozess eingesetzt wird, um einen Lastausgleich in parallelen Rechenumgebungen zu erreichen. Verschiedene Testprobleme werden verwendet, um die Genauigkeit und Robustheit der verwendeten numerischen Algorithmen zu überprüfen. KW - cosmic rays KW - hydrodynamics KW - radiative transfer KW - methods: analytical KW - methods: numerical KW - Galactic center KW - Non-thermal radiation sources KW - galaktisches Zentrum KW - Quellen nichtthermischer Strahlung KW - kosmische Strahlung KW - Hydrodynamik KW - Methoden: analytisch KW - Methoden: numerisch KW - Strahlungstransport Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-563843 ER - TY - GEN A1 - Omranian, Sara A1 - Nikoloski, Zoran T1 - CUBCO+: prediction of protein complexes based on min-cut network partitioning into biclique spanned subgraphs T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - High-throughput proteomics approaches have resulted in large-scale protein–protein interaction (PPI) networks that have been employed for the prediction of protein complexes. However, PPI networks contain false-positive as well as false-negative PPIs that affect the protein complex prediction algorithms. To address this issue, here we propose an algorithm called CUBCO+ that: (1) employs GO semantic similarity to retain only biologically relevant interactions with a high similarity score, (2) based on link prediction approaches, scores the false-negative edges, and (3) incorporates the resulting scores to predict protein complexes. Through comprehensive analyses with PPIs from Escherichia coli, Saccharomyces cerevisiae, and Homo sapiens, we show that CUBCO+ performs as well as the approaches that predict protein complexes based on recently introduced graph partitions into biclique spanned subgraphs and outperforms the other state-of-the-art approaches. Moreover, we illustrate that in combination with GO semantic similarity, CUBCO+ enables us to predict more accurate protein complexes in 36% of the cases in comparison to CUBCO as its predecessor. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1315 KW - Protein complexes KW - Protein–protein interaction KW - Network clustering KW - Species comparison Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-586863 SN - 1866-8372 IS - 1315 ER - TY - THES A1 - Heuberger, Adrian T1 - Das Erste ist das Letzte und das Letzte ist das Erste BT - das Absolute in Hegels Wissenschaft der Logik und sein absoluter Anfang N2 - The following paper argues that Hegel’s Science of Logic is a radical attempt to conceive the absolute as having no outside. This can already be noticed in the beginning of the Logic: If there can be nothing outside the absolute, then the beginning cannot be outside the absolute either. Consequently, the beginning must be made with the absolute itself. However, setting the beginning as absolute is at the same time testing the beginning of its absoluteness. And the beginning does not pass this test. For it is the nature of a beginning to be only a beginning and not the whole. And thus it is also not the absolute. The beginning is the most distant determination from being the whole and must therefore be considered as the most non-absolute in Logic. Consequently, the beginning is both: It is a beginning with the absolute and it is a beginning with the most non-absolute. The very beginning of the Logic is already a self-contradiction. The Logic must free itself from this contradiction. And this liberation is what makes the progress that leads beyond the beginning and in which the beginning is sublated. The progress develops subsequent determinations. Each of them is posited as absolute, but none of them can satisfy this absoluteness so that each of them is sublated again in subsequent determinations. Every determination that follows the beginning undergoes this movement of absolutisation, of failing to fulfill absoluteness, and of sublating itself, until – at the very end of Logic – this very movement is recognised as that which alone is capable of fulfilling absoluteness. For if every determination is submitted to this movement, then there is no outside to this movement. And therefore, it must be the absolute. On its progress to elaborate the true meaning of the absolute, the Logic returns repeatedly to the determination of its beginning, in order to catch up with presuppositions that had to be made for exposing its initial determination. The following passages will be of particular interest for catching up with these presuppositions: the transition into the science of Essence, the transition into the science of Notion and the concluding chapter of the Logic. For even at the very end, the Logic returns to its beginning. This led to the following statement by Hegel, which also inspired the title of this paper: The first is also the last and the last is also the first. N2 - Die vorliegende Arbeit vertritt die These, dass Hegels Wissenschaft der Logik mit einer Konzeption von Absolutheit Ernst zu machen versucht, nach der es kein Außerhalb des Absoluten geben kann. Dies macht sich bereits im Anfang der Logik bemerkbar: Wenn es nichts außerhalb des Absoluten geben kann, dann darf auch der Anfang nicht außerhalb des Absoluten sein. Folglich kann der Anfang nur mit dem Absoluten gemacht werden. Das Setzen des Anfangs als absolut ist aber gleichzeitig ein Testen des Anfangs auf seine Absolutheit. Diese Prüfung kann der Anfang nicht bestehen. Denn es liegt im Wesen eines Anfangs, nur Anfang und nicht das Ganze und somit nicht das Absolute zu sein. Der Anfang ist am weitesten davon entfernt, das Ganze zu sein, und muss folglich als das Nicht-Absoluteste innerhalb der Logik betrachtet werden. Also ist er beides: Er ist ein Anfang mit dem Absoluten und er ist ein Anfang mit dem Nicht-Absolutesten. Die Logik widerspricht sich bereits in ihrem Anfang. Von diesem Widerspruch muss sie sich befreien. Diese Befreiung treibt den Gang vom Anfang fort. Dies erzeugt den Fortgang der Logik. Die anfängliche Bestimmung hebt sich auf und geht in ihre Folgebestimmung über. Die Folgebestimmung wird ihrerseits absolut gesetzt, kann dieser Setzung aber ebenfalls nicht gerecht werden und hebt sich in ihre Folgebestimmung auf. Eine jede Bestimmung, die auf den Anfang folgt, durchläuft diese Bewegung des Absolutsetzens, Daran-Scheiterns und Sich-Aufhebens, bis – ganz am Ende der Logik – ebendiese Bewegung als dasjenige erkannt wird, was allein vermögend ist, dem Anspruch auf Absolutheit zu genügen. Denn wenn eine jede Bestimmung dieser Bewegung unterworfen ist, dann gibt es kein Außerhalb zu dieser Bewegung. Und also muss sie das gesuchte Absolute sein. Auf ihrem Weg hin zur wahren Bedeutung des Absoluten kehrt die Logik immer wieder in die Bestimmung ihres Anfangs zurück, um Voraussetzungen einzuholen, die in Zusammenhang mit ihrem Anfang gemacht werden mussten. Für das Einholen dieser Voraussetzungen werden folgende Textstellen von Interesse sein: der Übergang in die Wesenslogik, der Übergang in die Begriffslogik und das Schlusskapitel. Denn auch zuallerletzt, in ihrem Ende kehrt die Logik in ihren Anfang zurück. Entsprechend kann mit Hegel gesagt werden: Das Erste ist auch das Letzte und das Letzte ist auch das Erste. KW - Hegel KW - Dialektik KW - spekulative Philosophie KW - Idealismus KW - Absolute KW - Wissenschaft der Logik KW - absolute Methode KW - Hegel KW - dialectics KW - speculative philosophy KW - idealism KW - absolute KW - science of logic KW - absolute method Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-549846 ER - TY - JOUR A1 - Rother, Stefanie A1 - Tosch, Frank A1 - Wendland, Mirko A1 - Kludt, Steffen T1 - Das Orientierungspraktikum in spiralcurricularer Perspektive BT - Erste Erkenntnisse der Begleitforschung zu den Schulpraktischen Studien im Potsdamer Modell der Lehrerbildung JF - Professionalisierung in Praxisphasen : Ergebnisse der Lehrerbildungsforschung an der Universität Potsdam (Potsdamer Beiträge zur Lehrerbildung und Bildungsforschung ; 2) N2 - Das Orientierungspraktikum (OP)/Integrierte Eingangspraktikum (IEP) ist die erste schulpraktische Phase im Potsdamer Modell der Lehrerbildung. Mit diesem (Hospitations-)Praktikum (im 1. – 2. Fachsemester des Bachelorstudiums) soll der Perspektivwechsel von der Schüler:innen- zur Lehrer:innenrolle angestoßen und der Lehrer:innenberuf, die Institution Schule und der Unterricht durch eine beobachtende Perspektive reflektiert werden. Im Beitrag werden erste Ergebnisse der quantitativen und qualitativen Analyse zum OP/ IEP im Rahmen des PSI-Projekts „Kompetenzerwerb in Schulpraktischen Studien – Spiralcurriculum“ diskutiert. Aus den nachgewiesenen Effekten – u. a. Aktivierung der Reflexionsfähigkeit und Förderung der persönlichen Entwicklung – und den analysierten Bedürfnissen der Studierenden werden abschließend in zwei Diskussionssträngen „Konzeption und Handlungsrahmen“ sowie „Unterstützung und Begleitung“ Empfehlungen formuliert, die wichtige Impulse zur Weiterentwicklung des Praktikums und der begleitenden Lehrveranstaltungen liefern. N2 - The Orientation Work Placement/Integrated Introductory Work Placement is the first phase in the Potsdam Teacher Training Model during which students gain practical in-school experience. The aim of this (work shadowing) work placement (which takes place in the first two semesters of the students’ bachelor studies) is to initiate a change of perspective from the role of the student to that of the teacher, as well as reflection on teaching as a career, school as an institution, and teaching in general. In this paper, we discuss initial findings from the quantitative and qualitative analyses of the Orientation Work Placement/Integrated Introductory Work Placement within the PSI project ‘Competence Acquisition in Professional Studies – Spiral Curriculum’. Recommendations are made based on verified effects – including the activation of reflectivity and the promotion of personal development – and the analysed needs of the students are formulated into to two discussion strands: ‘Conception and Scope for Action’ and ‘Support and Supervision’. These recommendations aim to stimulate the ongoing development of work placements and their accompanying seminars. Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-570728 SN - 978-3-86956-508-8 SN - 2626-3556 SN - 2626-4722 IS - 2 SP - 31 EP - 66 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Gnädig, Susanne A1 - Seidel, Astrid A1 - Siehr, Karl-Heinz A1 - Wienecke, Maik T1 - Das Tagespraktikum im Fokus – Eine Analyse aus fachdidaktischer Sicht JF - Professionalisierung in Praxisphasen : Ergebnisse der Lehrerbildungsforschung an der Universität Potsdam (Potsdamer Beiträge zur Lehrerbildung und Bildungsforschung ; 2) N2 - Die fachdidaktischen Tagespraktika (FTP) bilden ein Kernelement im Potsdamer Modell der Lehrerbildung, weist man ihnen doch eine „studienleitende Funktion“ zu. Wie aber realisiert sich diese Funktion in den einzelnen Fächern an der Universität Potsdam und welche Folgen ergeben sich für die Ausbildung der Lehramtsstudierenden ? Zur Beantwortung dieser Frage wurde eine Analyse der Verankerung der FTP in allen Studienordnungen hinsichtlich qualitativer (Inhalte und Ziele, Prüfungsformen, Belegungsvoraussetzungen) und quantitativer (Leistungspunkte, Semesterwochenstunden) Kriterien durchgeführt. Leitfadengestützte Interviews mit verantwortlichen Fachdidaktikerinnen und Fachdidaktikern dienten der Untersuchung der konkreten Umsetzung und der Relevanzzuschreibung. Ziel war es, durch das Zusammenführen beider Zugänge – der realiter existierenden Curricula, der individualisierten Praktiken sowie der subjektiven Überzeugungen – ein Verständnis eben jener „studienleitenden Funktion“ zu erlangen und anschließend Diskussions- und Handlungsfelder für die Weiterentwicklung des FTP herauszuarbeiten. N2 - The teaching internship (FTP) in the bachelor’s degree program has always been one core element of the Potsdam model of teacher education, which is assigned nothing less than a “study guiding function”. But how is this function interpreted and put into practice by the different departments of the University of Potsdam, and what are the consequences for the training of pre-service teachers ? In order to answer these questions, this article examines how the FTP is implemented in the study regulations with regard to qualitative criteria (contents and goals, forms of examination, requirements for enrollment) and quantitative criteria (credit points, workload). It also asks for the relevance of the FTP by conducting guided interviews with responsible lecturers. Combining both approaches – the analysis of existing curricula and the individualized practices as well as the subjective believes of the lecturers – we gain an understanding of the so-called “study guiding function” of the FTP and are thus able to elaborate areas for discussion for the development of the FTP. Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-570742 SN - 978-3-86956-508-8 SN - 2626-3556 SN - 2626-4722 IS - 2 SP - 91 EP - 121 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Ullrich, André A1 - Vladova, Gergana A1 - Eigelshoven, Felix A1 - Renz, André T1 - Data mining of scientific research on artificial intelligence in teaching and administration in higher education institutions BT - a bibliometrics analysis and recommendation for future research T2 - Zweitveröffentlichungen der Universität Potsdam : Wirtschafts- und Sozialwissenschaftliche Reihe N2 - Teaching and learning as well as administrative processes are still experiencing intensive changes with the rise of artificial intelligence (AI) technologies and its diverse application opportunities in the context of higher education. Therewith, the scientific interest in the topic in general, but also specific focal points rose as well. However, there is no structured overview on AI in teaching and administration processes in higher education institutions that allows to identify major research topics and trends, and concretizing peculiarities and develops recommendations for further action. To overcome this gap, this study seeks to systematize the current scientific discourse on AI in teaching and administration in higher education institutions. This study identified an (1) imbalance in research on AI in educational and administrative contexts, (2) an imbalance in disciplines and lack of interdisciplinary research, (3) inequalities in cross-national research activities, as well as (4) neglected research topics and paths. In this way, a comparative analysis between AI usage in administration and teaching and learning processes, a systematization of the state of research, an identification of research gaps as well as further research path on AI in higher education institutions are contributed to research. T3 - Zweitveröffentlichungen der Universität Potsdam : Wirtschafts- und Sozialwissenschaftliche Reihe - 160 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-589077 SN - 1867-5808 IS - 160 ER - TY - GEN A1 - Kindermann, Liana A1 - Dobler, Magnus A1 - Niedeggen, Daniela A1 - Chimbioputo Fabiano, Ezequiel A1 - Linstädter, Anja T1 - Dataset on woody aboveground biomass, disturbance losses, and wood density from an African savanna ecosystem T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - This dataset comprises tree inventories and damage assessments performed in Namibia's semi-arid Zambezi Region. Data were sampled in savannas and savanna woodlands along steep gradients of elephant population densities to capture the effects of those (and other) disturbances on individual-level and stand-level aboveground woody biomass (AGB). The dataset contains raw data on dendrometric measures and processed data on specific wood density (SWD), woody aboveground biomass, and biomass losses through disturbance impacts. Allometric proxies (height, canopy diameters, and in adult trees also stem circumferences) were recorded for n = 6,179 tree and shrub individuals. Wood samples were taken for each encountered species to measure specific wood density. These measurements have been used to estimate woody aboveground biomass via established allometric models, advanced through our improved methodologies and workflows that accounted for tree and shrub architecture shaped by disturbance impacts. To this end, we performed a detailed damage assessment on each woody individual in the field. In addition to estimations of standing biomass, our new method also delivered data on biomass losses to different disturbance agents (elephants, fire, and others) on the level of plant individuals and stands. The data presented here have been used within a study published with Ecological Indicators (Kindermann et al., 2022) to evaluate the benefits of our improved methodology in comparison to a standard reference method of aboveground biomass estimations. Additionally, it has been employed in a study on carbon storage and sequestration in vegetation and soils (Sandhage-Hofmann et al., 2021). The raw data of dendrometric measurements can be subjected to other available allometric models for biomass estimation. The processed data can be used to analyze disturbance impacts on woody aboveground biomass, or for regional carbon storage estimates. The data on species-specific wood density can be used for application to other dendrometric datasets to (re-) estimate biomass through allometric models requiring wood density. It can further be used for plant functional trait analyses. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1265 KW - Damage assessment KW - Disturbance impacts KW - Disturbance indicator KW - Elephant disturbance KW - Tree allometry KW - Specific wood density KW - Woody aboveground biomass KW - Wood specific gravity Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561607 SN - 1866-8372 SP - 1 EP - 16 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Kayhan, Ezgi A1 - Matthes, Daniel A1 - Marriott Haresign, Ira A1 - Bánki, Anna A1 - Michel, Christine A1 - Langeloh, Miriam A1 - Wass, Sam A1 - Hoehl, Stefanie A1 - Morales, Santiago T1 - DEEP: A dual EEG pipeline for developmental hyperscanning studies T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - Cutting-edge hyperscanning methods led to a paradigm shift in social neuroscience. It allowed researchers to measure dynamic mutual alignment of neural processes between two or more individuals in naturalistic contexts. The ever-growing interest in hyperscanning research calls for the development of transparent and validated data analysis methods to further advance the field. We have developed and tested a dual electroencephalography (EEG) analysis pipeline, namely DEEP. Following the preprocessing of the data, DEEP allows users to calculate Phase Locking Values (PLVs) and cross-frequency PLVs as indices of inter-brain phase alignment of dyads as well as time-frequency responses and EEG power for each participant. The pipeline also includes scripts to control for spurious correlations. Our goal is to contribute to open and reproducible science practices by making DEEP publicly available together with an example mother-infant EEG hyperscanning dataset. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 799 KW - Developmental hyperscanning KW - Dual EEG analysis KW - Adult-child interaction KW - Phase Locking Value KW - PLV KW - Cross-frequency PLV KW - FieldTrip Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566899 SN - 1866-8364 SP - 1 EP - 11 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Ziegler, Joceline A1 - Pfitzner, Bjarne A1 - Schulz, Heinrich A1 - Saalbach, Axel A1 - Arnrich, Bert T1 - Defending against Reconstruction Attacks through Differentially Private Federated Learning for Classification of Heterogeneous Chest X-ray Data T2 - Zweitveröffentlichungen der Universität Potsdam : Reihe der Digital Engineering Fakultät N2 - Privacy regulations and the physical distribution of heterogeneous data are often primary concerns for the development of deep learning models in a medical context. This paper evaluates the feasibility of differentially private federated learning for chest X-ray classification as a defense against data privacy attacks. To the best of our knowledge, we are the first to directly compare the impact of differentially private training on two different neural network architectures, DenseNet121 and ResNet50. Extending the federated learning environments previously analyzed in terms of privacy, we simulated a heterogeneous and imbalanced federated setting by distributing images from the public CheXpert and Mendeley chest X-ray datasets unevenly among 36 clients. Both non-private baseline models achieved an area under the receiver operating characteristic curve (AUC) of 0.940.94 on the binary classification task of detecting the presence of a medical finding. We demonstrate that both model architectures are vulnerable to privacy violation by applying image reconstruction attacks to local model updates from individual clients. The attack was particularly successful during later training stages. To mitigate the risk of a privacy breach, we integrated Rényi differential privacy with a Gaussian noise mechanism into local model training. We evaluate model performance and attack vulnerability for privacy budgets ε∈{1,3,6,10}�∈{1,3,6,10}. The DenseNet121 achieved the best utility-privacy trade-off with an AUC of 0.940.94 for ε=6�=6. Model performance deteriorated slightly for individual clients compared to the non-private baseline. The ResNet50 only reached an AUC of 0.760.76 in the same privacy setting. Its performance was inferior to that of the DenseNet121 for all considered privacy constraints, suggesting that the DenseNet121 architecture is more robust to differentially private training. T3 - Zweitveröffentlichungen der Universität Potsdam : Reihe der Digital Engineering Fakultät - 14 KW - federated learning KW - privacy and security KW - privacy attack KW - X-ray Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-581322 IS - 14 ER - TY - THES A1 - Diel-Gligor, Katharina T1 - Der Amicus Curiae im deutsch-französischen Vergleich – eine Untersuchung der Verwaltungsgerichtsbarkeit T2 - MEGA-Schriftenreihe N2 - In den vergangenen Jahren hat der im anglo-amerikanischen Rechtsraum wurzelnde Amicus Curiae, wenn auch in unterschiedlicher Ausprägung, Eingang in die Verwaltungsgerichtsbarkeiten in Deutschland und Frankreich gefunden. Dabei erweist sich die französische Verwaltungsgerichtsordnung aus rechtsvergleichender Sicht als progressiv, da das Verfahrensinstrument hier – im Gegensatz zur deutschen Rechtslage – bereits positiv-rechtlich normiert ist. Diese Fortschrittlichkeit hat sich bisher jedoch nicht merklich auf die Drittinterventionspraxis niedergeschlagen, besitzen Amicus Curiae-Stellungnahmen doch in beiden Ländern und über alle verwaltungsgerichtlichen Instanzen hinweg noch immer Seltenheitswert. Da mithin keine Generalisierungen zur dieser Rechtspraxis erlaubt sind, kann sich eine Analyse der möglichen funktionalen Rolle derartiger Amicus Curiae-Stellungnahmen nur auf theoretische Überlegungen stützen. Danach ist eine Informationsfunktion gegenüber dem Gericht in Bezug auf Tatsachen- und Rechtsfragen klar zu bejahen. Auch dürfte der Verfahrensmechanismus ein zusätzliches – wenngleich nicht demokratisches – Legitimationspotential für gerichtliche Entscheidungen besitzen: Indem dieser gesellschaftliche Teilhabe und damit gleichzeitig die Einbettung verwaltungsgerichtlicher Verfahren in den jeweiligen sozialen Kontext ermöglicht, kann er zur Steigerung der gesellschaftlichen Akzeptanz der zunehmend unter Rechtsfertigungsdruck geratenden Richtermacht beitragen. N2 - Ces dernières années, le concept de l’amicus curiae, qui puise ses racines dans le droit anglo-américain, a fait son entrée dans la juridiction administrative tant en Allemagne qu’en France, bien que sous des formes différentes. Du point de vue du droit comparé, le système judiciaire administratif français est relativement progressif à cet égard, car cet instrument procédural y est déjà codifié – contrairement à la situation juridique allemande. Toutefois, cette progressivité n'a pas eu jusqu'à présent d'effet notable sur la pratique procédurale, car l’application du concept d’amicus curiae demeure relativement rare dans l’ensemble des instances des juridictions administratives des deux pays. En conséquence, dans la mesure où une généralisation par rapport à cette pratique juridique n'est donc pas possible, la question de savoir quel est le rôle fonctionnel potentiel d’amici curiae ne peut être analysée que sur le plan théorique. Sur cette base, on peut affirmer clairement un rôle d'information vis-à-vis du tribunal par rapport aux questions de fait et de droit. En outre, ce mécanisme procédural semble avoir une capacité de légitimation supplémentaire du pouvoir judiciaire, bien qu’il ne s’agisse pas d’une légitimation démocratique : en permettant une participation sociale, et en reliant ainsi les procédures devant les juridictions administratives à leur contexte social respectif, l’amicus curiae contribue à augmenter l’adhésion sociale au pouvoir judiciaire, qui est de plus en plus contraint de s’auto-justifier vis-à-vis des justiciables. N2 - In recent years, the amicus curiae, which has its roots in Anglo-American law, has found its way into the administrative court systems in Germany and France, albeit in different forms. From a comparative law perspective, the French administrative court system proves to be progressive, since the procedural instrument of amicus curiae is already legally standardized here - in contrast to the German legal situation. However, this progressiveness has not yet had a noticeable impact on third-party intervention practice, given that amicus curiae briefs are still a rarity across all administrative court instances in both countries. Since no generalizations about this legal practice are hence permitted, an analysis of the possible functional role of such amicus curiae briefs can only be based on theoretical considerations. According to these considerations, an informational function vis-à-vis the court with respect to questions of fact and law can clearly be affirmed. The procedural mechanism of amicus curiae intervention is also likely to have an additional - albeit non-democratic - legitimizing potential for judicial decisions: By enabling social participation and thus at the same time embedding administrative court proceedings in the respective social context, it can contribute to enhanced social acceptance of the power of judges, which is under increasing pressure to justify itself. T3 - MEGA-Schriftenreihe - 6 KW - Amicus Curiae KW - Verwaltungsgerichte KW - Verwaltungsgerichtsverfahren KW - Deutschland KW - Frankreich KW - Rechtsvergleich KW - juridiction administrative KW - Allemagne KW - France KW - étude de droit comparé KW - administrative courts KW - Germany KW - France KW - comparative law Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-540620 SN - 2701-391X IS - 6 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - GEN A1 - Sagu Tchewonpi, Sorel A1 - Huschek, Gerd A1 - Waldbach Braga, Tess A1 - Rackiewicz, Michal A1 - Homann, Thomas A1 - Rawel, Harshadrai Manilal T1 - Design of Experiment (DoE) for Optimization of HPLC Conditions for the Simultaneous Fractionation of Seven α-Amylase/Trypsin Inhibitors from Wheat (Triticum aestivum L.) T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Wheat alpha-amylase/trypsin inhibitors remain a subject of interest considering the latest findings showing their implication in wheat-related non-celiac sensitivity (NCWS). Understanding their functions in such a disorder is still unclear and for further study, the need for pure ATI molecules is one of the limiting problems. In this work, a simplified approach based on the successive fractionation of ATI extracts by reverse phase and ion exchange chromatography was developed. ATIs were first extracted from wheat flour using a combination of Tris buffer and chloroform/methanol methods. The separation of the extracts on a C18 column generated two main fractions of interest F1 and F2. The response surface methodology with the Doehlert design allowed optimizing the operating parameters of the strong anion exchange chromatography. Finally, the seven major wheat ATIs namely P01083, P17314, P16850, P01085, P16851, P16159, and P83207 were recovered with purity levels (according to the targeted LC-MS/MS analysis) of 98.2 ± 0.7; 98.1 ± 0.8; 97.9 ± 0.5; 95.1 ± 0.8; 98.3 ± 0.4; 96.9 ± 0.5, and 96.2 ± 0.4%, respectively. MALDI-TOF-MS analysis revealed single peaks in each of the pure fractions and the mass analysis yielded deviations of 0.4, 1.9, 0.1, 0.2, 0.2, 0.9, and 0.1% between the theoretical and the determined masses of P01083, P17314, P16850, P01085, P16851, P16159, and P83207, respectively. Overall, the study allowed establishing an efficient purification process of the most important wheat ATIs. This paves the way for further in-depth investigation of the ATIs to gain more knowledge related to their involvement in NCWS disease and to allow the absolute quantification in wheat samples. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1260 KW - wheat KW - α-amylase/trypsin inhibitors KW - fractionation KW - purification KW - reversed-phase chromatography KW - ion-exchange chromatography KW - design of experiment KW - LC–MS/MS KW - MALDI-TOF-MS Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559282 SN - 1866-8372 SP - 1 EP - 18 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Gerken, Stefanie A1 - Uebernickel, Falk A1 - de Paula, Danielly T1 - Design Thinking: a Global Study on Implementation Practices in Organizations T1 - Design Thinking: eine globale Studie über Implementierungspraktiken in Organisationen BT - Past - Present - Future BT - Vergangenheit - Gegenwart - Zukunft N2 - These days design thinking is no longer a “new approach”. Among practitioners, as well as academics, interest in the topic has gathered pace over the last two decades. However, opinions are divided over the longevity of the phenomenon: whether design thinking is merely “old wine in new bottles,” a passing trend, or still evolving as it is being spread to an increasing number of organizations and industries. Despite its growing relevance and the diffusion of design thinking, knowledge on the actual status quo in organizations remains scarce. With a new study, the research team of Prof. Uebernickel and Stefanie Gerken investigates temporal developments and changes in design thinking practices in organizations over the past six years comparing the results of the 2015 “Parts without a whole” study with current practices and future developments. Companies of all sizes and from different parts of the world participated in the survey. The findings from qualitative interviews with experts, i.e., people who have years of knowledge with design thinking, were cross-checked with the results from an exploratory analysis of the survey data. This analysis uncovers significant variances and similarities in how design thinking is interpreted and applied in businesses. N2 - Heutzutage ist Design Thinking kein "neuer Ansatz" mehr. Unter Praktikern und Akademikern hat das Interesse an diesem Thema in den letzten zwei Jahrzehnten stark zugenommen. Die Meinungen sind jedoch geteilt, ob Design Thinking lediglich "alter Wein in neuen Schläuchen" ist, ein vorübergehender Trend, oder ein sich weiterentwickelndes Phänomen, welches in immer mehr Organisationen und Branchen Fuß fast. Trotz der wachsenden Relevanz und Verbreitung von Design Thinking ist das Wissen über den tatsächlichen Status quo in Organisationen nach wie vor spärlich. Mit einer neuen Studie untersucht das Forschungsteam von Prof. Uebernickel, Stefanie Gerken und Dr. Danielly de Paula die zeitlichen Entwicklungen und Veränderungen von Design Thinking Praktiken in Organisationen über die letzten sechs Jahre und vergleicht die Ergebnisse der Studie "Parts without a whole" aus dem Jahr 2015 mit aktuellen Praktiken und perspektivischen Entwicklungen. An der Studie haben Unternehmen aller Größen und aus verschiedenen Teilen der Welt teilgenommen. Um dem komplexen Untersuchungsgegenstand gerecht zu werden, wurde eine Mixed-Method-Ansatz gewählt: Die Erkenntnisse aus qualitativen Experteninterviews, d.h. Personen, die sich seit Jahren mit dem Thema Design Thinking in der Praxis beschäftigen, wurden mit den Ergebnissen einer quantitativen Analyse von Umfragedaten abgeglichen. Die vorliegende Studie erörtert signifikante Unterschiede und Gemeinsamkeiten bei der Interpretation und Anwendung von Design Thinking in Unternehmen. KW - Design Thinking KW - Agile KW - Implementation in Organizations KW - life-centered KW - human-centered KW - Innovation KW - Behavior change KW - Problem Solving KW - Creative KW - Solution Space KW - Process KW - Mindset KW - Tools KW - Wicked Problems KW - VUCA-World KW - Ambiguity KW - Interdisciplinary Teams KW - Multidisciplinary Teams KW - Impact KW - Measurement KW - Ideation KW - Agilität KW - agil KW - Ambiguität KW - Verhaltensänderung KW - Kreativität KW - Design Thinking KW - Ideenfindung KW - Auswirkungen KW - Implementierung in Organisationen KW - Innovation KW - interdisziplinäre Teams KW - Messung KW - Denkweise KW - multidisziplinäre Teams KW - Problemlösung KW - Prozess KW - Lösungsraum KW - Werkzeuge KW - Aktivitäten KW - verzwickte Probleme KW - menschenzentriert KW - lebenszentriert KW - VUCA-World Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-534668 SN - 978-3-86956-525-5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Nayak, Abani Shankar T1 - Design, Characterization and On-sky Testing of an Integrated Optics Device for Stellar Interferometry: from Pupil Remappers to Discrete Beam Combiner T1 - Entwicklung, Charakterisierung und Erprobung einer integrierten, optischen Vorrichtung für die stellare Interferometrie: von Pupil Remappers zum diskreten Strahlkombinierer N2 - Stellar interferometry is the only method in observational astronomy for obtaining the highest resolution images of astronomical targets. This method is based on combining light from two or more separate telescopes to obtain the complex visibility that contains information about the brightness distribution of an astronomical source. The applications of stellar interferometry have made significant contributions in the exciting research areas of astronomy and astrophysics, including the precise measurement of stellar diameters, imaging of stellar surfaces, observations of circumstellar disks around young stellar objects, predictions of Einstein's General relativity at the galactic center, and the direct search for exoplanets to name a few. One important related technique is aperture masking interferometry, pioneered in the 1960s, which uses a mask with holes at the re-imaged pupil of the telescope, where the light from the holes is combined using the principle of stellar interferometry. While this can increase the resolution, it comes with a disadvantage. Due to the finite size of the holes, the majority of the starlight (typically > 80 %) is lost at the mask, thus limiting the signal-to-noise ratio (SNR) of the output images. This restriction of aperture masking only to the bright targets can be avoided using pupil remapping interferometry - a technique combining aperture masking interferometry and advances in photonic technologies using single-mode fibers. Due to the inherent spatial filtering properties, the single-mode fibers can be placed at the focal plane of the re-imaged pupil, allowing the utilization of the whole pupil of the telescope to produce a high-dynamic range along with high-resolution images. Thus, pupil remapping interferometry is one of the most promising application areas in the emerging field of astrophotonics. At the heart of an interferometric facility, a beam combiner exists whose primary function is to combine light to obtain high-contrast fringes. A beam combiner can be as simple as a beam splitter or an anamorphic lens to combine light from 2 apertures (or telescopes) or as complex as a cascade of beam splitters and lenses to combine light for > 2 apertures. However, with the field of astrophotonics, interferometric facilities across the globe are increasingly employing some form of photonics technologies by using single-mode fibers or integrated optics (IO) chips as an efficient way to combine light from several apertures. The state-of-the-art instrument - GRAVITY at the very large telescope interferometer (VLTI) facility uses an IO-based beam combiner device reaching visibilities accuracy of better than < 0.25 %, which is roughly 50× as precise as a few decades back. Therefore, in the context of IO-based components for applications in stellar interferometry, this Thesis describes the work towards the development of a 3-dimensional (3-D) IO device - a monolithic astrophotonics component containing both the pupil remappers and a discrete beam combiner (DBC). In this work, the pupil remappers are 3-D single-mode waveguides in a glass substrate collecting light from the re-imaged pupil of the telescope and feeding the light to a DBC, where the combination takes place. The DBC is a lattice of 3-D single-mode waveguides, which interact through evanescent coupling. By observing the output power of single-mode waveguides of the DBC, the visibilities are retrieved by using a calibrated transfer matrix ({U}) of the device. The feasibility of the DBC in retrieving the visibilities theoretically and experimentally had already been studied in the literature but was only limited to laboratory tests with monochromatic light sources. Thus, a part of this work extends these studies by investigating the response of a 4-input DBC to a broad-band light source. Hence, the objectives of this Thesis are the following: 1) Design an IO device for broad-band light operation such that accurate and precise visibilities could be retrieved experimentally at astronomical H-band (1.5-1.65 μm), and 2) Validation of the DBC as a possible beam combination scheme for future interferometric facilities through on-sky testing at the William Herschel Telescope (WHT). This work consisted of designing three different 3-D IO devices. One of the popular methods for fabricating 3-D photonic components in a glass substrate is ultra-fast laser inscription (ULI). Thus, manufacturing of the designed devices was outsourced to Politecnico di Milano as part of an iterative fabrication process using their state-of-the-art ULI facility. The devices were then characterized using a 2-beam Michelson interferometric setup obtaining both the monochromatic and polychromatic visibilities. The retrieved visibilities for all devices were in good agreement as predicted by the simulation results of a DBC, which confirms both the repeatability of the ULI process and the stability of the Michelson setup, thus fulfilling the first objective. The best-performing device was then selected for the pupil-remapping of the WHT using a different optical setup consisting of a deformable mirror and a microlens array. The device successfully collected stellar photons from Vega and Altair. The visibilities were retrieved using a previously calibrated {U} but showed significant deviations from the expected results. Based on the analysis of comparable simulations, it was found that such deviations were primarily caused by the limited SNR of the stellar observations, thus constituting a first step towards the fulfillment of the second objective. N2 - Das Auflösungsvermögen eines Teleskops, also die Fähigkeit, zwei Punktquellen voneinander zu trennen, wird durch ~λ/A bestimmt, wobei λ die Wellenlänge des Lichts und A der Durchmesser des Hauptspiegels des Teleskops ist. Wenn bei einem gegebenen Teleskop zwei punktförmige Objekte durch <λ/A getrennt sind, kann kein eindeutiges Bild dieser Objekte erzeugt werden und das Teleskopsystem ist somit beugungsbegrenzt. Kombiniert man jedoch das Licht von zwei Teleskopen, die durch einen Abstand B voneinander getrennt sind, erhöht sich die Auflösung um einen Faktor ~2B/A und überwindet damit die Beugungsgrenze eines einzelnen Teleskops. Daher wird bei der stellaren Interferometrie - deren Konzept von Michelson in den 1920er Jahren entwickelte wurde - Licht von zwei oder mehr Teleskopen kombiniert, um hochauflösende Bilder von astronomischen Objekten zu erzeugen. Die Anwendung der stellaren Interferometrie hat wichtige Beiträge zur Astronomie und Astrophysik geleistet, von der Untersuchung grundlegender Eigenschaften von Sternen bis hin zur Abbildung extragalaktischer Objekte. Das Herzstück einer interferometrischen Anlage ist ein Strahlkombinierer, der das Licht von mehreren Teleskopen (oder Aperturen) kombiniert, um kontrastreiche Interferenzstreifen zu erhalten. In der Anfangszeit konnte ein Strahlkombinierer ganz einfach sein, wie z.B. ein Strahlteiler oder eine anamorphotische Linse für die Kombination des Lichts von 2 Aperturen (oder Teleskopen), oder sehr komplex, wie z.B. eine Kaskade von Strahlteilern und Linsen, um Licht für >2 Aperturen zu kombinieren. Mit dem aufkommenden Gebiet der Astrophotonik setzen interferometrische Einrichtungen jedoch vermehrt photonische Technologien ein, indem Einzelmoden-Fasern oder ein Chip mit integrierter Optik (IO) verwendet werden, um Licht aus mehreren Aperturen effizient zu kombinieren. Bei der sogenannten pupil remapping interferometry Technik (dt etwa: neugeordnete Pupille) wird beispielsweise Licht mit mehreren Einzelmoden-Wellenleitern auf einem IO-Chip gesammelt. Diese Komponenten werden an der Position im Strahlengang eingefügt, an der die Pupille des Teleskops abgebildet wird. Anschließend wird das Licht aus den Fasern oder Wellenleitern durch eine Freistrahloptik oder IO-basierte Komponente interferometrisch überlagert, um Bilder sowohl mit hohem Kontrast als auch hoher Auflösung zu erzeugen. Im Kontext von IO-basierten Komponenten für stellare Interferometrie ist das Ziel dieser Arbeit die Entwicklung eines 3-dimensionalen (3-D) IO-Bauteils - eine monolithische Astrophotonik-Komponente, die sowohl die Pupil Remapper als auch einen discrete beam combiner (DBC) (dt: Diskreten Strahlkombinierer ) enthält. In dieser Arbeit sind die Pupil Remapper 3-D Einzelmoden-Wellenleiter, die in ein Glassubstrat eingeschrieben sind und das Licht von der abgebildeten Pupille des Teleskops sammeln und zu einem DBC leiten, in dem die Kombination stattfindet. Der DBC ist eine 3-D Gitteranordnung von Einzelmoden-Wellenleitern, die durch evaneszente Kopplung miteinander wechselwirken. Durch Beobachtung der Ausgangsleistung der Einzelmoden-Wellenleiter des DBCs werden mit Hilfe einer kalibrierten Übertragungsmatrix des Systems die Visibilities (dt: Kontrastwerte) ermittelt, die für eine hochauflösende Bildgebung erforderlich sind. Die Eignung von DBCs für die Ermittlung der Kontrastwerte wurde sowohl theoretisch als auch experimentell untersucht und in Fachzeitschriften publiziert. Bisher beschränkten sich diese Untersuchungen jedoch auf Labortests mit monochromatischen Lichtquellen. Die Ziele dieser Arbeit sind daher die folgenden: 1) Die Entwicklung eines IO-Bauteils für die Anwendung mit breitbandigem Licht, so dass Kontrastwerte im astronomischen H-Band (1,5-1,65 μm) ermittelt werden können, 2) experimentelle Demonstration genauer und präziser Kontrastwerte mit dem IO-Bauteil, welches mit der Femtosekundenlaser-Bearbeitungsmethode hergestellt wird, und 3) Validierung des DBCs als mögliches Konzept für die Strahlkombination für zukünftige interferometrische Anlagen durch On-Sky-Tests am William Herschel Teleskop. KW - stellar interferometry KW - ultra-fast laser inscription technology KW - astrophotonics KW - discrete beam cominer KW - pupil remappers KW - visibility KW - integrated optics KW - William Herschel telescope KW - on-sky tests KW - stellare Interferometrie KW - Femtosekundenlaser-Bearbeitungsmethode KW - Astrophotonik KW - diskreter Strahlkombinierer KW - Pupil Remapper KW - Kontrastwerte KW - integrierte Optik KW - William Herschel Teleskop KW - On-Sky-Tests Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558743 ER - TY - THES A1 - Heinsohn, Natascha T1 - Development of a fiber-based sensor for the molecular detection of pathogens using Legionella as an example T1 - Entwicklung eines Faser-basierten Sensors zur molekularen Detektion von Pathogenen am Beispiel von Legionellen N2 - Fiber-based microfluidics has undergone many innovative developments in recent years, with exciting examples of portable, cost-effective and easy-to-use detection systems already being used in diagnostic and analytical applications. In water samples, Legionella are a serious risk as human pathogens. Infection occurs through inhalation of aerosols containing Legionella cells and can cause severe pneumonia and may even be fatal. In case of Legionella contamination of water-bearing systems or Legionella infection, it is essential to find the source of the contamination as quickly as possible to prevent further infections. In drinking, industrial and wastewater monitoring, the culture-based method is still the most commonly used technique to detect Legionella contamination. In order to improve the laboratory-dependent determination, the long analysis times of 10-14 days as well as the inaccuracy of the measured values in colony forming units (CFU), new innovative ideas are needed. In all areas of application, for example in public, commercial or private facilities, rapid and precise analysis is required, ideally on site. In this PhD thesis, all necessary single steps for a rapid DNA-based detection of Legionella were developed and characterized on a fiber-based miniaturized platform. In the first step, a fast, simple and device-independent chemical lysis of the bacteria and extraction of genomic DNA was established. Subsequently, different materials were investigated with respect to their non-specific DNA retention. Glass fiber filters proved to be particularly suitable, as they allow recovery of the DNA sample from the fiber material in combination with dedicated buffers and exhibit low autofluorescence, which was important for fluorescence-based readout. A fiber-based electrophoresis unit was developed to migrate different oligonucleotides within a fiber matrix by application of an electric field. A particular advantage over lateral flow assays is the targeted movement, even after the fiber is saturated with liquid. For this purpose, the entire process of fiber selection, fiber chip patterning, combination with printed electrodes, and testing of retention and migration of different DNA samples (single-stranded, double-stranded and genomic DNA) was performed. DNA could be pulled across the fiber chip in an electric field of 24 V/cm within 5 minutes, remained intact and could be used for subsequent detection assays e.g., polymerase chain reaction (PCR) or fluorescence in situ hybridization (FISH). Fiber electrophoresis could also be used to separate DNA from other components e.g., proteins or cell lysates or to pull DNA through multiple layers of the glass microfiber. In this way, different fragments experienced a moderate, size-dependent separation. Furthermore, this arrangement offers the possibility that different detection reactions could take place in different layers at a later time. Electric current and potential measurements were collected to investigate the local distribution of the sample during migration. While an increase in current signal at high concentrations indicated the presence of DNA samples, initial experiments with methylene blue stained DNA showed a temporal sequence of signals, indicating sample migration along the chip. For the specific detection of a Legionella DNA, a FISH-based detection with a molecular beacon probe was tested on the glass microfiber. A specific region within the 16S rRNA gene of Legionella spp. served as a target. For this detection, suitable reaction conditions and a readout unit had to be set up first. Subsequently, the sensitivity of the probe was tested with the reverse complementary target sequence and the specificity with several DNA fragments that differed from the target sequence. Compared to other DNA sequences of similar length also found in Legionella pneumophila, only the target DNA was specifically detected on the glass microfiber. If a single base exchange is present or if two bases are changed, the probe can no longer distinguish between the DNA targets and non-targets. An analysis with this specificity can be achieved with other methods such as melting point determination, as was also briefly indicated here. The molecular beacon probe could be dried on the glass microfiber and stored at room temperature for more than three months, after which it was still capable of detecting the target sequence. Finally, the feasibility of fiber-based FISH detection for genomic Legionella DNA was tested. Without further processing, the probe was unable to detect its target sequence in the complex genomic DNA. However, after selecting and application of appropriate restriction enzymes, specific detection of Legionella DNA against other aquatic pathogens with similar fragment patterns as Acinetobacter haemolyticus was possible. N2 - Die faserbasierte Mikrofluidik hat in den letzten Jahren viele innovative Entwicklungen erfahren, mit spannenden Beispielen für portable, kostengünstige und einfach zu bedienende Nachweissysteme die bereits in diagnostischen und analytischen Fragestellungen Anwendung finden. In Wasserproben sind Legionellen als Humanpathogene ein ernstzunehmendes Risiko. Eine Infektion erfolgt über das Einatmen legionellenhaltiger Aerosole und kann schwerwiegende Pneumonien hervorrufen oder sogar tödlich verlaufen. Im Falle einer Legionellenkontamination von Wasserführenden Systemen beziehungsweise einer Legionellen-assoziierten Infektion ist es maßbeglich die Quelle der Kontamination möglichst schnell zu finden, um weitere Infektionen zu vermeiden. In der Überwachung von Trink- Prozess- und Abwasser ist die kulturbasierte Methode immer noch die am häufigsten verwendete Technik, um einen Legionellenbefall nachzuweisen. Um Alternativen zu einer laborabhängigen Bestimmung mit ihren langen Analysezeiten von 10-14 Tagen und der ungenauen Messwertausgabe in koloniebildenden Einheiten (KBE) zu finden, bedarf es neuer innovativer Ideen. In allen Anwendungsbereichen, zum Beispiel in öffentlichen, gewerblichen oder privaten Einrichtungen, ist eine schnelle und präzise Analyse erforderlich, idealerweise vor Ort. Im Rahmen dieser Doktorarbeit wurden alle notwendigen Einzelschritte für einen schnellen DNA-basierten Nachweis von Legionellen auf einer faserbasierten, miniaturisierten Plattform entwickelt und charakterisiert. Im ersten Schritt wurde eine schnelle, einfache und geräteunabhängige chemische Lyse der Bakterien und Extraktion der genomischen DNA etabliert. Daraufhin wurden verschiedene Materialien hinsichtlich Ihres unspezifischen DNA-Rückhalts untersucht. Glasfaserfilter erwiesen sich als besonders geeignet, da sie in Kombination mit den geeigneten Puffern eine Rückgewinnung der DNA-Probe aus dem Fasermaterial ermöglichen und für eine fluoreszenzbasierte Auslese eine geringe Autofluoreszenz aufweisen. Eine faserbasierte Elektrophoreseeinheit wurde entwickelt, um durch Anlegen eines elektrischen Feldes verschiedene Oligonukleotide innerhalb einer Fasermatrix zu bewegen. Ein besonderer Vorteil gegenüber Lateral-Flow-Tests ist die Möglichkeit der gezielten Bewegung, auch nachdem die Faser mit Flüssigkeit gesättigt ist. Hierfür wurde der gesamte Prozess der Faserauswahl, der Strukturierung der Faserchips, der Kombination mit gedruckten Elektroden und der Prüfung der Retention und Migration verschiedener DNA-Proben (einzelsträngige, doppelsträngige und genomische DNA) bearbeitet. Die DNA konnte in einem elektrischen Feld von 24 V/cm innerhalb von 5 Minuten über den Faserchip gezogen werden, blieb dabei intakt und konnte für nachfolgende Detektionsnachweise z.B. Polymerase-Ketten-Reaktion (PCR) oder Fluoreszenz in situ Hybridisierung (FISH) genutzt werden. Die Faserelektrophorese konnte außerdem zur Separation der DNA von anderen Komponenten z.B. Proteinen oder Zelllysaten verwendet werden oder um DNA durch mehrere Lagen der Glasfaser zu steuern. Dabei erfuhren verschiedene Fragmente einen moderaten, größenabhängigen Trenneffekt. Außerdem bietet diese Anordnung die Möglichkeit, dass unterschiedliche Nachweisreaktionen zu einem späteren Zeitpunkt in verschiedenen Schichten stattfinden könnten. Strom- und Potentialmessungen wurden erhoben, um die lokale Verteilung der Probe während der Migration zu untersuchen. Während ein Anstieg des Stromsignals bei hohen Konzentrationen die Anwesenheit von DNA-Proben anzeigte, konnten nach ersten Experimenten mit Methylenblau-gefärbter DNA zeitlich aufeinanderfolgende Signale detektiert werden und somit prinzipiell eine Probenmigration nachgewiesen werden. Für den spezifischen Nachweis der Legionellen-DNA wurde ein FISH-basierter Nachweis mit einer molekularen Sonde auf der Glasmikrofaser getestet. Als Ziel für die Sonde diente eine bestimmte Region innerhalb des 16S rRNA-Gens von Legionellen. Für diesen Nachweis mussten zunächst geeignete Reaktionsbedingungen und eine Ausleseeinheit bestimmt werden. Anschließend wurde die Sensitivität der Sonde mit der umgekehrt komplementären Zielsequenz und die Spezifität mit verschiedenen DNA-Fragmenten, die sich von der Zielsequenz unterschieden, getestet. Im Vergleich zu abweichenden DNA-Sequenzen ähnlicher Länge, die auch in Legionella pneumophila vorkommen, wurde nur die Ziel-DNA spezifisch auf der Glasmikrofaser erkannt. Liegt ein einzelner Basenaustausch vor oder werden zwei Basen geändert, so kann die Sonde nicht mehr zwischen der Ziel-DNA und den abweichenden DNA-Fragmenten unterscheiden. Eine Detektion mit dieser Genauigkeit ist mit anderen Methoden wie z.B. der Schmelzpunktbestimmung möglich, wie hier prinzipiell demonstriert wurde. Es wurde ferner gezeigt, dass die Sonde auf der Glasmikrofaser eingetrocknet und über drei Monate bei Raumtemperatur gelagert werden kann und danach immer noch in der Lage ist, die Zielsequenz nachzuweisen. Schließlich wurde die Anwendbarkeit des faserbasierten FISH-Nachweises auch für genomische Legionellen-DNA getestet. Ohne weitere Prozessierung war die Sonde nicht in der Lage ihre Zielsequenz in der komplexen genomischen DNA zu erkennen. Nach der Auswahl und Anwendung geeigneter Restriktionsenzyme war eine spezifische Detektion der Legionellen-DNA gegenüber anderen Wasserkeimen mit ähnlichem Fragmentmuster wie Acinetobacter haemolyticus möglich. KW - Sensor KW - paper-based KW - Legionellen KW - Legionella KW - papier-basiert KW - sensor KW - Detektionssystem KW - detection system KW - Glasfaser KW - glass fiber Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566833 ER - TY - CHAP A1 - Kliegl, Reinhold A1 - Teich, Paula A1 - Granacher, Urs A1 - Fühner, Thea Heidi T1 - Developmental Gains in Physical Fitness Components of Keyage and Older-than-Keyage Third-Graders N2 - Children who were enrolled according to legal enrollment dates (i.e., keyage third-graders aged eight to nine years) exhibit a positive linear physical fitness development (Fühner et al., 2021). However, children who were enrolled with a delay of one year or who repeated a grade (i.e., older-than-keyage children [OTK] aged nine to ten years in third grade) appear to exhibit a poorer physical fitness relative to what could be expected given their chronological age (Fühner et al., 2022). However, because Fühner et al. (2022) compared the performance of OTK children to predicted test scores that were extrapolated based on the data of keyage children, the observed physical fitness of these children could either indicate a delayed physical-fitness development or some physiological or psychological changes occurring during the tenth year of life. We investigate four hypotheses about this effect. (H1) OTK children are biologically younger than keyage children. A formula transforming OTK’s chronological age into a proxy for their biological age brings some of the observed cross-sectional age-related development in line with the predicted age-related development based on the data of keyage children, but large negative group differences remain. Hypotheses 2 to 4 were tested with a longitudinal assessment. (H2) Physiological changes due to biological maturation or psychological factors cause a stagnation of physical fitness development in the tenth year of life. H2 predicts a decline of performance from third to fourth grade also for keyage children. (H3) OTK children exhibit an age-related (temporary) developmental delay in the tenth year of life, but later catch up to the performance of age-matched keyage children. H3 predicts a larger developmental gain for OTK than for keyage children from third to fourth grade. (H4) OTK children exhibit a sustained physical fitness deficit and do not catch up over time. H4 predicts a positive development for keyage and OTK children, with no greater development for OTK compared to keyage children. The longitudinal study was based on a subset of children from the EMOTIKON project (www.uni-potsdam.de/emotikon). The physical fitness (cardiorespiratory endurance [6-minute-run test], coordination [star-run test], speed [20-m sprint test], lower [standing long jump test] and upper [ball push test] limbs muscle power, and balance [one-legged stance test]) of 1,274 children (1,030 keyage and 244 OTK children) from 32 different schools was tested in third grade and retested one year later in fourth grade. Results: (a) Both keyage and OTK children exhibit a positive longitudinal development from third to fourth grade in all six physical fitness components. (b) There is no evidence for a different longitudinal development of keyage and OTK children. (c) Keyage children (approximately 9.5 years in fourth grade) outperform age-matched OTK children (approximately 9.5 years in third grade) in all six physical fitness components. The results show that the physical fitness of OTK children is indeed impaired and are in support of a sustained difference in physical fitness between the groups of keyage and OTK children (H4). KW - Physical Fitness KW - Developmental gains KW - Primary school children KW - EMOTIKON KW - Linear Mixed Models KW - Keyage children KW - Older-than-keyage children Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-560870 N1 - Gewünschte Zitationsform: APA Kliegl, R., Teich, P., Granacher, U., & Fühner, T. (2022). "Developmental Gains in Physical Fitness Components of Keyage and Older-than-Keyage Third-Graders". 54. Jahrestagung der Arbeitsgemeinschaft für Sportpsychologie (asp 2022) in Münster, 2022-06-16 (revised 2022-09-09). ER - TY - THES A1 - Schumacher, Rebecca Simone T1 - Diagnostik erworbener Dyslexien bei deutschsprachigen Personen mit Dyslexie T1 - Diagnosis of acquired dyslexias in German speakers with dyslexia BT - Entwicklung eines modellgeleiteten Testverfahrens zur Differentialdiagnose erworbener Dyslexien (DYMO) & vergleichende Fallstudien BT - development of a model-based test procedure for the differential diagnosis of acquired dyslexia (DYMO) & comparative case studies N2 - Die vorliegende Dissertation verfolgt das Ziel, die diagnostischen Möglichkeiten für das Stö-rungsbild der erworbenen Dyslexie bei deutschsprachigen Personen mit Dyslexie (PmD) zu erweitern und zu spezifizieren. In der Literatur werden verschiedene Sprachverarbeitungsmodelle diskutiert, die den kognitiven Prozess der Schriftsprachverarbeitung zu erklären versuchen. Alle Überlegungen, Erhebungen und Analysen dieser Dissertation fußen auf den theoretischen Annahmen des kognitiven Zwei-Routen-Lesemodells, welches zwischen lexikalisch-semantischer und segmentaler, sub-lexikalischer Verarbeitung beim Lesen unterscheidet und so die voneinander unabhängigen Fähigkeiten zum Lesen bekannter und unbekannter Wörter abbilden kann. Mit dem im Rahmen der Dissertation entwickelten, kognitiv orientierten Diagnostikverfahren DYMO (Dyslexie Mo-dellorientiert) soll durch die Erhebung der Lesefähigkeiten von PmD eine möglichst genaue modelltheoretische Verortung der Lesebeeinträchtigung erreicht und eine Grundlage für die Planung einer lesebezogenen Therapie geschaffen werden. Dabei werden auch Modellkomponenten des Zwei-Routen-Lesemodells berücksichtigt, die bisher im deutschsprachigen Raum noch nicht etabliert sind. Dazu zählen Unterkomponenten der Visuellen Analyse, die für die Identifikation von Buchstaben und das Kodieren von Buchstabenpositionen verantwortlich sind und Unterkomponenten der segmentalen Leseroute, die den einzelheitlichen Leseprozess auf dieser Modellroute schrittweise abbilden. Das Itemmaterial aus DYMO ist nach diversen psycholinguistisch kontrollierten Variablen kontrolliert. Hierbei werden auch Variablen berücksichtigt, die bisher in der Dyslexiediagnostik für deutschsprachige PmD nicht systematisch erfasst werden können, wie die Wortlänge und die graphematische Komplexität von Pseudowörtern. Die erste dieser Dissertation zugrundeliegende Publikation (Originalarbeit I) befasst sich mit den Parametern und Modellkomponenten, die für eine umfassende modelltheoretisch basierte Di-agnostik bei erworbener Dyslexie entscheidend sind. Es werden außerdem Überlegungen zu Fehlertypen-Kategorisierung angestellt. Die zweite Publikation (Originalarbeit II) stellt das Testverfahren DYMO dar. Das dazugehörige Handbuch liefert detaillierte Informationen zum Aufbau und der Konstruktion des Testverfah-rens, zur Durchführung und Auswertung der einzelnen Untertests und zur Einstufung einer Leistung in einen Leistungsbereich. Anhand von ausführlich beschriebenen Fallbeispielen zweier PmD werden die Durchführung, Auswertung, Interpretation und das Ableiten von Therapiezielen dargestellt. Die Ergebnisse dieser Fallbeschreibungen verdeutlichen die diagnostische Ergänzung durch DYMO und zeigen, dass das explizite Untersuchen der Unterkomponenten der Visuellen Analyse und der segmentalen Leseroute sowie der Einbezug der Variablen Wortlänge und gra-phematische Komplexität den Lesebefund spezifizieren und den Therapieeinstieg konkretisieren können. Die dritte Publikation (Originalarbeit III) zeigt in einer systematischen Vergleichsstudie anhand einer Fallserie von zwölf PmD die Unterschiede zwischen dem Diagnostikverfahren DYMO und einem weiteren kognitiv basierten Diagnostikverfahren. Es wird diskutiert, inwieweit DYMO eine sinnvolle Ergänzung im Diagnostikprozess erworbener Dyslexien darstellen kann. Außerdem werden leicht und schwer beeinträchtigte PmD in Gruppenanalysen verglichen, um zu prüfen, ob DYMO insbesondere bei leicht beeinträchtigten PmD eine Ergänzung bieten kann. Aufgrund des komplexeren Itemmaterials von DYMO (beispielsweise aufgrund der Kontrolle der Wortlänge) wurde angenommen, dass leicht beeinträchtigte PmD in DYMO-Untertests auffälligere Leseleistungen zeigen als in Aufgaben des gegenübergestellten anderen Diagnostikverfahrens. Diese Hypothese konnte teilweise bestätigt werden. Leicht beeinträchtigte PmD zeigten häufiger Längeneffekte als schwer beeinträchtigte PmD. Insgesamt fiel der Gruppenunterschied jedoch nicht so deutlich aus, wie erwartet. Mit dem kriteriumsorientiert normierten und finalisierten Material von DYMO wurden 17 PmD getestet. Ausführliche Befunde für jede einzelne PmD mit darauffolgenden Therapieimplikationen zeigen, dass insbesondere die Spezifizierung eines segmentalen Lesedefizits bei einer schwer beeinträchtigten Leistung im Lesen von Pseudowörtern zur erweiterten Aussage bezüglich des modelltheoretischen Störungsortes beitragen kann. Dies verdeutlicht die hohe Aussagekraft der DYMO-Untertests und die Relevanz einer spezifischen und detaillierten modellbasierten Befunderhebung für eine explizite, individuelle Therapieplanung bei erworbenen Dyslexien. N2 - The aim of this dissertation was to expand and specify the diagnostic possibilities for acquired dyslexia in German-speaking people with dyslexia (PwD). In previous studies, various language processing models have been discussed that attempt to explain the cognitive process of written language processing. All considerations and analyses of this dissertation are based on the theoretical assumptions of the cognitive dual-route-model of reading. This model distinguishes between lexical-semantic and segmental, sub-lexical processing in reading and can thus depict the independent abilities to read known and unknown words. The aim of the cognitive-oriented diagnostic assessment tool DYMO (Dyslexia Model-Oriented) that was developed in the context of this dissertation, is an accurate model-theoretical localisation of reading impairments by assessing the reading abilities of PwD and providing a basis for the plan-ning of a reading-related therapy. Model components of the dual-route-model of reading that have not yet been established in German-speaking countries are also taken into account. These include subcomponents of the visual analysis, which are responsible for the identification of letters and the encoding of letter positions, and subcomponents of the segmental reading route, which gradually map the individual reading process on this model route. The item material in DYMO is controlled for various psycholinguistic variables, also taking into account variables that have not yet been systematically assessed in dyslexia diagnostics for German-speaking PwD, such as word length and the graphematic complexity of pseudowords. The first publication in this dissertation (original work I) deals with the parameters and model components that are crucial for a comprehensive model-theory-based diagnosis of acquired dyslexia. It also considers error type categorisation. The second publication (original work II) presents the DYMO assessment tool. The accompany-ing manual provides detailed information on the structure and construction of the test proce-dure, the administration and evaluation of the individual subtests, and the classification of a PwD’s performance into a performance range. Case studies of two PwD are described in detail to illustrate the implementation, evaluation, interpretation, and derivation of therapy goals. The results of these case descriptions illustrate the additional diagnostic benefit of DYMO and show that the explicit examination of the subcomponents of the visual analysis and the segmental reading route as well as the inclusion of the variables word length and graphematic complexity can help in specifying the reading findings and substantiating the therapy intervention. The third publication (original work III) shows the differences between the diagnostic proce-dures DYMO and another model-based diagnostic tool in a systematic comparative study on the basis of a case series of twelve PwD. It is discussed to what extent DYMO can be a useful addi-tion in the diagnostic process of acquired dyslexia. In addition, mildly and severely impaired PwD are compared in group analyses with the aim of examining whether DYMO can offer a more ac-curate diagnosis particularly in mildly impaired PwD. Due to the more complex item material in DYMO it was assumed that mildly impaired PwD would show conspicuous reading performance only in DYMO subtests. This hypothesis was partially confirmed. Length effects were seen more often in mildly impaired PwD compared to severely impaired PwD. Overall, the group differences were not as clear as expected. Seventeen PwD were tested with the criterion-referenced normed and finalised material from DYMO. Detailed findings for each individual PwD with subsequent therapy implications show that especially the specification of a segmental reading deficit in cases of severely impaired per-formance in reading pseudowords can contribute to a more detailed statement regarding thera-py work. Additionally, the inclusion of the variable word length defined the underlying reading impairment for many PwD in this study. This shows the high informative value of the DYMO-subtasks and the importance of an exact model-theoretical localisation of the reading deficit for detailed therapy planning. KW - erworbene Dyslexie KW - Diagnostik KW - Zwei-Routen-Lesemodell KW - acquired dyslexia KW - diagnostic assessment KW - dual-route model of reading Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-554712 ER - TY - JOUR A1 - Partenheimer, Lutz T1 - Die Ansiedlungspolitik der Markgrafen von Brandenburg aus dem Hause der Askanier JF - Hier geblieben? Brandenburg als Einwanderungsland vom Mittelalter bis heute Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-546539 SN - 978-3-86956-506-4 SP - 49 EP - 63 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Zaruba, Nicole A1 - Gronostaj, Anna A1 - Ahlgrimm, Frederik A1 - Vock, Miriam T1 - Die Entwicklung von Lehrkräfteüberzeugungen im Praxissemester BT - Welche Lerngelegenheiten sind aus Studierendensicht relevant? JF - Professionalisierung in Praxisphasen : Ergebnisse der Lehrerbildungsforschung an der Universität Potsdam (Potsdamer Beiträge zur Lehrerbildung und Bildungsforschung ; 2) N2 - Überzeugungen zum Lehren und Lernen sind als Teil der professionellen Kompetenz von Lehrkräften bereits im Lehramtsstudium relevant und haben insbesondere in längeren Praxisphasen Entwicklungspotenzial. Welche Faktoren für die Entwicklung von Überzeugungen in Praxisphasen von Bedeutung sind, ist bislang aber nur unzureichend erforscht. In Interviews haben wir N = 16 Studierende befragt, welche Lerngelegenheiten für die Entwicklung ihrer Überzeugungen im Praxissemester eine Rolle spielten. Dabei konnten wir mittels Inhaltsanalyse vier übergeordnete Faktoren identifizieren: die universitäre Lernbegleitung, die Mentorinnen und Mentoren, die Schülerinnen und Schüler und die Reflexion eigener Unterrichtserfahrungen. Den Faktoren wurden untergeordnete Faktoren (z. B. Hospitationen durch Universitätsdozierende) zugeordnet und es wird dargestellt, warum und unter welchen Umständen diese Lerngelegenheiten für die Entwicklung der Überzeugungen aus Studierendensicht relevant sind. N2 - Beliefs about teaching and learning are part of a teacher’s professional competence. They should, thus, already be considered in teacher preparation as they can evolve, especially in the context of field experience. However, research on the factors that influence the development of teachers’ beliefs during school placement is sparse. We asked N = 16 preservice teachers which learning opportunities they considered relevant for the development of their beliefs in the Praxissemester. Using qualitative content analysis, we identified four main factors: university support, mentors in schools, pupils, and reflection on teaching experiences. We assigned subordinate factors (e. g. accompanying seminars) to the main factors. Subsequently, we describe why and under which circumstances these learning opportunities are relevant for the development of beliefs from the preservice teachers’ point of view. Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-570839 SN - 978-3-86956-508-8 SN - 2626-3556 SN - 2626-4722 IS - 2 SP - 215 EP - 234 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - BOOK A1 - Meinel, Christoph A1 - John, Catrina A1 - Wollowski, Tobias T1 - Die HPI Schul-Cloud – Von der Vision zur digitale Infrastruktur für deutsche Schulen N2 - Digitale Medien sind aus unserem Alltag kaum noch wegzudenken. Einer der zentralsten Bereiche für unsere Gesellschaft, die schulische Bildung, darf hier nicht hintanstehen. Wann immer der Einsatz digital unterstützter Tools pädagogisch sinnvoll ist, muss dieser in einem sicheren Rahmen ermöglicht werden können. Die HPI Schul-Cloud ist dieser Vision gefolgt, die vom Nationalen IT-Gipfel 2016 angestoßen wurde und dem Bericht vorangestellt ist – gefolgt. Sie hat sich in den vergangenen fünf Jahren vom Pilotprojekt zur unverzichtbaren IT-Infrastruktur für zahlreiche Schulen entwickelt. Während der Corona-Pandemie hat sie für viele Tausend Schulen wichtige Unterstützung bei der Umsetzung ihres Bildungsauftrags geboten. Das Ziel, eine zukunftssichere und datenschutzkonforme Infrastruktur zur digitalen Unterstützung des Unterrichts zur Verfügung zu stellen, hat sie damit mehr als erreicht. Aktuell greifen rund 1,4 Millionen Lehrkräfte und Schülerinnen und Schüler bundesweit und an den deutschen Auslandsschulen auf die HPI Schul-Cloud zu. N2 - It is hard to imagine our everyday lives without digital media. One of the most central areas for our society, school education, must not be left behind. Whenever the use of digitally supported tools makes pedagogical sense, it must be possible to enable it within a secure framework. The HPI School Cloud has followed this vision, which was initiated by the 2016 National IT Summit and precedes the report. Over the past five years, it has evolved from a pilot project to an indispensable IT infrastructure for numerous schools. During the Corona pandemic, it provided important support for many thousands of schools in implementing their educational mission. It has thus more than achieved its goal of providing a future-proof and data-protection-compliant infrastructure for digital support of teaching. Currently, around 1.4 million teachers and students nationwide and at German schools abroad access the HPI School Cloud. T3 - Technische Berichte des Hasso-Plattner-Instituts für Digital Engineering an der Universität Potsdam - 144 KW - digitale Infrastruktur für den Schulunterricht KW - digital unterstützter Unterricht KW - Datenschutz-sicherer Einsatz in der Schule KW - Unterricht mit digitalen Medien Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-535860 SN - 978-3-86956-526-2 SN - 1613-5652 SN - 2191-1665 IS - 144 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - JOUR A1 - Kaya, Gizem A1 - Kopshteyn, Georgy T1 - Die Impfpflicht-Debatte auf dem philosophischen Prüfstand JF - MenschenRechtsMagazin : MRM ; Informationen, Meinungen, Analysen Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571541 SN - 1434-2820 VL - 27 IS - 2 SP - 94 EP - 110 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Herrmann, Tanja T1 - Die Loi Blanquer – eine Chance für die deutsch-französische Lehramtsausbildung im Sekundarbereich II? BT - eine Reflexion am Beispiel der Kooperation Mainz-Dijon T2 - MEGA-Schriftenreihe N2 - „Europäische Bildung beginnt in der Schule.“ Gerade in Zeiten einer Renaissance von Nationalismen und einem spürbaren Rechtsruck in Europa scheint diese Maxime wichtiger denn je zu sein. Die umfassendste Möglichkeit, mittel- und langfristig eine europäische Dimension in den Schulen der EU-Mitgliedsstaaten zu verankern, stellt eine binationale oder sogar internationale Lehramtsausbildung dar. Die Einrichtung derartiger Ausbildungen ist jedoch mit hohen Hürden verbunden. Ihre Anzahl ist überschaubar und allein im deutsch-französischen Kontext vorhanden. Hintergrund hierfür sind erstens die nur schwer zu überwindbaren Hindernisse, die sich aus den stark divergierenden Studien-, Rekrutierungs- und Ausbildungssystemen ergeben. Zweitens ist der Lehramtsbereich besonders stark durch Reformen geprägt. Eine Nutzen-Kosten-Analyse der häufig benötigten und ressourcenintensiven Anpassungen von Programmen auf der einen Seite und der geringen Anzahl der Absolventinnen und Absolventen auf der anderen Seite fällt demnach an vielen Universitäten negativ aus. Ein Rückblick auf die seit 2000 bestehenden Bemühungen der Kooperation Mainz-Dijon hinterlässt eine durchmischte Bilanz. Die Gelegenheit, die lehramtsbezogene binationale Ausbildung dieser Kooperation integrierter zu gestalten, bietet die sich derzeit auf französischer Seite vollziehende Neustrukturierung der französischen Lehramtsausbildung. Die Loi Blanquer vom 26. Juli 2019 führt zu einer Annäherung der beiden Systeme und ermöglicht – auch dank bereits bestehender juristischer Instrumente – eine Verkürzung der Ausbildungszeit sowie eine verbesserte Anerkennungspraxis. N2 - « L'éducation européenne commence à l'école. » Cette maxime semble plus importante que jamais, surtout en cette période de renouveau des nationalismes et de virage à droite en Europe. La manière la plus aboutie d'ancrer à moyen et long terme une dimension européenne dans les écoles des États membres de l'UE est la formation binationale, voire internationale, des enseignants. Cependant, la mise en place de ces programmes rencontre des obstacles importants. Ces formations sont peu nombreuses et n’existent que dans le contexte franco-allemand. Cela est dû premièrement aux nombreux obstacles, difficiles à surmonter, résultant de la forte divergence entre les systèmes d’études, de recrutement et de formation. Deuxièmement, la formation des enseignants est un domaine particulièrement touché par les réformes. Par conséquent, les programmes doivent être fréquemment ajustés, ce qui demande beaucoup de ressources, et ne concernent qu’un faible nombre de diplômés. Une analyse coûts-avantages s’avère donc négative dans de nombreuses universités. Un retour sur les efforts de la coopération Mayence-Dijon, réalisés depuis 2000, conduit à un bilan mitigé. La restructuration de la formation des enseignants, qui se déroule actuellement du côté français, offre l'opportunité de rendre cette formation plus intégrée. La Loi Blanquer du 26 juillet 2019 conduit à un rapprochement des deux systèmes et permet – également grâce à des instruments juridiques déjà existants – de raccourcir la période de formation ainsi que d'améliorer la reconnaissance des crédits ECTS. N2 - "European education starts at school". This motto seems more important than ever, especially in times of renewed nationalism and a shift to the right in Europe. The most successful way of anchoring a European dimension in the schools of the EU member states in the mid and long term is through bi-national or even international teacher training. However, there are significant obstacles to the establishment of such programmes. They are few in number and exist only in the Franco-German context. This is due, firstly, to the many obstacles, which are difficult to overcome, resulting from the strong divergence between studies, recruitment and training systems. Secondly, teacher education is an area particularly affected by reforms. Consequently, a benefit-cost analysis of the frequently required and resource-intensive adjustments to programmes on the one hand and the low number of graduates on the other, is negative at many universities. A review of the Mainz-Dijon cooperation efforts since 2000 leads to a mixed picture. The reorganisation of teacher training, which is currently taking place on the French side, offers an opportunity to make teacher training more integrated. The Loi Blanquer of 26 July 2019 brings the two systems closer together and makes it possible – also through already existing legal instruments – to shorten the training period and improve recognition practices. T3 - MEGA-Schriftenreihe - 8 KW - internationale Kooperation KW - Lehramtsausbildung KW - deutsch-französische Zusammenarbeit KW - Franco-German cooperation KW - teacher training KW - international cooperation KW - coopération franco-allemande KW - formation des enseignants KW - coopération internationale Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559423 SN - 2701-391X IS - 8 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Eichel, Benjamin T1 - Die Reform des Gemeinsamen Europäischen Asylsystems T1 - La réforme du régime d'asile européen commun (RAEC) T1 - The reform of the Common European Asylum System (CEAS) BT - Wie sind die Interessen der EU-Mitgliedstaaten hinsichtlich Aufnahme und Verteilung von Geflüchteten und des Grundsatzes der Solidarität zwischen den Mitgliedstaaten zu bewerten und welche Rückschlüsse lassen sich daraus für die Erfolgsaussichten der Reform ziehen? BT - Comment faut-il interpréter les intérêts des États membres de l’UE en ce qui concerne l’accueil et la répartition des réfugiés et le principe de solidarité entre États membres, et quelles conclusions peut-on en tirer sur les perspectives de succès de la réforme ? BT - How are the interests of the EU Member States with regard to the admission and relocation of refugees and the principle of solidarity between the Member States to be assessed and what conclusions can be drawn from this for the potential success of the reform? T2 - MEGA-Schriftenreihe N2 - Die Reform des Gemeinsamen Europäischen Asylsystems (GEAS) ist eine der größten Herausforderungen und eine der drängendsten Aufgaben der EU und ihrer Mitgliedstaaten. Dabei stellt die Frage der „gerechten Lastenteilung“ in der Asyl- und Migrationspolitik den Zusammenhalt der EU auf eine Zerreißprobe. Seit den gescheiterten Verhandlungen über die GEAS-Reform 2016/2017 versuchen die Mitgliedstaaten, einen Ausgleich zwischen den Grundsätzen der Solidarität und Verantwortlichkeit zu finden, wie es Art. 80 AEUV für das GEAS vorgibt. Je nach Interessenlage verbirgt sich dahinter aber ein sehr unterschiedliches Verständnis. Diese Arbeit untersucht die Reformbemühungen beim GEAS nach Vorlage der Kommissionsvorschläge im September 2020 und beleuchtet die divergierenden Interessenlagen der Mitgliedstaaten hinsichtlich Aufnahme und Verteilung von Geflüchteten. Ziel der Arbeit ist, eine Aussage über die Erfolgsaussichten einer Einigung über die Grundsätze der Solidarität und Verantwortung zu treffen. Dazu werden zunächst die Verpflichtungen im Asylrecht basierend auf internationalen Übereinkommen wie der Genfer Flüchtlingskonvention dargestellt. An-schließend werden GEAS und Dublin-System, das dem Ersteinreisestaat die Zuständigkeit für die Asylverfahren zuschreibt, und die Ursachen für sein Scheitern analysiert. Diese Verantwortungsteilung, die zu einer überproportionalen Belastung der Mitgliedstaaten im Süden führt, ist Kristallisationspunkt für Konflikte, gegenseitigen Vorwürfe und Misstrau-en zwischen den Mitgliedstaaten. Infolge einer tatsächlichen Überlastung und teilweise selbst verschuldeten Unmöglichkeit, die GEAS-Verpflichtungen zu erfüllen, rufen die Südstaaten nach Unterstützung aus dem Norden und betreiben teilweise sogar eine Politik des Laissez-Passer. Durch teilweise katastrophale Zustände bei Verfahren, Unterbringung und Versorgung der Geflüchteten entstehen Rückführungshindernisse und Druck auf die Zielstaaten, mehr Solidarität zu leisten. Ausgehend von diesem Befund wird der Bedeutungsgehalt des Solidaritätsprinzips in Art. 80 AEUV in normativer und deskriptiver Hinsicht untersucht. Normativ handelt es sich dabei um eine abstrakte Rechtspflicht zur gegenseitigen Unterstützung, deren Ausgestaltung im politischen Ermessen der Mitgliedstaaten liegt. Deskriptiv kann unter „Solidarität“ der Zweck verstanden werden, dass die Verwirklichung individueller Interessen einer kollektiven Anstrengung bedarf, die wiederum das Gemeinwohl fördert und somit im Interesse aller liegt. Dem folgend müssten alle Mitgliedstaaten ein Interesse an der Bewältigung der Herausforderungen der Migration nach Europa haben. Die Interessen der Mitgliedstaten deuten aber auf etwas anderes hin. Die durch die Ankünfte von Schutzsuchenden aus dem Süden stark belasteten Mittelmeeranrainer wie Griechenland und Italien fordern eine Abkehr vom Dublin-System. Die migrationskritischen Visegrád-Staaten verweigern im Grunde jede Unterstützung bei der Aufnahme und berufen sich darauf, dass sie ihre rechtlichen Verpflichtungen erfüllen. Staaten, die lange Zeit eine liberale Migrationspolitik verfolgten und beliebte Zielländer waren wie Schweden, ringen nach der Migrationskrise 2015/2016 mit sich auf der Suche nach einem migrationspolitischen Kurs, der rechts-populistische Kräfte nicht noch weiter erstarken lässt. Auch die Hauptzielländer Deutschland und Frankreich versuchen den jeweiligen innenpolitischen Diskursen entsprechend, die Sekundärmigration zu verhindern und wollen auf unterschiedliche Weise die Außengrenzstaaten unterstützen, wobei Deutschland die Umverteilung aller unterstützt. Die im September 2020 vorgelegten Vorschläge der Kommission versuchen, den unterschiedlichen Interessen Rechnung zu tragen. Durch die Schaffung eines Grenzverfahrens soll die Anzahl der in die EU einreisenden und zu verteilenden Geflüchteten reduziert werden. Durch Änderung der Dublin-Kriterien soll die Zuständigkeit der potentiellen Zielländer erweitert werden, um die Südländer zu entlasten und der Sekundärmigration entgegenzuwirken. Mit der gleichen Zielrichtung soll auf Grundlage eines neuen Solidaritätsmechanismus eine Umverteilung unbegleiteter Minderjähriger und aus Seenot Geretteter erfolgen. In Krisenzeiten soll daraus eine generelle Umverteilung aller Schutzsuchenden erwachsen, wobei Solidarität weiterhin auf verschiedene Art und Weise geleistet werden können soll. Angesichts der Verhandlungen während der deutschen EU-Ratspräsidentschaft und des er-reichten Zwischenergebnisses besteht Skepsis, dass die Mitgliedstaaten sich bald auf eine GEAS-Reform einigen werden. Dazu liegen die Interessen der Mitgliedstaaten auch hinsichtlich der Solidarität zu weit auseinander. Zudem stellt sich die in Hinblick auf die europäische Integration und die Zukunft der EU besorgniserregende Frage, worin das im Interesse aller liegende Gemeinwohl in der Asylpolitik liegen soll, das die gemeinsame Kraftanstrengung zu einem individuellen Interesse jedes Einzelnen werden lässt. Denn anders als bei der Schaffung des Schengen-Raums als Raum ohne Binnengrenzen sind Wohlstandsgewinne von der Aufnahme Geflüchteter vorerst nicht zu erwarten. N2 - La réforme du régime d'asile européen commun (RAEC) compte parmi les plus grands défis et les tâches les plus urgentes de l’UE et de ses États membres. La question de la « juste répartition des charges » dans la politique d’asile et de migration met la cohésion de l’UE à rude épreuve. Depuis l’échec des négociations sur la réforme du RAEC en 2016/17, les États membres tentent de trouver un équilibre entre les principes de solidarité et de responsabilité que l’article 80 TFUE stipule pour le RAEC. Toutefois, la conception en diffère fortement selon les intérêts en question. Le présent travail analyse les efforts visant à réformer le RAEC suite aux propositions faites par la Commission en septembre 2020, et scrute les divergences d’intérêts entre les États membres concernant l’accueil et la répartition des réfugiés, l’objectif étant de faire un pronostic sur les chances d’aboutir à un accord sur les principes de solidarité et de responsabilité. Dans un premier temps, il s’agira de présenter les obligations en matière de droit d’asile, découlant des accords internationaux tels que la Convention de Genève. Ensuite, le RAEC et le système de Dublin attribuant à l’État de première entrée la responsabilité pour la procédure d’asile seront analysés tout comme les causes de son échec. Cette répartition des responsabilités qui entraîne une charge disproportionnée pour les États membres du Sud, opère comme un catalyseur de conflits, de reproches mutuels et de la méfiance entre les États membres. Les États du Sud demandent le soutien des pays du Nord en raison de leur dépassement réel et de leur incapacité, partiellement créée par eux-mêmes, de remplir les obligations du RAEC, et mènent partiellement même une politique de laissez-passer. Les situations parfois catastrophiques dans les procédures, l’hébergement et la prise en charge des réfugiés font naître des obstacles à l’éloignement et une pression pour plus de solidarité sur les États de destination finale. Ce constat est à la base de l’analyse normative et descriptive concernant l’interprétation à apporter au principe de solidarité énoncé à l’article 80 TFUE. Sur le plan des normes, cette notion englobe une obligation juridique abstraite d’assistance mutuelle dont l’organisation concrète est laissée à la discrétion politique des États membres. Quant à son acception descriptive, la « solidarité » peut être interprétée comme la nécessité de réaliser des intérêts individuels par un effort collectif, qui soutient à son tour le bien-être général et est, par là, dans l’intérêt de tous. Il en découle que tous les États membres devraient avoir intérêt à gérer les défis de la migration vers l’Europe. Les intérêts des États membres révèlent toutefois un autre message. Les pays de la Méditerranée, tels que la Grèce et l’Italie, fortement sollicités par les arrivées de personnes en quête de protection en provenance du Sud, réclament l’abolition du système de Dublin. Les États de Visegrad, réfractaires aux questions de migration, refusent en principe tout soutien pour l’accueil en alléguant déjà remplir leurs obligations légales. Et même les pays qui ont longtemps poursuivi une politique migratoire libérale et qui ont été des pays de destination de prédilection tels que la Suède cherchent une orientation politique, après la crise migratoire de 2015/2016, qui ne ferait pas grandir les voix populistes de l’extrême-droite. La France et l’Allemagne, principaux pays de destination, eux aussi, tentent d’endiguer des mouvements secondaires, tenant à cet égard compte des propos de politique intérieure respectives, et entendent soutenir, sous différentes formes, les États aux frontières extérieures, l’Allemagne défendant le principe de relocalisation. Les propositions de la Commission européenne présentées en septembre 2020 tentent de tenir compte des différents intérêts. L’institution d’une procédure à la frontière viserait à réduire le nombre des réfugiés arrivant dans l’UE et à relocaliser. Le changement des critères de Dublin viserait à élargir la responsabilité des pays de destination potentiels afin de soulager les pays du Sud et de lutter contre les mouvements secondaires. Dans la même ligne d’idées, un nouveau mécanisme de solidarité serait appelé à permettre une relocalisation de mineurs non-accompagnés et des personnes sauvées en mer, ce mécanisme ayant, en temps de crise, vocation à devenir un mécanisme de relocalisation générale de toute personne en quête de protection, la solidarité pouvant être apporté sous diverses formes. À la lumière des négociations menées sous présidence allemande du conseil de l’UE et du résultat intermédiaire obtenu, l’on peut être sceptique que les États membres s’accorderont bientôt sur une réforme du RAEC. Les intérêts des États membres sont trop divergents, aussi pour ce qui est de la solidarité. En outre, se pose une question préoccupante pour l’intégration européenne et l’avenir de l’UE : Où trouverait-on un intérêt général de tous en matière de politique d’asile faisant de l’effort commun un intérêt individuel de chacun ? En effet, contrairement à la création de l’espace Schengen en tant qu’espace sans frontières intérieures, l’accueil de réfugiés ne promet pas des gains de prospérité. N2 - The reform of the Common European Asylum System (CEAS) is one of the greatest challenges and one of the most urgent tasks facing the EU and its member states. In this context, the question of "fair burden-sharing" in asylum and migration policy is putting the cohesion of the EU to the test. Since the failed negotiations on the CEAS reform in 2016/2017, the member states have been trying to find a balance between the principles of solidarity and responsibility, as stipulated by Art. 80 TFEU for the CEAS. Depending on the interests at stake, however, the understanding behind this varies greatly. This paper examines the reform efforts of the CEAS after the presentation of the Commission's proposals in September 2020 and sheds light on the diverging interests of the Member States with regard to the reception and distribution of refugees. The aim of the work is to make a statement about the chances of success of an agreement on the principles of solidarity and responsibility. To this end, the obligations in asylum law based on international conventions such as the Geneva Refugee Convention are first presented. GEAS and the Dublin system, which assigns responsibility for asylum procedures to the first country of entry, and the reasons for its failure are then analysed. This division of responsibility, which leads to a disproportionate burden on member states in the South, is a focal point for conflicts, mutual accusations and mistrust between member states. As a result of an actual overload and partly self-inflicted impossibility to fulfil the CEAS obligations, the Southern states call for support from the North and at the same time pursue a policy of laissez-passer. Partly catastrophic conditions in the procedures, accommodation and care of refugees create obstacles to repatriation and pressure on the destination states to provide more solidarity. Based on this finding, the meaning of the principle of solidarity in Article 80 TFEU is examined from a normative and descriptive perspective. Normatively, it is an abstract legal obligation to provide mutual support, the form of which is left to the political discretion of the Member States. Descriptively, "solidarity" can be understood as the purpose that the realisation of individual interests requires a collective effort, which in turn promotes the common good and is thus in the interest of all. Following this, all member states would have to have an interest in addressing the challenges of migration to Europe. However, the interests of the member states indicate otherwise. The Mediterranean countries such as Greece and Italy, which are heavily burdened by the arrivals of protection seekers from the south, are demanding a departure from the Dublin system. The Visegrád states, which are critical of migration, are basically refusing to provide any support in terms of reception, citing that they are fulfilling their legal obligations. States that for a long time pursued a liberal migration policy and were popular destination countries, such as Sweden, are wrestling with themselves after the migration crisis of 2015/2016 in search of a migration policy course that will not allow right-wing populist forces to grow even stronger. The main target countries, Germany and France, are also trying to prevent secondary migration in line with their respective domestic political discourses and want to support the external border countries in different ways, with Germany supporting the redistribution of all. The Commission's proposals presented in September 2020 attempt to accommodate the different interests. By creating a border procedure, the number of refugees entering the EU and having to be relocated should be reduced. By amending the Dublin criteria, the responsibility of potential countries of destination is to be expanded in order to relieve southern countries and counter secondary migration. With the same goal in mind, a new solidarity mechanism should be used to relocate unaccompanied minors and those rescued from distress at sea. In times of crisis, this should result in a general relocation of all those seeking protection, whereby solidarity can continue to be provided in various ways. In view of the negotiations during the German EU Council Presidency and the interim result achieved, there is scepticism that the member states will soon agree on a CEAS reform. The interests of the member states are too far apart for this, also with regard to solidarity. In addition, the question arises, which is worrying with regard to European integration and the future of the EU, as to what the common good in asylum policy, which is in the interest of all, is supposed to be, which turns the joint effort into an individual interest of each individual. For unlike the creation of the Schengen area as an area without internal borders, no gains in prosperity are to be expected from the admission of refugees for the time being. T3 - MEGA-Schriftenreihe - 7 KW - Migrationspolitik KW - Gemeinsames Europäisches Asylsystem KW - Europäische Union KW - Solidaritätsprinzip KW - Politique migratoire KW - Régime d'asile européen commun KW - Union européenne KW - Principe de solidarité KW - Migration policy KW - Common European Asylum System KW - European Union KW - Principle of solidarity Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-557675 SN - 2701-391X IS - 7 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Kabaali, Daphne T1 - Die Rolle von Street-Level Bureaucrats bei der Erbringung von öffentlichen Leistungen – eine empirische Untersuchung T1 - The role of street-level bureaucrats in the delivery of public services - an empirical study N2 - Die Transformation der öffentlichen Verantwortung im Bereich der sozialen Wohlfahrt führte in den letzten Jahren zu einem gestiegenen Forschungsinteresse an Mitarbeiten-den, die sich an der Schnittstelle zwischen öffentlicher Verwaltung und direktem Kontakt zu Klient*innen befinden. Die vorliegende Arbeit geht am Beispiel der Schulsozialarbeit an Potsdamer Grundschulen der Frage nach, inwieweit Vertrauen in Klient*innen die Nutzung von Ermessensspielräumen durch Schulsozialarbeiter*innen beeinflusst. Das Street-Level Bureaucracy Framework nach Michael Lipsky spannt dabei den theoretischen Rahmen, während qualitative Interviews mit Schulsozialarbei-ter*innen die Basis für die Beantwortung der Forschungsfrage darstellen. Die Ergebnis-se zeigen, dass ein geringeres Maß an Vertrauen in Klient*innen dafür sorgt, dass Schulsozialarbeiter*innen durch Bewältigungsstrategien wie der Rationierung von Res-sourcen und dem gedanklichen Rückzug von Klient*innen versuchen, ihre Arbeitslast zu verringern. Ein höheres Maß an Vertrauen in Klient*innen sorgt hingegen dafür, dass sie ihre Ermessensspielräume zu Gunsten dieser Klient*innen nutzen, zum Beispiel durch das Umgehen von Datenschutzregeln zur effektiveren Fallbearbeitung. N2 - In recent years, the transformation of public accountability in the field of social welfare has led to an increased research interest in employees who, as decision-makers about the allocation of services, find themselves at the interface between public administration and direct contact with clients. Using the example of school social work at Potsdam's elementary schools, this paper examines the extent to which trust in clients influences the use of discretionary powers by school social workers. The street-level bureaucracy framework according to Michael Lipsky provides the theoretical framework, while qualita-tive interviews with school social workers form the basis for answering the research question. The results show that a lower level of trust in clients ensures that school social workers attempt to reduce their workload through coping strategies such as rationing resources and mentally withdrawing from clients. A higher level of trust in clients, on the other hand, ensures that they use their discretionary powers in favor of these clients, for example by circumventing data protection rules for a more effective case processing. T3 - Schriftenreihe für Public und Nonprofit Management - 32 KW - Street-level bureaucrats KW - Vertrauen KW - öffentliche Leistungen KW - Ermessen KW - street-Level bureaucrats KW - trust KW - public services KW - discretion Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-563555 SN - 2190-4561 ER - TY - GEN A1 - Scholz, Carolin A1 - Voigt, Christian C. T1 - Diet analysis of bats killed at wind turbines suggests large-scale losses of trophic interactions T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Agricultural practice has led to landscape simplification and biodiversity decline, yet recently, energy-producing infrastructures, such as wind turbines, have been added to these simplified agroecosystems, turning them into multi-functional energy-agroecosystems. Here, we studied the trophic interactions of bats killed at wind turbines using a DNA metabarcoding approach to shed light on how turbine-related bat fatalities may possibly affect local habitats. Specifically, we identified insect DNA in the stomachs of common noctule bats (Nyctalus noctula) killed by wind turbines in Germany to infer in which habitats these bats hunted. Common noctule bats consumed a wide variety of insects from different habitats, ranging from aquatic to terrestrial ecosystems (e.g., wetlands, farmland, forests, and grasslands). Agricultural and silvicultural pest insects made up about 20% of insect species consumed by the studied bats. Our study suggests that the potential damage of wind energy production goes beyond the loss of bats and the decline of bat populations. Bat fatalities at wind turbines may lead to the loss of trophic interactions and ecosystem services provided by bats, which may add to the functional simplification and impaired crop production, respectively, in multi-functional ecosystems. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1358 KW - bat fatalities KW - biodiversity decline KW - food web KW - green-green dilemma KW - renewable energy KW - wind energy production KW - wind energy-biodiversity KW - conflict Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-591568 SN - 1866-8372 IS - 7 ER - TY - THES A1 - Bäckemo, Johan Dag Valentin T1 - Digital tools and bioinspiration for the implementation in science and medicine T1 - Digitale Werkzeuge und Bioinspiration für die Umsetzung in der Wissenschaft und der Medizin N2 - Diese Doktorarbeit untersucht anhand dreier Beispiele, wie digitale Werkzeuge wie Programmierung, Modellierung, 3D-Konstruktions-Werkzeuge und additive Fertigung in Verbindung mit einer auf Biomimetik basierenden Design\-strategie zu neuen Analysemethoden und Produkten führen können, die in Wissenschaft und Medizin Anwendung finden. Das Verfahren der Funkenerosion (EDM) wird häufig angewandt, um harte Metalle zu verformen oder zu formen, die mit normalen Maschinen nur schwer zu bearbeiten sind. In dieser Arbeit wird eine neuartige Krümmungsanalysemethode als Alternative zur Rauheitsanalyse vorgestellt. Um besser zu verstehen, wie sich die Oberfläche während der Bearbeitungszeit des EDM-Prozesses verändert, wurde außerdem ein digitales Schlagmodell erstellt, das auf einem ursprünglich flachen Substrat Krater auf Erhebungen erzeugte. Es wurde festgestellt, dass ein Substrat bei etwa 10.000 Stößen ein Gleichgewicht erreicht. Die vorgeschlagene Krümmungsanalysemethode hat das Potenzial, bei der Entwicklung neuer Zellkultursubstrate für die Stammzellenforschung eingesetzt zu werden. Zwei Arten, die in dieser Arbeit aufgrund ihrer interessanten Mechanismen analysiert wurden, sind die Venusfliegenfalle und der Bandwurm. Die Venusfliegenfalle kann ihr Maul mit einer erstaunlichen Geschwindigkeit schließen. Der Schließmechanismus kann für die Wissenschaft interessant sein und ist ein Beispiel für ein so genanntes mechanisch bi-stabiles System - es gibt zwei stabile Zustände. Der Bandwurm ist bei Säugetieren meist im unteren Darm zu finden und heftet sich mit seinen Saugnäpfen an die Darmwände. Wenn der Bandwurm eine geeignete Stelle gefunden hat, stößt er seine Haken aus und heftet sich dauerhaft an die Wand. Diese Funktion könnte in der minimalinvasiven Medizin genutzt werden, um eine bessere Kontrolle der Implantate während des Implantationsprozesses zu ermöglichen. Für beide Projekte wurde ein mathematisches Modell, das so genannte Chained Beam Constraint Model (CBCM), verwendet, um das nichtlineare Biegeverhalten zu modellieren und somit vorherzusagen, welche Strukturen ein mechanisch bi-stabiles Verhalten aufweisen könnten. Daraufhin konnten zwei Prototypen mit einem 3D-Drucker gedruckt und durch Experimente veranschaulicht werden, dass sie beide ein bi-stabiles Verhalten aufweisen. Diese Arbeit verdeutlicht das hohe Anwendungspotenzial für neue Analysenmethoden in der Wissenschaft und für neue Medizinprodukte in der minimalinvasiven Medizin. N2 - Biomimicry is the art of mimicking nature to overcome a particular technical or scientific challenge. The approach studies how evolution has found solutions to the most complex problems in nature. This makes it a powerful method for science. In combination with the rapid development of manufacturing and information technologies into the digital age, structures and material that were before thought to be unrealizable can now be created with simple sketch and the touch of a button. This doctoral thesis had as its primary goal to investigate how digital tools, such as programming, modelling, 3D-Design tools and 3D-Printing, with the help from biomimicry, could lead to new analysis methods in science and new medical devices in medicine. The Electrical Discharge Machining (EDM) process is applied commonly to deform or mold hard metals that are difficult to work using normal machinery. A workpiece submerged in an electrolyte is deformed while being in close vicinity to an electrode. When high voltage is put between the workpiece and the electrode it will cause sparks that create cavitations on the substrate which in turn removes material and is flushed away by the electrolyte. Usually, such surfaces are analysed based on roughness, in this work another method using a novel curvature analysis method is presented as an alternative. In addition, to better understand how the surface changes during process time of the EDM process, a digital impact model was created which created craters on ridges on an originally flat substrate. These substrates were then analysed using the curvature analysis method at different processing times of the modelling. It was found that a substrate reaches an equilibrium at around 10000 impacts. The proposed curvature analysis method has potential to be used in the design of new cell culture substrates for stem cell. The Venus flytrap can shut its jaws at an amazing speed. The shutting mechanism may be interesting to use in science and is an example of a so-called mechanical bi-stable system – there are two stable states. In this work two truncated pyramid structures were modelled using a non-linear mechanical model called the Chained Beam Constraint Model (CBCM). The structure with a slope angle of 30 degrees is not bi-stable and the structure with a slope angle of 45 degrees is bi-stable. Developing this idea further by using PEVA, which has a shape-memory effect, the structure which is not bi-stable could be programmed to be bi-stable and then turned off again. This could be used as an energy storage system. Another species which has interesting mechanism is the tapeworm. Some species of this animal has a crown of hooks and suckers located on its side. The parasite commonly is found in mammals in the lower intestine and attaches to the walls by using its suckers. When the tapeworm has found a suitable spot, it ejects its hooks and permanently attaches to the wall. This function could be used in minimally invasive medicine to have better control of implants during the implantation process. By using the CBCM model and a 3D-printer capable of tuning how hard or soft a printed part is, a design strategy was developed to investigate how one could create a device that mimics the tapeworm. In the end a prototype was created which was able attach to a pork loin at an under pressure of 20 kPa and to ejects its hooks at an under pressure of 50 kPa or above. These three projects is an exhibit of how digital tools and biomimicry can be used together to come up with applicable solutions in science and in medicine. KW - bioinspiration KW - non-linear mechanics KW - modelling KW - shape-memory KW - additive manufacturing KW - Bioinspiration KW - nichtlineare Mechanik KW - Modellierung KW - Formgedächtnis KW - additive Fertigung Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-571458 ER - TY - JOUR A1 - Feneberg, Phillip T1 - Digitale Musikmedien und -technologien in der Musiklehrer*innenausbildung an der Universität Potsdam JF - Perspektiven eines fachübergreifenden Musikunterrichts (Potsdamer Schriftenreihe zur Musikpädagogik ; 9) Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-570523 SN - 978-3-86956-535-4 SN - 2196-5080 SN - 1861-8529 IS - 9 SP - 85 EP - 103 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Jiang, Lan T1 - Discovering metadata in data files N2 - It is estimated that data scientists spend up to 80% of the time exploring, cleaning, and transforming their data. A major reason for that expenditure is the lack of knowledge about the used data, which are often from different sources and have heterogeneous structures. As a means to describe various properties of data, metadata can help data scientists understand and prepare their data, saving time for innovative and valuable data analytics. However, metadata do not always exist: some data file formats are not capable of storing them; metadata were deleted for privacy concerns; legacy data may have been produced by systems that were not designed to store and handle meta- data. As data are being produced at an unprecedentedly fast pace and stored in diverse formats, manually creating metadata is not only impractical but also error-prone, demanding automatic approaches for metadata detection. In this thesis, we are focused on detecting metadata in CSV files – a type of plain-text file that, similar to spreadsheets, may contain different types of content at arbitrary positions. We propose a taxonomy of metadata in CSV files and specifically address the discovery of three different metadata: line and cell type, aggregations, and primary keys and foreign keys. Data are organized in an ad-hoc manner in CSV files, and do not follow a fixed structure, which is assumed by common data processing tools. Detecting the structure of such files is a prerequisite of extracting information from them, which can be addressed by detecting the semantic type, such as header, data, derived, or footnote, of each line or each cell. We propose the supervised- learning approach Strudel to detect the type of lines and cells. CSV files may also include aggregations. An aggregation represents the arithmetic relationship between a numeric cell and a set of other numeric cells. Our proposed AggreCol algorithm is capable of detecting aggregations of five arithmetic functions in CSV files. Note that stylistic features, such as font style and cell background color, do not exist in CSV files. Our proposed algorithms address the respective problems by using only content, contextual, and computational features. Storing a relational table is also a common usage of CSV files. Primary keys and foreign keys are important metadata for relational databases, which are usually not present for database instances dumped as plain-text files. We propose the HoPF algorithm to holistically detect both constraints in relational databases. Our approach is capable of distinguishing true primary and foreign keys from a great amount of spurious unique column combinations and inclusion dependencies, which can be detected by state-of-the-art data profiling algorithms. N2 - Schätzungen zufolge verbringen Datenwissenschaftler bis zu 80% ihrer Zeit mit der Erkundung, Bereinigung und Umwandlung ihrer Daten. Ein Hauptgrund für diesen Aufwand ist das fehlende Wissen über die verwendeten Daten, die oft aus unterschiedlichen Quellen stammen und heterogene Strukturen aufweisen. Als Mittel zur Beschreibung verschiedener Dateneigenschaften können Metadaten Datenwissenschaftlern dabei helfen, ihre Daten zu verstehen und aufzubereiten, und so wertvolle Zeit die Datenanalysen selbst sparen. Metadaten sind jedoch nicht immer vorhanden: Zum Beispiel sind einige Dateiformate nicht in der Lage, sie zu speichern; Metadaten können aus Datenschutzgründen gelöscht worden sein; oder ältere Daten wurden möglicherweise von Systemen erzeugt, die nicht für die Speicherung und Verarbeitung von Metadaten konzipiert waren. Da Daten in einem noch nie dagewesenen Tempo produziert und in verschiedenen Formaten gespeichert werden, ist die manuelle Erstellung von Metadaten nicht nur unpraktisch, sondern auch fehleranfällig, so dass automatische Ansätze zur Metadatenerkennung erforderlich sind. In dieser Arbeit konzentrieren wir uns auf die Erkennung von Metadaten in CSV-Dateien - einer Art von Klartextdateien, die, ähnlich wie Tabellenkalkulationen, verschiedene Arten von Inhalten an beliebigen Positionen enthalten können. Wir schlagen eine Taxonomie der Metadaten in CSV-Dateien vor und befassen uns speziell mit der Erkennung von drei verschiedenen Metadaten: Zeile und Zellensemantischer Typ, Aggregationen sowie Primärschlüssel und Fremdschlüssel. Die Daten sind in CSV-Dateien ad-hoc organisiert und folgen keiner festen Struktur, wie sie von gängigen Datenverarbeitungsprogrammen angenommen wird. Die Erkennung der Struktur solcher Dateien ist eine Voraussetzung für die Extraktion von Informationen aus ihnen, die durch die Erkennung des semantischen Typs jeder Zeile oder jeder Zelle, wie z. B. Kopfzeile, Daten, abgeleitete Daten oder Fußnote, angegangen werden kann. Wir schlagen den Ansatz des überwachten Lernens, genannt „Strudel“ vor, um den strukturellen Typ von Zeilen und Zellen zu klassifizieren. CSV-Dateien können auch Aggregationen enthalten. Eine Aggregation stellt die arithmetische Beziehung zwischen einer numerischen Zelle und einer Reihe anderer numerischer Zellen dar. Der von uns vorgeschlagene „Aggrecol“-Algorithmus ist in der Lage, Aggregationen von fünf arithmetischen Funktionen in CSV-Dateien zu erkennen. Da stilistische Merkmale wie Schriftart und Zellhintergrundfarbe in CSV-Dateien nicht vorhanden sind, die von uns vorgeschlagenen Algorithmen die entsprechenden Probleme, indem sie nur die Merkmale Inhalt, Kontext und Berechnungen verwenden. Die Speicherung einer relationalen Tabelle ist ebenfalls eine häufige Verwendung von CSV-Dateien. Primär- und Fremdschlüssel sind wichtige Metadaten für relationale Datenbanken, die bei Datenbankinstanzen, die als reine Textdateien gespeichert werden, normalerweise nicht vorhanden sind. Wir schlagen den „HoPF“-Algorithmus vor, um beide Constraints in relationalen Datenbanken ganzheitlich zu erkennen. Unser Ansatz ist in der Lage, echte Primär- und Fremdschlüssel von einer großen Menge an falschen eindeutigen Spaltenkombinationen und Einschlussabhängigkeiten zu unterscheiden, die von modernen Data-Profiling-Algorithmen erkannt werden können. KW - data preparation KW - metadata detection KW - data wrangling KW - Datenaufbereitung KW - Datentransformation KW - Erkennung von Metadaten Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-566204 ER - TY - GEN A1 - Neuschäfer-Rube, Frank A1 - Pathe-Neuschäfer-Rube, Andrea A1 - Püschel, Gerhard Paul T1 - Discrimination of the Activity of Low-Affinity Wild-Type and High-Affinity Mutant Recombinant BoNT/B by a SIMA Cell-Based Reporter Release Assay T2 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe N2 - Botulinum neurotoxin (BoNT) is used for the treatment of a number of ailments. The activity of the toxin that is isolated from bacterial cultures is frequently tested in the mouse lethality assay. Apart from the ethical concerns inherent to this assay, species-specific differences in the affinity for different BoNT serotypes give rise to activity results that differ from the activity in humans. Thus, BoNT/B is more active in mice than in humans. The current study shows that the stimulus-dependent release of a luciferase from a differentiated human neuroblastoma–based reporter cell line (SIMA-hPOMC1-26-Gluc) was inhibited by clostridial and recombinant BoNT/A to the same extent, whereas both clostridial and recombinant BoNT/B inhibited the release to a lesser extent and only at much higher concentrations, reflecting the low activity of BoNT/B in humans. By contrast, the genetically modified BoNT/B-MY, which has increased affinity for human synaptotagmin, and the BoNT/B protein receptor inhibited luciferase release effectively and with an EC50 comparable to recombinant BoNT/A. This was due to an enhanced uptake into the reporter cells of BoNT/B-MY in comparison to the recombinant wild-type toxin. Thus, the SIMA-hPOMC1-26-Gluc cell assay is a versatile tool to determine the activity of different BoNT serotypes providing human-relevant dose-response data. T3 - Zweitveröffentlichungen der Universität Potsdam : Mathematisch-Naturwissenschaftliche Reihe - 1257 KW - cell-based assay KW - genetically modified BoNT KW - BoNT/B uptake Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-558032 SN - 1866-8372 SP - 1 EP - 11 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Kürschner, Tobias T1 - Disease transmission and persistence in dynamic landscapes T1 - Krankheitsübertragung und Persistenz in dynamischen Landschaft N2 - Infectious diseases are an increasing threat to biodiversity and human health. Therefore, developing a general understanding of the drivers shaping host-pathogen dynamics is of key importance in both ecological and epidemiological research. Disease dynamics are driven by a variety of interacting processes such as individual host behaviour, spatiotemporal resource availability or pathogen traits like virulence and transmission. External drivers such as global change may modify the system conditions and, thus, the disease dynamics. Despite their importance, many of these drivers are often simplified and aggregated in epidemiological models and the interactions among multiple drivers are neglected. In my thesis, I investigate disease dynamics using a mechanistic approach that includes both bottom-up effects - from landscape dynamics to individual movement behaviour - as well as top-down effects - from pathogen virulence on host density and contact rates. To this end, I extended an established spatially explicit individual-based model that simulates epidemiological and ecological processes stochastically, to incorporate a dynamic resource landscape that can be shifted away from the timing of host population-dynamics (chapter 2). I also added the evolution of pathogen virulence along a theoretical virulence-transmission trade-off (chapter 3). In chapter 2, I focus on bottom-up effects, specifically how a temporal shift of resource availability away from the timing of biological events of host-species - as expected under global change - scales up to host-pathogen interactions and disease dynamics. My results show that the formation of temporary disease hotspots in combination with directed individual movement acted as key drivers for pathogen persistence even under highly unfavourable conditions for the host. Even with drivers like global change further increasing the likelihood of unfavourable interactions between host species and their environment, pathogens can continue to persist with heir hosts. In chapter 3, I demonstrate that the top-down effect caused by pathogen-associated mortality on its host population can be mitigated by selection for lower virulent pathogen strains when host densities are reduced through mismatches between seasonal resource availability and host life-history events. I chapter 4, I combined parts of both theoretical models into a new model that includes individual host movement decisions and the evolution of pathogenic virulence to simulate pathogen outbreaks in realistic landscapes. I was able to match simulated patterns of pathogen spread to observed patterns from long-term outbreak data of classical swine fever in wild boar in Northern Germany. The observed disease course was best explained by a simulated high virulent strain, whereas sampling schemes and vaccination campaigns could explain differences in the age-distribution of infected hosts. My model helps to understand and disentangle how the combination of individual decision making and evolution of virulence can act as important drivers of pathogen spread and persistence. As I show across the chapters of this thesis, the interplay of both bottom-up and top-down processes is a key driver of disease dynamics in spatially structured host populations, as they ultimately shape host densities and contact rates among moving individuals. My findings are an important step towards a paradigm shift in disease ecology away from simplified assumptions towards the inclusion of mechanisms, such as complex multi-trophic interactions, and their feedbacks on pathogen spread and disease persistence. The mechanisms presented here should be at the core of realistic predictive and preventive epidemiological models. N2 - Infektionskrankheiten stellen eine zunehmende Bedrohung für die biologische Vielfalt und die menschliche Gesundheit dar. Daher ist es sowohl für die epidemiologische als auch für die ökologische Forschung von zentraler Bedeutung, ein allgemeines Verständnis der Mechanismen, die die Wirts-Pathogen-Dynamik beeinflussen, zu entwickeln. Die Krankheitsausbrüche werden durch eine Vielzahl von interagierenden Prozessen angetrieben, wie unter anderem individuellem Wirtsverhalten, Ressourcenverfügbarkeit oder Erregermerkmale wie Virulenz. Externe Faktoren wie der globale Wandel können grundlegende Veränderungen dieser Prozesse verursachen und sich damit auch auf Krankheitsdynamiken auswirken. Trotz ihrer Bedeutung für Krankheitsausbrüche werden viele dieser Faktoren in epidemiologischen Modellen oft vereinfacht und die Wechselwirkungen zwischen den Faktoren vernachlässigt. In Anbetracht dessen, ist es sowohl für die ökologische als auch für die epidemiologische Forschung von zentraler Bedeutung, ein allgemeines Verständnis dafür zu entwickeln, wie mehrere interagierende Prozesse Wirts-Pathogen-Interaktionen beeinflussen können. In meiner Dissertation untersuche ich die Krankheitsdynamik mittels eines mechanistischen Ansatzes, der sowohl Bottom-up-Effekte - von der Landschaftsdynamik bis zum individuellen Bewegungsverhalten - als auch Top-down-Effekte - von der Virulenz des Erregers auf die Wirtsdichte und die Kontaktraten - berücksichtigt. Zu diesem Zweck habe ich ein etabliertes, räumlich explizites, Individuen basiertes Modell, das epidemiologische und ökologische Prozesse stochastisch simuliert, um eine dynamische Ressourcenlandschaft erweitert, die zeitlich mit der Populationsdynamik der Wirte verschoben werden kann (Kapitel 2). Zusätzlich habe ich die Evolution der Virulenz von Krankheitserregern entlang eines theoretischen Verhältnisses zwischen Virulenz und Übertragung hinzugefügt (Kapitel 3). In Kapitel 2 konzentriere ich mich auf Bottom-up-Effekte, insbesondere auf die Frage, wie sich eine zeitliche Verschiebung der Ressourcenverfügbarkeit weg vom Zeitpunkt biologischer Ereignisse der Wirtsarten - wie sie im Rahmen des globalen Wandels erwartet wird - auf die Wirt-Pathogen-Interaktionen und Krankheitsdynamiken auswirkt. Meine Ergebnisse zeigen, dass die Bildung vorübergehender Krankheitsherde in Kombination mit gezielter individueller Wirtsbewegung als Schlüsselfaktoren für die Persistenz von Krankheitserregern selbst unter äußerst ungünstigen Bedingungen für den Wirt fungieren. Selbst wenn Faktoren wie der globale Wandel die Wahrscheinlichkeit ungünstiger Wechselwirkungen zwischen Wirtsarten und ihrer Umwelt weiter erhöhen, können Krankheitserreger weiterhin in ihren Wirten persistieren. In Kapitel 3 zeige ich, dass der Top-Down-Effekt, der durch die pathogen-assoziierte Mortalität verursacht wird, durch eine evolutionäre Selektion auf weniger virulente Erregerstämme abgeschwächt werden kann, wenn die Wirtsdichte durch eine zeitliche Verschiebung von saisonaler Ressourcenverfügbarkeit und dem Zeitpunkt von biologischen Ereignissen der Wirtsarten reduziert wird. In Kapitel 4 habe ich Teile der beiden theoretischen Modelle zu einem neuen Modell kombiniert, das individuelle Wirtsbewegungen und die Entwicklung der Virulenz von Krankheitserregern einbezieht, um Ausbrüche von Krankheitserregern in realistischen Landschaften zu simulieren. Es gelang mir, die simulierten Muster der Krankheitsausbreitung mit beobachteten Mustern von Langzeitausbrüchen der klassischen Schweinepest in Wildschweinen in Norddeutschland abzugleichen. Der beobachtete Krankheitsverlauf ließ sich am besten durch einen simulierten hochvirulenten Stamm erklären, während das Design der Probenentnahmen und Impfkampagnen Unterschiede in der Altersverteilung der infizierten Wirte erklären könnten. Mein Modell trägt dazu bei, zu verstehen, wie die Kombination aus individueller Bewegung und der Evolution von Virulenz als wichtige Treiber für die Ausbreitung und Persistenz des Erregers wirken können. Wie ich in den Kapiteln dieser Arbeit zeige, ist das Zusammenspiel von Bottom-up- und Top-down-Prozessen ein entscheidender Faktor für die Krankheitsdynamik in Wirtspopulationen, da sie letztlich die Wirtsdichte und den Kontakt zwischen sich bewegenden Individuen bestimmen. Meine Ergebnisse sind ein wichtiger Schritt auf dem Weg zu einem Paradigmenwechsel in der Krankheitsökologie, weg von vereinfachten Annahmen hin zur Einbeziehung von komplexen Interaktionen und deren Rückkopplungen auf die Ausbreitung und Persistenz von Krankheitserregern. Die hier vorgestellten Mechanismen sollten den Kern realistischer Vorhersage- und Präventivmodelle für die Epidemiologie bilden. KW - disease ecology KW - movement ecology KW - Krankheitsökologie KW - Bewegungsökologie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-564689 ER - TY - GEN A1 - Stone, Kate A1 - Vasishth, Shravan A1 - Malsburg, Titus von der T1 - Does entropy modulate the prediction of German long-distance verb particles? T2 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe N2 - In this paper we examine the effect of uncertainty on readers’ predictions about meaning. In particular, we were interested in how uncertainty might influence the likelihood of committing to a specific sentence meaning. We conducted two event-related potential (ERP) experiments using particle verbs such as turn down and manipulated uncertainty by constraining the context such that readers could be either highly certain about the identity of a distant verb particle, such as turn the bed […] down, or less certain due to competing particles, such as turn the music […] up/down. The study was conducted in German, where verb particles appear clause-finally and may be separated from the verb by a large amount of material. We hypothesised that this separation would encourage readers to predict the particle, and that high certainty would make prediction of a specific particle more likely than lower certainty. If a specific particle was predicted, this would reflect a strong commitment to sentence meaning that should incur a higher processing cost if the prediction is wrong. If a specific particle was less likely to be predicted, commitment should be weaker and the processing cost of a wrong prediction lower. If true, this could suggest that uncertainty discourages predictions via an unacceptable cost-benefit ratio. However, given the clear predictions made by the literature, it was surprisingly unclear whether the uncertainty manipulation affected the two ERP components studied, the N400 and the PNP. Bayes factor analyses showed that evidence for our a priori hypothesised effect sizes was inconclusive, although there was decisive evidence against a priori hypothesised effect sizes larger than 1μV for the N400 and larger than 3μV for the PNP. We attribute the inconclusive finding to the properties of verb-particle dependencies that differ from the verb-noun dependencies in which the N400 and PNP are often studied. T3 - Zweitveröffentlichungen der Universität Potsdam : Humanwissenschaftliche Reihe - 785 Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-562312 SN - 1866-8364 SP - 1 EP - 25 PB - Universitätsverlag Potsdam CY - Potsdam ER -