Refine
Year of publication
- 2017 (303) (remove)
Document Type
- Doctoral Thesis (303) (remove)
Keywords
- Klimawandel (4)
- climate change (4)
- FRET (3)
- Nanopartikel (3)
- Adipositas (2)
- Arbeitsmarktpolitik (2)
- Bioraffinerie (2)
- Calciumphosphat (2)
- DNA origami (2)
- Depression (2)
Institute
- Institut für Biochemie und Biologie (51)
- Institut für Chemie (35)
- Institut für Geowissenschaften (28)
- Institut für Physik und Astronomie (26)
- Institut für Ernährungswissenschaft (17)
- Öffentliches Recht (17)
- Sozialwissenschaften (16)
- Wirtschaftswissenschaften (16)
- Department Psychologie (10)
- Historisches Institut (10)
Heutzutage ist es üblich, die Ehre als einen obsoleten Begriff zu betrachten, der nur einem archaischen Denkmodell zuzuordnen ist und keine handlungsprägende Größe in der Gegenwartsgesellschaft darstellt. Die Ehrenmorde, die heute noch in unterschiedlichen Teilen der Welt verübt werden, scheinen diese Behauptung zu bestätigen. In diesem Buch wird jedoch die These vertreten, dass nicht der Ehrbegriff, sondern seine Deutungen archaischer Natur und daher in Frage zu stellen sind. Die Ehre ist die Bezeichnung des sozialen Werts eines Menschen, den er infolge seiner achtenswerten Handlungen erlangt. Also kann sie kein Motiv für moralisch fragwürdige Praktiken bilden. Vor diesem Hintergrund werden die Formen und die Voraussetzungen der Ehre dargestellt, die sowohl in Bezug auf unsere Zeit anpassungsfähig als auch ethisch tragbar sind.
Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt.
In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt.
Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt.
With recent advances in the area of information extraction, automatically extracting structured information from a vast amount of unstructured textual data becomes an important task, which is infeasible for humans to capture all information manually. Named entities (e.g., persons, organizations, and locations), which are crucial components in texts, are usually the subjects of structured information from textual documents. Therefore, the task of named entity mining receives much attention. It consists of three major subtasks, which are named entity recognition, named entity linking, and relation extraction.
These three tasks build up an entire pipeline of a named entity mining system, where each of them has its challenges and can be employed for further applications. As a fundamental task in the natural language processing domain, studies on named entity recognition have a long history, and many existing approaches produce reliable results. The task is aiming to extract mentions of named entities in text and identify their types. Named entity linking recently received much attention with the development of knowledge bases that contain rich information about entities. The goal is to disambiguate mentions of named entities and to link them to the corresponding entries in a knowledge base. Relation extraction, as the final step of named entity mining, is a highly challenging task, which is to extract semantic relations between named entities, e.g., the ownership relation between two companies.
In this thesis, we review the state-of-the-art of named entity mining domain in detail, including valuable features, techniques, evaluation methodologies, and so on. Furthermore, we present two of our approaches that focus on the named entity linking and relation extraction tasks separately.
To solve the named entity linking task, we propose the entity linking technique, BEL, which operates on a textual range of relevant terms and aggregates decisions from an ensemble of simple classifiers. Each of the classifiers operates on a randomly sampled subset of the above range. In extensive experiments on hand-labeled and benchmark datasets, our approach outperformed state-of-the-art entity linking techniques, both in terms of quality and efficiency.
For the task of relation extraction, we focus on extracting a specific group of difficult relation types, business relations between companies. These relations can be used to gain valuable insight into the interactions between companies and perform complex analytics, such as predicting risk or valuating companies. Our semi-supervised strategy can extract business relations between companies based on only a few user-provided seed company pairs. By doing so, we also provide a solution for the problem of determining the direction of asymmetric relations, such as the ownership_of relation. We improve the reliability of the extraction process by using a holistic pattern identification method, which classifies the generated extraction patterns. Our experiments show that we can accurately and reliably extract new entity pairs occurring in the target relation by using as few as five labeled seed pairs.
Information on the contemporary in-situ stress state of the earth’s crust is essential for geotechnical applications and physics-based seismic hazard assessment. Yet, stress data records for a data point are incomplete and their availability is usually not dense enough to allow conclusive statements. This demands a thorough examination of the in-situ stress field which is achieved by 3D geomechanicalnumerical models. However, the models spatial resolution is limited and the resulting local stress state is subject to large uncertainties that confine the significance of the findings. In addition, temporal variations of the in-situ stress field are naturally or anthropogenically induced. In my thesis I address these challenges in three manuscripts that investigate (1) the current crustal stress field orientation, (2) the 3D geomechanical-numerical modelling of the in-situ stress state, and (3) the phenomenon of injection induced temporal stress tensor rotations. In the first manuscript I present the first comprehensive stress data compilation of Iceland with 495 data records. Therefore, I analysed image logs from 57 boreholes in Iceland for indicators of the orientation of the maximum horizontal stress component. The study is the first stress survey from different kinds of stress indicators in a geologically very young and tectonically active area of an onshore spreading ridge. It reveals a distinct stress field with a depth independent stress orientation even very close to the spreading centre. In the second manuscript I present a calibrated 3D geomechanical-numerical modelling approach of the in-situ stress state of the Bavarian Molasse Basin that investigates the regional (70x70x10km³) and local (10x10x10km³) stress state. To link these two models I develop a multi-stage modelling approach that provides a reliable and efficient method to derive from the larger scale model initial and boundary conditions for the smaller scale model. Furthermore, I quantify the uncertainties in the models results which are inherent to geomechanical-numerical modelling in general and the multi-stage approach in particular. I show that the significance of the models results is mainly reduced due to the uncertainties in the material properties and the low number of available stress magnitude data records for calibration. In the third manuscript I investigate the phenomenon of injection induced temporal stress tensor rotation and its controlling factors. I conduct a sensitivity study with a 3D generic thermo-hydro-mechanical model. I show that the key control factors for the stress tensor rotation are the permeability as the decisive factor, the injection rate, and the initial differential stress. In particular for enhanced geothermal systems with a low permeability large rotations of the stress tensor are indicated. According to these findings the estimation of the initial differential stress in a reservoir is possible provided the permeability is known and the angle of stress rotation is observed. I propose that the stress tensor rotations can be a key factor in terms of the potential for induced seismicity on pre-existing faults due to the reorientation of the stress field that changes the optimal orientation of faults.
Self-adaptive data quality
(2017)
Carrying out business processes successfully is closely linked to the quality of the data inventory in an organization. Lacks in data quality lead to problems: Incorrect address data prevents (timely) shipments to customers. Erroneous orders lead to returns and thus to unnecessary effort. Wrong pricing forces companies to miss out on revenues or to impair customer satisfaction. If orders or customer records cannot be retrieved, complaint management takes longer. Due to erroneous inventories, too few or too much supplies might be reordered.
A special problem with data quality and the reason for many of the issues mentioned above are duplicates in databases. Duplicates are different representations of same real-world objects in a dataset. However, these representations differ from each other and are for that reason hard to match by a computer. Moreover, the number of required comparisons to find those duplicates grows with the square of the dataset size. To cleanse the data, these duplicates must be detected and removed. Duplicate detection is a very laborious process. To achieve satisfactory results, appropriate software must be created and configured (similarity measures, partitioning keys, thresholds, etc.). Both requires much manual effort and experience.
This thesis addresses automation of parameter selection for duplicate detection and presents several novel approaches that eliminate the need for human experience in parts of the duplicate detection process.
A pre-processing step is introduced that analyzes the datasets in question and classifies their attributes semantically. Not only do these annotations help understanding the respective datasets, but they also facilitate subsequent steps, for example, by selecting appropriate similarity measures or normalizing the data upfront. This approach works without schema information.
Following that, we show a partitioning technique that strongly reduces the number of pair comparisons for the duplicate detection process. The approach automatically finds particularly suitable partitioning keys that simultaneously allow for effective and efficient duplicate retrieval. By means of a user study, we demonstrate that this technique finds partitioning keys that outperform expert suggestions and additionally does not need manual configuration. Furthermore, this approach can be applied independently of the attribute types.
To measure the success of a duplicate detection process and to execute the described partitioning approach, a gold standard is required that provides information about the actual duplicates in a training dataset. This thesis presents a technique that uses existing duplicate detection results and crowdsourcing to create a near gold standard that can be used for the purposes above. Another part of the thesis describes and evaluates strategies how to reduce these crowdsourcing costs and to achieve a consensus with less effort.
To what extent cities can be made sustainable under the mega-trends of urbanization and climate change remains a matter of unresolved scientific debate. Our inability in answering this question lies partly in the deficient knowledge regarding pivotal humanenvironment interactions. Regarded as the most well documented anthropogenic climate modification, the urban heat island (UHI) effect – the warmth of urban areas relative to the rural hinterland – has raised great public health concerns globally. Worse still, heat waves are being observed and are projected to increase in both frequency and intensity, which further impairs the well-being of urban dwellers. Albeit with a substantial increase in the number of publications on UHI in the recent decades, the diverse urban-rural definitions applied in previous studies have remarkably hampered the general comparability of results achieved. In addition, few studies have attempted to synergize the land use data and thermal remote sensing to systematically assess UHI and its contributing factors.
Given these research gaps, this work presents a general framework to systematically quantify the UHI effect based on an automated algorithm, whereby cities are defined as clusters of maximum spatial continuity on the basis of land use data, with their rural hinterland being defined analogously. By combining land use data with spatially explicit surface skin temperatures from satellites, the surface UHI intensity can be calculated in a consistent and robust manner. This facilitates monitoring, benchmarking, and categorizing UHI intensities for cities across scales. In light of this innovation, the relationship between city size and UHI intensity has been investigated, as well as the contributions of urban form indicators to the UHI intensity.
This work delivers manifold contributions to the understanding of the UHI, which have complemented and advanced a number of previous studies. Firstly, a log-linear relationship between surface UHI intensity and city size has been confirmed among the 5,000 European cities. The relationship can be extended to a log-logistic one, when taking a wider range of small-sized cities into account. Secondly, this work reveals a complex interplay between UHI intensity and urban form. City size is found to have the strongest influence on the UHI intensity, followed by the fractality and the anisometry. However, their relative contributions to the surface UHI intensity depict a pronounced regional heterogeneity, indicating the importance of considering spatial patterns of UHI while implementing UHI adaptation measures.
Lastly, this work presents a novel seasonality of the UHI intensity for individual clusters in the form of hysteresis-like curves, implying a phase shift between the time series of UHI intensity and background temperatures. Combining satellite observation and urban boundary layer simulation, the seasonal variations of UHI are assessed from both screen and skin levels. Taking London as an example, this work ascribes the discrepancies between the seasonality observed at different levels mainly to the peculiarities of surface skin temperatures associated with the incoming solar radiation. In addition, the efforts in classifying cities according to their UHI characteristics highlight the important role of regional climates in determining the UHI.
This work serves as one of the first studies conducted to systematically and statistically scrutinize the UHI. The outcomes of this work are of particular relevance for the overall spatial planning and regulation at meso- and macro levels in order to harness the benefits of rapid urbanization, while proactively minimizing its ensuing thermal stress.
Bewaffnete Intellektuelle
(2017)
Auf der Suche nach der geheimen Herrschaftslehre der Nazis begibt sich Michael Zantke in eine tiefe und umfassende Auseinandersetzung mit den geistigen Wurzeln des Nationalsozialismus. Er beleuchtet die Diskussionen in Deutschland um Machiavelli und überprüft die Texte auf ihren Bezug zur Gegenwart des Nationalsozialismus. Dabei gelingt es ihm, die politische Rolle der Intellektuellen im „Dritten Reich“ und die Unterschiede zwischen Nationalsozialismus, Faschismus und Konservativer Revolution herauszuarbeiten. Diese Nuancen sind nicht nur historisch bedeutungsvoll, sie sind auch für die heutige Diskussion über Rechtsnationalismus, Rechtsradikalismus und die Neue Rechte von Nutzen.
Conformational transition of peptide-functionalized cryogels enabling shape-memory capability
(2017)
Exploring the Arabidopsis metabolic landscape by genetic mapping integrated with network analysis
(2017)
Die zerstörungsfreien Prüfungen von Bauwerken mit Hilfe von Ultraschallmessverfahren haben in den letzten Jahren an Bedeutung gewonnen. Durch Ultraschallmessungen können die Geometrien von Bauteilen bestimmt sowie von außen nicht sichtbare Fehler wie Delaminationen und Kiesnester erkannt werden.
Mit neuartigen, in das Betonbauteil eingebetteten Ultraschallprüfköpfen sollen nun Bauwerke dauerhaft auf Veränderungen überprüft werden. Dazu werden Ultraschallsignale direkt im Inneren eines Bauteils erzeugt, was die Möglichkeiten der herkömmlichen Methoden der Bauwerksüberwachung wesentlich erweitert. Ein Ultraschallverfahren könnte mit eingebetteten Prüfköpfen ein Betonbauteil kontinuierlich integral überwachen und damit auch stetig fortschreitende Gefügeänderungen, wie beispielsweise Mikrorisse, registrieren.
Sicherheitsrelevante Bauteile, die nach dem Einbau für Messungen unzugänglich oder mittels Ultraschall, beispielsweise durch zusätzliche Beschichtungen der Oberfläche, nicht prüfbar sind, lassen sich mit eingebetteten Prüfköpfen überwachen. An bereits vorhandenen Bauwerken können die Ultraschallprüfköpfe mithilfe von Bohrlöchern und speziellem Verpressmörtel auch nachträglich in das Bauteil integriert werden. Für Fertigbauteile bieten sich eingebettete Prüfköpfe zur Herstellungskontrolle sowie zur Überwachung der Baudurchführung als Werkzeug der Qualitätssicherung an. Auch die schnelle Schadensanalyse eines Bauwerks nach Naturkatastrophen, wie beispielsweise einem Erdbeben oder einer Flut, ist denkbar.
Durch die gute Ankopplung ermöglichen diese neuartigen Prüfköpfe den Einsatz von empfindlichen Auswertungsmethoden, wie die Kreuzkorrelation, die Coda-Wellen-Interferometrie oder die Amplitudenauswertung, für die Signalanalyse. Bei regelmäßigen Messungen können somit sich anbahnende Schäden eines Bauwerks frühzeitig erkannt werden.
Da die Schädigung eines Bauwerks keine direkt messbare Größe darstellt, erfordert eine eindeutige Schadenserkennung in der Regel die Messung mehrerer physikalischer Größen die geeignet verknüpft werden. Physikalische Größen können sein: Ultraschalllaufzeit, Amplitude des Ultraschallsignals und Umgebungstemperatur. Dazu müssen Korrelationen zwischen dem Zustand des Bauwerks, den Umgebungsbedingungen und den Parametern des gemessenen Ultraschallsignals untersucht werden.
In dieser Arbeit werden die neuartigen Prüfköpfe vorgestellt. Es wird beschrieben, dass sie sich, sowohl in bereits errichtete Betonbauwerke als auch in der Konstruktion befindliche, einbauen lassen. Experimentell wird gezeigt, dass die Prüfköpfe in mehreren Ebenen eingebettet sein können da ihre Abstrahlcharakteristik im Beton nahezu ungerichtet ist. Die Mittenfrequenz von rund 62 kHz ermöglicht Abstände, je nach Betonart und SRV, von mindestens 3 m zwischen Prüfköpfen die als Sender und Empfänger arbeiten. Die Empfindlichkeit der eingebetteten Prüfköpfe gegenüber Veränderungen im Beton wird an Hand von zwei Laborexperimenten gezeigt, einem Drei-Punkt-Biegeversuch und einem Versuch zur Erzeugung von Frost-Tau-Wechsel Schäden. Die Ergebnisse werden mit anderen zerstörungsfreien Prüfverfahren verglichen. Es zeigt sich, dass die Prüfköpfe durch die Anwendung empfindlicher Auswertemethoden, auftretende Risse im Beton detektieren, bevor diese eine Gefahr für das Bauwerk darstellen. Abschließend werden Beispiele von Installation der neuartigen Ultraschallprüfköpfe in realen Bauteilen, zwei Brücken und einem Fundament, gezeigt und basierend auf dort gewonnenen ersten Erfahrungen ein Konzept für die Umsetzung einer Langzeitüberwachung aufgestellt.
Durch Art. 20 Abs. 1 des Grundgesetzes wird die Bundesrepublik Deutschland als demokratischer und sozialer Bundesstaat insbesondere dem Föderalismus verpflichtet. Er ist neben der Demokratie eine der Säulen unseres Staatswesens. Im Bewusstsein dieser Grundentscheidung unserer Verfassung fällt mit Art. 115f Abs. 1 Nr. 2 GG eine Vorschrift auf, die hiervon im Verteidigungsfall eine weitreichende Ausnahme zu ermöglichen scheint. Die Bundesregierung soll dann unter bestimmten Voraussetzungen außer der Bundesverwaltung auch den Landesregierungen und Landesbehörden Weisungen erteilen können. Es stellt sich in Anbetracht eines solchen Ausnahmerechts die Frage, wie sich dieses Weisungsrecht der Bundesregierung in unser Rechtssystem einfügt.
Der Autor nähert sich dieser Frage zunächst über die geschichtlichen Hintergründe, die zur Einfügung der Vorschrift geführt haben. Er geht detailliert auf die Voraussetzungen dieses Weisungsrechts der Bundesregierung ein und stellt es in seinen systematischen Zusammenhang. Neben einer Darstellung des Weisungsbegriffs als Möglichkeit der Einflussnahme auf die Bundesverwaltung und die Länder, werden auch die damit umschriebenen Weisungsadressaten näher untersucht. Auch den Fragen, welchen Gegenstand Weisungen nach dieser Vorschrift haben können, wie sie zu erlassen sind und welche Wirkungen sich aus ihnen ergeben, wird in der Untersuchung detailreich nachgegangen. Daneben behandelt der Autor die sich daraus ergebenden Anschlussfragen, welcher Rechtsschutz gegen derartige Weisungen besteht, wer damit verbundene Aufgaben zu finanzieren hat und wer für eventuelle Schäden zu haften hat. Das Werk schließt mit einer Erörterung, ob es sich bei dieser Vorschrift um eine verfassungswidrige Verfassungsnorm handelt, und einem Blick auf internationale Vorschriften, die Einfluss auf das Weisungsrecht nehmen könnten.
Bei der Autorin Judith Hermann handelt es sich um eine sehr resonanzträchtige Autorin, der in der Vergangenheit eine phänomenale Aufmerksamkeit zuteil wurde und die es schaffte, sich erfolgreich auf dem Marktplatz Literatur zu positionieren und zur Bestsellerautorin zu avancieren.
Die vorliegende Studie verfolgt das Ziel, der Marke Judith Hermann auf die Spur zu kommen und die höchst unterschiedlichen Facetten der Erfolgsgeschichte zu rekonstruieren.
Juliane Witzke analysiert dazu detailliert die peri- und epitextuellen Praktiken der Jahre 1998 bis 2014 und bezieht sich dabei auf die Paratexte der ersten vier Werke der Autorin. Ergänzt werden diese Begleittexte durch eine Analyse der Bild- und Tondokumente sowie der Buchpreisverleihungen. Die grundlegende Frage lautet: Wie ist der Wandel der Inszenierungspraktiken gestaltet? Des Weiteren gibt die Arbeit – anhand von 100 Büchern der Gegenwart – Aufschluss über Strategien der Lektürelenkung der letzten 16 Jahre.
Background: Consumption of whole-grain, coffee, and red meat were consistently related to the risk of developing type 2 diabetes in prospective cohort studies, but potentially underlying biological mechanisms are not well understood. Metabolomics profiles were shown to be sensitive to these dietary exposures, and at the same time to be informative with respect to the risk of type 2 diabetes. Moreover, graphical network-models were demonstrated to reflect the biological processes underlying high-dimensional metabolomics profiles.
Aim: The aim of this study was to infer hypotheses on the biological mechanisms that link consumption of whole-grain bread, coffee, and red meat, respectively, to the risk of developing type 2 diabetes. More specifically, it was aimed to consider network models of amino acid and lipid profiles as potential mediators of these risk-relations.
Study population: Analyses were conducted in the prospective EPIC-Potsdam cohort (n = 27,548), applying a nested case-cohort design (n = 2731, including 692 incident diabetes cases). Habitual diet was assessed with validated semiquantitative food-frequency questionnaires. Concentrations of 126 metabolites (acylcarnitines, phosphatidylcholines, sphingomyelins, amino acids) were determined in baseline-serum samples. Incident type 2 diabetes cases were assed and validated in an active follow-up procedure. The median follow-up time was 6.6 years.
Analytical design: The methodological approach was conceptually based on counterfactual causal inference theory. Observations on the network-encoded conditional independence structure restricted the space of possible causal explanations of observed metabolomics-data patterns. Given basic directionality assumptions (diet affects metabolism; metabolism affects future diabetes incidence), adjustment for a subset of direct neighbours was sufficient to consistently estimate network-independent direct effects. Further model-specification, however, was limited due to missing directionality information on the links between metabolites. Therefore, a multi-model approach was applied to infer the bounds of possible direct effects. All metabolite-exposure links and metabolite-outcome links, respectively, were classified into one of three categories: direct effect, ambiguous (some models indicated an effect others not), and no-effect.
Cross-sectional and longitudinal relations were evaluated in multivariable-adjusted linear regression and Cox proportional hazard regression models, respectively. Models were comprehensively adjusted for age, sex, body mass index, prevalence of hypertension, dietary and lifestyle factors, and medication.
Results: Consumption of whole-grain bread was related to lower levels of several lipid metabolites with saturated and monounsaturated fatty acids. Coffee was related to lower aromatic and branched-chain amino acids, and had potential effects on the fatty acid profile within lipid classes. Red meat was linked to lower glycine levels and was related to higher circulating concentrations of branched-chain amino acids. In addition, potential marked effects of red meat consumption on the fatty acid composition within the investigated lipid classes were identified.
Moreover, potential beneficial and adverse direct effects of metabolites on type 2 diabetes risk were detected. Aromatic amino acids and lipid metabolites with even-chain saturated (C14-C18) and with specific polyunsaturated fatty acids had adverse effects on type 2 diabetes risk. Glycine, glutamine, and lipid metabolites with monounsaturated fatty acids and with other species of polyunsaturated fatty acids were classified as having direct beneficial effects on type 2 diabetes risk.
Potential mediators of the diet-diabetes links were identified by graphically overlaying this information in network models. Mediation analyses revealed that effects on lipid metabolites could potentially explain about one fourth of the whole-grain bread effect on type 2 diabetes risk; and that effects of coffee and red meat consumption on amino acid and lipid profiles could potentially explain about two thirds of the altered type 2 diabetes risk linked to these dietary exposures.
Conclusion: An algorithm was developed that is capable to integrate single external variables (continuous exposures, survival time) and high-dimensional metabolomics-data in a joint graphical model. Application to the EPIC-Potsdam cohort study revealed that the observed conditional independence patterns were consistent with the a priori mediation hypothesis: Early effects on lipid and amino acid metabolism had the potential to explain large parts of the link between three of the most widely discussed diabetes-related dietary exposures and the risk of developing type 2 diabetes.
The motivation of this work was to investigate the self-assembly of a block copolymer species that attended little attraction before, double hydrophilic block copolymers (DHBCs). DHBCs consist of two linear hydrophilic polymer blocks. The self-assembly of DHBCs towards suprastructures such as particles and vesicles is determined via a strong difference in hydrophilicity between the corresponding blocks leading to a microphase separation due to immiscibility. The benefits of DHBCs and the corresponding particles and vesicles, such as biocompatibility, high permeability towards water and hydrophilic compounds as well as the large amount of possible functionalizations that can be addressed to the block copolymers make the application of DHBC based structures a viable choice in biomedicine. In order to assess a route towards self-assembled structures from DHBCs that display the potential to act as cargos for future applications, several block copolymers containing two hydrophilic polymer blocks were synthesized. Poly(ethylene oxide)-b-poly(N-vinylpyrrolidone) (PEO-b-PVP) and Poly(ethylene oxide)-b-poly(N-vinylpyrrolidone-co-N-vinylimidazole) (PEO-b-P(VP-co-VIm) block copolymers were synthesized via reversible deactivation radical polymerization (RDRP) techniques starting from a PEO-macro chain transfer agent. The block copolymers displayed a concentration dependent self-assembly behavior in water which was determined via dynamic light scattering (DLS). It was possible to observe spherical particles via laser scanning confocal microscopy (LSCM) and cryogenic scanning electron microscopy (cryo SEM) at highly concentrated solutions of PEO-b-PVP. Furthermore, a crosslinking strategy with (PEO-b-P(VP-co-VIm) was developed applying a diiodo derived crosslinker diethylene glycol bis(2-iodoethyl) ether to form quaternary amines at the VIm units. The formed crosslinked structures proved stability upon dilution and transfer into organic solvents. Moreover, self-assembly and crosslinking in DMF proved to be more advantageous and the crosslinked structures could be successfully transferred to aqueous solution. The afforded spherical submicron particles could be visualized via LSCM, cryo SEM and Cryo TEM.
Double hydrophilic pullulan-b-poly(acrylamide) block copolymers were synthesized via copper catalyzed alkyne azide cycloaddition (CuAAC) starting from suitable pullulan alkyne and azide functionalized poly(N,N-dimethylacrylamide) (PDMA) and poly(N-ethylacrylamide) (PEA) homopolymers. The conjugation reaction was confirmed via SEC and 1H-NMR measurements. The self-assembly of the block copolymers was monitored with DLS and static light scattering (SLS) measurements indicating the presence of hollow spherical structures. Cryo SEM measurements could confirm the presence of vesicular structures for Pull-b-PEA block copolymers. Solutions of Pull-b-PDMA displayed particles in cryo SEM. Moreover, an end group functionalization of Pull-b-PDMA with Rhodamine B allowed assessing the structure via LSCM and hollow spherical structures were observed indicating the presence of vesicles, too.
An exemplified pathway towards a DHBC based drug delivery vehicle was demonstrated with the block copolymer Pull-b-PVP. The block copolymer was synthesized via RAFT/MADIX techniques starting from a pullulan chain transfer agent. Pull-b-PVP displayed a concentration dependent self-assembly in water with an efficiency superior to the PEO-b-PVP system, which could be observed via DLS. Cryo SEM and LSCM microscopy displayed the presence of spherical structures. In order to apply a reversible crosslinking strategy on the synthesized block copolymer, the pullulan block was selectively oxidized to dialdehydes with NaIO4. The oxidation of the block copolymer was confirmed via SEC and 1H-NMR measurements. The self-assembled and oxidized structures were subsequently crosslinked with cystamine dihiydrochloride, a pH and redox responsive crosslinker resulting in crosslinked vesicles which were observed via cryo SEM. The vesicular structures of crosslinked Pull-b-PVP could be disassembled by acid treatment or the application of the redox agent tris(2-carboxyethyl)-phosphin-hydrochloride. The successful disassembly was monitored with DLS measurements.
To conclude, self-assembled structures from DHBCs such as particles and vesicles display a strong potential to generate an impact on biomedicine and nanotechnologies. The variety of DHBC compositions and functionalities are very promising features for future applications.
Arbeit vor Rente
(2017)
Schon vor der Staatsgründung legte die SED die Grundlagen für ein neues System der sozialen Sicherung und wandelte den traditionellen Wohlfahrtsstaat in einen "workfarestate" um. Carolin Wiethoff richtet den Blick auf die Auswirkungen dieser Politik auf die Menschen, die aufgrund einer Erwerbsminderung nicht mehr oder nur noch eingeschränkt arbeiten konnten. Ihre Studie untersucht über einen Zeitraum von 40 Jahren hinweg die soziale Sicherung bei Invalidität und sozialpolitische Initiativen zur beruflichen Rehabilitation. Die beiden Bereiche waren eng miteinander verbunden, weil es den politisch Verantwortlichen in der DDR stets darum ging, möglichst viele Bürger in den Arbeitsprozess zu integrieren und eine dauerhafte Invalidisierung zu vermeiden. Im Mittelpunkt der Untersuchung steht neben dem stellenweise konfliktreichen Zusammenspiel der einzelnen Akteure im Partei-und Staatsapparat die betriebliche Praxis, denn in der DDR war Sozialpolitik besonders stark auf die Betriebe zentriert. Anhand des Eisenhüttenkombinates Ost, einem Schwerpunktbetrieb der DDR, werden die Organisation des betrieblichen Gesundheits- und Sozialwesens und Schwierigkeiten bei der Umsetzung staatlicher Vorgaben deutlich.
In this thesis, I develop a theoretical implementation of prosodic reconstruction and apply it to the empirical domain of German sentences in which part of a focus or contrastive topic is fronted.
Prosodic reconstruction refers to the idea that sentences involving syntactic movement show prosodic parallels with corresponding simpler structures without movement. I propose to model this recurrent observation by ordering syntax-prosody mapping before copy deletion.
In order to account for the partial fronting data, the idea is extended to the mapping between prosody and information structure. This assumption helps to explain why object-initial sentences containing a broad focus or broad contrastive topic show similar prosodic and interpretative restrictions as sentences with canonical word order.
The empirical adequacy of the model is tested against a set of gradient acceptability judgments.
Over the past decade, an increasing number of public organizations involved in fisheries and marine environmental management in Europe have changed their formal coordination structures. Similar reorganizations of formal coordination structures can be observed for organizations at different administrative levels of governance with different mandates across the policy cycle.
Against the backdrop of this phenomenon, this PhD thesis is interested in exploring how these similar organizational reforms can be explained and why the formal coordination structures for fisheries and marine environmental management have been reorganized in the cases of the International Council for the Exploration of the Sea (ICES), the Directorate-General for Fisheries and Maritime Affairs of the European Commission (DG FISH), the Norwegian Institute of Marine Research (IMR) and the Swedish Agency for Marine and Water Management (SwAM). Accordingly, the objective is to shed light on how public organizations actually “behave” or “tick” in the face of increasingly complex coordination challenges in fisheries and marine environmental management.
To address these questions, the thesis draws on different theoretical perspectives in organization theory, namely an instrumental and an institutional perspective. These theoretical perspectives provide different explanations for how organizations deal with issues of formal organizational structure and coordination. In order to evaluate the explanatory relevance of these theoretical perspectives in the cases of ICES, DG FISH, the IMR and the SwAM, a case study approach based on congruence analysis is applied. The case studies are based on document analysis, the analysis of organizational charts and their change over time, as well as expert interviews. The aim of the thesis is to contribute to the coordination debate in the marine policy and governance literature from a hitherto omitted public administration and organization theory perspective, as well as explaining coordination efforts at the organizational level with an organization theory approach.
The findings indicate that the formal coordination structures of the organizations studied have not only changed to solve coordination problems in fisheries and marine environmental management efficiently and effectively, but also to follow modern management paradigms in marine governance and to ensure the legitimacy of these organizations. Moreover, it was found that in the cases of ICES, DG FISH, the IMR and the SwAM, the organizational changes were strongly influenced by external pressures and interactions with other organizations in the organizational field of fisheries and marine environmental management in Europe. Driven by forces of isomorphism, a gradual convergence of the formal horizontal coordination structures for fisheries and marine environmental management of the organizations studied can be observed. However, the findings also indicate that although the organizational changes observed may convey a reaction to changing environments, they do not necessarily reflect actual policy change and the implementation of new management concepts.
Start-up incentives targeted at unemployed individuals have become an important tool of the Active Labor Market Policy (ALMP) to fight unemployment in many countries in recent years. In contrast to traditional ALMP instruments like training measures, wage subsidies, or job creation schemes, which are aimed at reintegrating unemployed individuals into dependent employment, start-up incentives are a fundamentally different approach to ALMP, in that they intend to encourage and help unemployed individuals to exit unemployment by entering self-employment and, thus, by creating their own jobs. In this sense, start-up incentives for unemployed individuals serve not only as employment and social policy to activate job seekers and combat unemployment but also as business policy to promote entrepreneurship. The corresponding empirical literature on this topic so far has been mainly focused on the individual labor market perspective, however. The main part of the thesis at hand examines the new start-up subsidy (“Gründungszuschuss”) in Germany and consists of four empirical analyses that extend the existing evidence on start-up incentives for unemployed individuals from multiple perspectives and in the following directions:
First, it provides the first impact evaluation of the new start-up subsidy in Germany. The results indicate that participation in the new start-up subsidy has significant positive and persistent effects on both reintegration into the labor market as well as the income profiles of participants, in line with previous evidence on comparable German and international programs, which emphasizes the general potential of start-up incentives as part of the broader ALMP toolset. Furthermore, a new innovative sensitivity analysis of the applied propensity score matching approach integrates findings from entrepreneurship and labor market research about the key role of an individual’s personality on start-up decision, business performance, as well as general labor market outcomes, into the impact evaluation of start-up incentives. The sensitivity analysis with regard to the inclusion and exclusion of usually unobserved personality variables reveals that differences in the estimated treatment effects are small in magnitude and mostly insignificant. Consequently, concerns about potential overestimation of treatment effects in previous evaluation studies of similar start-up incentives due to usually unobservable personality variables are less justified, as long as the set of observed control variables is sufficiently informative (Chapter 2).
Second, the thesis expands our knowledge about the longer-term business performance and potential of subsidized businesses arising from the start-up subsidy program. In absolute terms, the analysis shows that a relatively high share of subsidized founders successfully survives in the market with their original businesses in the medium to long run. The subsidy also yields a “double dividend” to a certain extent in terms of additional job creation. Compared to “regular”, i.e., non-subsidized new businesses founded by non-unemployed individuals in the same quarter, however, the economic and growth-related impulses set by participants of the subsidy program are only limited with regard to employment growth, innovation activity, or investment. Further investigations of possible reasons for these differences show that differential business growth paths of subsidized founders in the longer run seem to be mainly limited by higher restrictions to access capital and by unobserved factors, such as less growth-oriented business strategies and intentions, as well as lower (subjective) entrepreneurial persistence. Taken together, the program has only limited potential as a business and entrepreneurship policy intended to induce innovation and economic growth (Chapters 3 and 4).
And third, an empirical analysis on the level of German regional labor markets yields that there is a high regional variation in subsidized start-up activity relative to overall new business formation. The positive correlation between regular start-up intensity and the share among all unemployed individuals who participate in the start-up subsidy program suggests that (nascent) unemployed founders also profit from the beneficial effects of regional entrepreneurship capital. Moreover, the analysis of potential deadweight and displacement effects from an aggregated regional perspective emphasizes that the start-up subsidy for unemployed individuals represents a market intervention into existing markets, which affects incumbents and potentially produces inefficiencies and market distortions. This macro perspective deserves more attention and research in the future (Chapter 5).
Gegenstand der Dissertation ist die Präsentation von Kleidermode in ihr gewidmeten Sonderausstellungen, die in zunehmender Zahl seit den 1990er Jahren in musealen und musemsähnlichen Kontexten veranstaltet werden. Es geht darum, wie Modekörper und vestimentäre Artefakte in diesen Ausstellungen gezeigt werden und welche ästhetischen Erfahrungen sich für die RezipientInnen aus der jeweiligen Konstellation von vestimentärem Objekt und Inszenierungsmittel ergeben können. Das Augenmerk liegt auf der Spannung zwischen dem visuellen Imperativ musealer Zeigepraktiken und den multisensorischen Qualitäten der Kleidermode, v. a. jener hautsinnlichen, die sich aus dem unmittelbaren Kontakt zwischen Körper und Kleid ergeben.
Die zentrale These ist, dass sich das Hautsinnliche der Kleidermode trotz des Berührungsverbots in vielen Ausstellungsinszenierungen zeigen kann. D. h., dass – entgegen häufig wiederholter Behauptungen – ‚der Körper‘, das Tragen und die Bewegung nicht per se oder komplett aus den Kleidern gewichen sind, werden diese musealisiert und ausgestellt. Es findet eine Verschiebung des Körperlichen und Hautsinnlichen, wie das Anfassen, Tragen und Bewegen, in visuelle Darstellungsformen statt. Hautsinnliche Qualitäten der vestimentären Exponate können, auch in Abhängigkeit von den jeweils verwendeten Präsentationsmitteln, von den BesucherInnen in unterschiedlichen Abstufungen sehend oder buchstäblich gespürt werden.
An konkreten Beispielen wird zum einen das Verhältnis von ausgestelltem Kleid und Präsentationsmittel(n) in den Displays untersucht. Dabei stehen folgende Mittel im Fokus, mit deren Hilfe die vestimentären Exponate zur Schau gestellt werden: Vitrinen, Podeste, Ersatzkörper wie Mannequins, optische Hilfsmittel wie Lupen, Bildmedien oder (bewegte) Installationen. Zum anderen wird analysiert, welche Wirkungen die Arrangements jeweils erzielen oder verhindern können, und zwar in Hinblick auf mögliche ästhetische Erfahrungen, die taktilen, haptischen und kinästhetischen Qualitäten der Exponate als BesucherIn sehend oder buchstäblich zu fühlen oder zu spüren. Ob als Identifikation, Projektion, Haptic Vision – es handelt sich um ästhetische Erfahrungen, die sich aus den modischen Kompetenzen der BetrachterInnen speisen und bei denen sich Visuelles und Hautsinnliches oft überlagern.
In der Untersuchung wird eine vernachlässigte, wenn nicht gar unerwünschte Rezeptionsweise diskutiert, die von den AkteurInnen der spezifischen Debatte bspw. als konsumptives Sehen abgewertet wird. Die von mir vorgeschlagene, stärker differenzierende Perspektive ist zugleich eine Kritik an dem bisherigen Diskurs und seinem eng gefassten, teilweise elitären Verständnis von Museum, Bildung und Wissen, mit dem sich AkteurInnen und Institutionen abgrenzen. Der Spezialdiskurs über musealisierte und exponierte Kleidermode steht zudem exemplarisch für die Diskussion, was das Museum, verstanden als Institution, sein kann und soll(te) und ob (und wenn ja, wie) es sich überhaupt noch von anderen Orten und Räumen klar abgrenzen lässt.
Die Hebung stiller Lasten ist eine Problematik, die in den letzten Jahren in Rechtsprechung und Literatur kontrovers diskutiert wurde und aufgrund Grund befürchteter Steuerausfälle in Milliardenhöhe zu den Neuregelungen in § 4f und § 5 Abs. 7 EStG geführt hat.
Der Autor nimmt diese Neuregelungen zum Anlass, die steuerbilanziellen Grundlagen herauszuarbeiten, die alte Rechtslage zu analysieren und die neue Rechtslage im Lichte dieser Erkenntnisse zu bewerten.
Im Zusammenhang mit der Darstellung der steuerbilanziellen Grundlagen geht der Autor auf die verfassungsrechtliche Rechtfertigung stiller Lasten ein und setzt sich mit der Rechtsprechung des Bundesverfassungsgerichts auseinander.
Darauf folgt eine Bewertung der Rechtsprechung des Bundesfinanzhofs, der die Realisation der stillen Lasten mit dem Realisationsprinzip und dem Prinzip der Erfolgsneutralität von Anschaffungsvorgängen begründet hat. Daraufhin untersucht der Autor, inwieweit diese Grundsätze auf die Neuregelung übertragen werden können.
Unter hybriden Finanzinstrumenten werden ganz allgemein Mischformen zwischen Eigen- und Fremdkapital verstanden. Aufgrund ihrer flexiblen Ausgestaltung stellen hybride Finanzinstrumente eine in vielfacher Hinsicht vorteilhafte Alternative zu klassischen Eigen- und Fremdkapitalinstrumenten dar. Bei der konkreten Ausgestaltung der Finanzinstrumente in der Praxis gilt es insbesondere zu berücksichtigen, wie sich diese beim Emittenten und beim Inhaber handels- und steuerbilanziell abbilden lassen. Auf Ebene des Emittenten stellt sich die Frage, ob das zugeführte Kapital als Eigen- oder Fremdkapital zu bilanzieren ist. Auf Ebene des Inhabers stellt sich die Frage, ob strukturierte hybride Finanzinstrumente einheitlich oder getrennt in ihre einzelnen Komponenten zu bilanzieren sind. Dabei gilt es zu beachten, dass sowohl die Frage der Abgrenzung zwischen Eigen- und Fremdkapital als auch die Frage der Abgrenzung der Beurteilungseinheit zum Teil wesentliche Rechtsfolgedivergenzen nach sich ziehen können. Es ist daher ein wesentliches Anliegen dieser Untersuchung sowohl für das Handels- als auch für das Steuerbilanzrecht klare und eindeutige Abgrenzungskriterien zu formulieren. Die Studie richtet sich einerseits an Wissenschaftler, die eine fundierte und kritische Auseinandersetzung mit der Thematik erwarten und andererseits an Praktiker, die auf der Suche nach konkreten Lösungen und Gestaltungsmöglichkeiten im Zusammenhang mit hybriden Finanzinstrumenten sind.
The Yukon Coast in Canada is an ice-rich permafrost coast and highly sensitive to changing environmental conditions. Retrogressive thaw slumps are a common thermoerosion feature along this coast, and develop through the thawing of exposed ice-rich permafrost on slopes and removal of accumulating debris. They contribute large amounts of sediment, including organic carbon and nitrogen, to the nearshore zone.
The objective of this study was to 1) identify the climatic and geomorphological drivers of sediment-meltwater release, 2) quantify the amount of released meltwater, sediment, organic carbon and nitrogen, and 3) project the evolution of sediment-meltwater release of retrogressive thaw slumps in a changing future climate.
The analysis is based on data collected over 18 days in July 2013 and 18 days in August 2012. A cut-throat flume was set up in the main sediment-meltwater channel of the largest retrogressive thaw slump on Herschel Island. In addition, two weather stations, one on top of the undisturbed tundra and one on the slump floor, measured incoming solar radiation, air temperature, wind speed and precipitation. The discharge volume eroding from the ice-rich permafrost and retreating snowbanks was measured and compared to the meteorological data collected in real time with a resolution of one minute.
The results show that the release of sediment-meltwater from thawing of the ice-rich permafrost headwall is strongly related to snowmelt, incoming solar radiation and air temperature. Snowmelt led to seasonal differences, especially due to the additional contribution of water to the eroding sediment-meltwater from headwall ablation, lead to dilution of the sediment-meltwater composition. Incoming solar radiation and air temperature were the main drivers for diurnal and inter-diurnal fluctuations. In July (2013), the retrogressive thaw slump released about 25 000 m³ of sediment-meltwater, containing 225 kg dissolved organic carbon and 2050 t of sediment, which in turn included 33 t organic carbon, and 4 t total nitrogen. In August (2012), just 15 600 m³ of sediment-meltwater was released, since there was no additional contribution from snowmelt. However, even without the additional dilution, 281 kg dissolved organic carbon was released. The sediment concentration was twice as high as in July, with sediment contents of up to 457 g l-1 and 3058 t of sediment, including 53 t organic carbon and 5 t nitrogen, being released.
In addition, the data from the 36 days of observations from Slump D were upscaled to cover the main summer season of 1 July to 31 August (62 days) and to include all 229 active retrogressive thaw slumps along the Yukon Coast. In total, all retrogressive thaw slumps along the Yukon Coast contribute a minimum of 1.4 Mio. m³ sediment-meltwater each thawing season, containing a minimum of 172 000 t sediment with 3119 t organic carbon, 327 t nitrogen and 17 t dissolved organic carbon. Therefore, in addition to the coastal erosion input to the Beaufort Sea, retrogressive thaw slumps additionally release 3 % of sediment and 8 % of organic carbon into the ocean. Finally, the future evolution of retrogressive thaw slumps under a warming scenario with summer air temperatures increasing by 2-3 °C by 2081-2100, would lead to an increase of 109-114% in release of sediment-meltwater.
It can be concluded that retrogressive thaw slumps are sensitive to climatic conditions and under projected future Arctic warming will contribute larger amounts of thawed permafrost material (including organic carbon and nitrogen) into the environment.
Die vorliegende Dissertation thematisiert den Unterschied zwischen Einstellungen, die auf der persönlichen Ebene im Rahmen demoskopischer Interviews erfragt und zu einem „Meinungsbild“ aggregiert werden und der öffentlichen Meinung, dem wahrgenommenen Meinungsklima zu einer Thematik. Die Daten der langjährigen Bevölkerungsbefragung des Zentrums für Militärgeschichte und Sozialwissenschaften der Bundeswehr (ZMSBw) weisen, hinsichtlich der persönlichen Einstellung der Bundesbürger zu den Streitkräften, seit vielen Jahren beständig darauf hin, dass die Mehrheit der Bürgerinnen und Bürger der Bundeswehr positiv gegenübersteht. Gleichzeitig existiert in Teilen der Bevölkerung die Meinungsklima-wahrnehmung, dass die Bundeswehr auf gesamtgesellschaftlicher Ebene eher kritisch gesehen wird. Der im Rahmen dieser Arbeit erstmalig entwickelte medienzentrierte Untersuchungsansatz des Phänomens, welches als Ausprägung pluralistischer Ignoranz theoretisch hergeleitet wurde, fokussiert, neben dem Einfluss eines doppelten Meinungsklimas, auf die Wirkung medienspezifischer Wahrnehmungsphänomene (Hostile-Media-Phänomen und Third-Person-Wahrnehmung), um die beobachtete Diskrepanz zwischen persönlicher Einstellung und Meinungsklimawahrnehmung zum Thema Ansehen der Bundeswehr zu erklären.
Im Rahmen einer quantitativen Bevölkerungsbefragung wurden Indikatoren entwickelt, um die aufgestellten Hypothesen einer empirischen Überprüfung zu unterziehen. Die deskriptiven Analysen zur Richtung und Ausprägung der Diskrepanzwahrnehmung ergaben, dass sich die Bürgerinnen und Bürger eher in der Weise irren, dass sie das Meinungsklima zum Thema Ansehen der Bundeswehr negativer einschätzen als das Ansehen, welches sie den Streitkräften persönlich entgegenbringen (negative Diskrepanz-wahrnehmung). Außerdem zeigte sich, dass die Diskrepanzwahrnehmung zurückging, wenn dem Untersuchungsthema ein emotionales Potenzial zugesprochen wurde. In einem solchen Fall tendieren die Probanden dazu, die eigene Meinung dicht an der antizipierten Mehrheitsmeinung zu positionieren, um sich keinem Rechtfertigungsdruck oder schlimmstenfalls sozialer Isolation auszusetzen.
Die Ergebnisse der Analysen der vier zentralen erklärenden Variablen zeigten auf, dass sich alle formulierten Hypothesen zur Richtung der Diskrepanzwahrnehmung bestätigten. Eine vermehrte Mediennutzung, eine negative Wahrnehmung der generellen bundeswehrbezogenen Medienberichterstattung, eine persönlich positive Einstellung zur Bundeswehr und die Wahrnehmung, dass die Medien auf Dritte stärker wirken als auf die eigene Person trugen jeweils zu einem Anstieg der negativen Diskrepanzwahrnehmung zum Thema Ansehen der Bundeswehr bei. Personen, die diese Merkmale aufwiesen, schätzten das Meinungsklima zum Thema Ansehen der Bundeswehr negativer ein als das Ansehen, welches sie den Streitkräften persönlich entgegenbrachten. Die Analyse der Stärke der jeweiligen Effekte verdeutlichte jedoch, dass die verwendeten Erklärungsansätze jeweils nur einen kleinen oder mittleren Beitrag zur Erklärung der Diskrepanzwahrnehmung leisten konnten.
Dieses Ergebnis kann dadurch begründet werden, dass sich das Untersuchungsthema, neben der Ermangelung einer kontinuierlichen Medienberichterstattung und eines breiten öffentlichen Diskurses zum Thema Ansehen der Bundeswehr sowie fehlender persönlicher Bezüge zu den Streitkräften, in der Analyse insbesondere als zu wenig konfliktträchtig erwies. Ob die Bundeswehr gesellschaftliches Ansehen erfährt, besitzt für den Großteil der Bevölkerung nur eine geringe persönliche Relevanz. Aus diesen Gründen scheint dieses Thema nicht dazu geeignet zu sein, um die in dieser Dissertation als Erklärungsfaktoren herangezogenen medienspezifischen Wahrnehmungsphänomene auszubilden. Dieses Ergebnis impliziert, dass die Diskrepanz zwischen persönlicher Einstellung und Meinungs-klimawahrnehmung zum Thema Ansehen der Bundeswehr von einer Reihe weiterer Faktoren beeinflusst wird, die es im Rahmen zukünftiger Forschungsarbeiten aufzuspüren und zu untersuchen gilt.
Das Ziel der Arbeit ist die Entwicklung eines heuristischen Bezugsrahmens zur Erklärung der Komplexität im Kontext von Industrie 4.0 und der demografischen Entwicklung aus strukturationstheoretischer Sicht. Dabei sind in Bezug auf die zukünftig zu erwartenden kognitiven Anforderungen an die Beschäftigten die Fragen essentiell, vor welchen Herausforderungen Unternehmen bezüglich der Einstellung und dem Verhalten sowie dem Erfahrungswissen der Beschäftigten stehen und welche Lösungsansätze sich im Umgang mit den Herausforderungen in der Praxis bisher als hilfreich erweisen.
In Kapitel 1 erfolgt zunächst die Beschreibung der Ausgangslage. Es werden die Begriffe Industrie 4.0 und demografische Entwicklung inhaltlich diskutiert und in einen theoretischen Zusammenhang gebracht.
In Kapitel 2 erfolgt die theoretische Fundierung der Arbeit. Dabei wird eine strukturationstheoretische Sicht auf Unternehmen als soziotechnische Systeme eingenommen. Durch diese „nicht deterministische“ Sichtweise wird ein prozessualer Blick auf den Wandlungsprozess in Unternehmen geschaffen, der es möglich macht, die Beschäftigten als aktiv handelnde Akteure im Sinne von „organisieren“ zur Erklärung möglicher Zusammenhänge zwischen Industrie 4.0 und der demografischen Entwicklung mit einzubeziehen. Der soziotechnische Systemansatz und die Strukturationstheorie bilden in diesem Sinne den „Kern“ des zu entwickelnden heuristischen Bezugsrahmens.
Die inhaltliche Gestaltung des theoriebasierten heuristischen Bezugsrahmens erfolgt in Kapitel 3 und Kapitel 4.
Kapitel 3 beschreibt ausgewählte Aspekte zukünftiger Anforderungen an die Arbeit, die durch eine systematische Aufbereitung des derzeitigen Forschungsstandes zu Industrie 4.0 ermittelt wurden. Sie bilden die „Gestaltungsgrenzen“, innerhalb derer sich je nach betrieblicher Situation unterschiedliche neue oder geänderte Anforderungen an die Beschäftigten bei der Gestaltung von Industrie 4.0 ableiten lassen.
In Kapitel 4 werden ausgewählte Aspekte menschlichen Handelns am Beispiel älterer Beschäftigter in Form zweier Schwerpunkte beschrieben.
Der erste Schwerpunkt betrifft mögliche Einflussfaktoren auf die Einstellung und das Verhalten älterer Beschäftigter im Wandlungsprozess aufgrund eines vorherrschenden Altersbildes im Unternehmen. Grundlage hierzu bildete die Stigmatisierungstheorie als interaktionistischer Ansatz der Sozialtheorie.
Mit dem zweiten Schwerpunkt, den ausgewählten handlungstheoretischen Aspekten der Alternsforschung aus der Entwicklungspsychologie, wird eine Lebensspannenperspektive eingenommen. Inhaltlich werden die komplexitätsinduzierten Faktoren, die sich aus handlungstheoretischer Perspektive mit der Adaptation von älteren Beschäftigten an veränderte äußere und persönliche Lebensbedingungen beschäftigen, systematisiert.
Anschließend wird auf Grundlage der bisherigen theoretischen Vorüberlegungen ein erster theoriebasierter Bezugsrahmen abgeleitet.
Kapitel 5 und Kapitel 6 beschreiben den empirischen Teil, die Durchführung teilstrukturierter Interviews, der Arbeit. Ziel der empirischen Untersuchung war es, neben der theoretischen Fundierung den theoriebasierten heuristischen Bezugsrahmen um Praxiserfahrungen zu konkretisieren und gegebenenfalls zu ergänzen. Hierzu wurde auf Grundlage des theoriebasierten heuristischen Bezugsrahmens mittels teilstrukturierter Interviews das Erfahrungswissen von 23 Experten in persönlichen Gesprächen abgefragt.
Nachdem in Kapitel 5 die Vorgehensweise der empirischen Untersuchung beschrieben wird, erfolgt in Kapitel 6 die Beschreibung der Ergebnisse aus der qualitativen Befragung. Hierzu werden aus den persönlichen Gesprächen zentrale Einflussfaktoren bei der Gestaltung und Umsetzung von Industrie 4.0 im Kontext mit der demografischen Entwicklung analysiert und in die übergeordneten Kategorien Handlungskompetenzen, Einstellung/ Verhalten sowie Erfahrungswissen geclustert.
Anschließend wird der theoriebasierte heuristische Bezugsrahmen durch die übergeordneten Kategorien und Faktoren aus den Expertengesprächen konkretisiert und ergänzt.
In Kapitel 7 werden auf Grundlage des heuristischen Bezugsrahmens sowie der Empfehlungen aus den Experteninterviews beispielhaft Implikationen für die Praxis abgeleitet. Es werden Interventionsmöglichkeiten zur Unterstützung einer positiven Veränderungsbereitschaft und einem positiven Veränderungsverhalten für den Strukturwandel aufgezeigt. Hierzu gehören die Anpassung des Führungsverhaltens im Wandlungsprozess, der Umgang mit der Paradoxie von Stabilität und Flexibilität, der Umgang mit Altersstereotypen in Unternehmen, die Unterstützung von Strategien zu Selektion, Optimierung und Kompensation sowie Maßnahmen zur Ausrichtung von Aktivitäten an die Potenzialrisiken der Beschäftigten.
Eine Zusammenfassung, ein Resümee und ein Ausblick erfolgen abschließend in Kapitel 8.
"Wortabruf im Handumdrehen"?
(2017)
Entgegen der dominierenden Rezeption ist Jean Améry, Überlebender der Konzentrationslager Auschwitz und Bergen-Belsen, ein marxistischer Denker. In Kontrastierung mit ausgewählten Werken der zeitgenössischen Intellektuellen Jürgen Habermas, Theodor W. Adorno und Jean-Paul Sartre zeichnet Sabine Volk die Konturen nach, die Amérys marxistisch-humanistisch geprägten Begriff des Engagements deutlich hervortreten lassen und eine Revision des bisherigen Améry-Bildes nahelegen. Das Buch zeigt, dass Wissenschaft nach Auschwitz auf mindestens zwei Ebenen produktiv sein muss, wenn sie den Ansprüchen an eine Kritische Denkpraxis gerecht werden will: als von der individuellen Erfahrung ausgehender, dialogisch konzipierter, ideologiekritischer Entwurf einer Gesellschaftstheorie, der ständiger Aktualisierung bedarf, und als Versuch, durch die Kritik der Vergangenheit hindurch eine Utopie zu realisieren, die den fühlenden, reflektierenden und gestaltenden Menschen auf die Bühne der Weltgeschichte ruft.
Researchers have made many approaches to study the complexities of the mammalian taste system; however molecular mechanisms of taste processing in the early structures of the central taste pathway remain unclear. More recently the Arc catFISH (cellular compartment analysis of temporal activity by fluorescent in situ hybridisation) method has been used in our lab to study neural activation following taste stimulation in the first central structure in the taste pathway, the nucleus of the solitary tract. This method uses the immediate early gene Arc as a neural activity marker to identify taste-responsive neurons. Arc plays a critical role in memory formation and is necessary for conditioned taste aversion memory formation. In the nucleus of the solitary tract only bitter taste stimulation resulted in increased Arc expression, however this did not occur following stimulation with tastants of any other taste quality. The primary target for gustatory NTS neurons is the parabrachial nucleus (PbN) and, like Arc, the PbN plays an important role in conditioned taste aversion learning.
The aim of this thesis is to investigate Arc expression in the PbN following taste stimulation to elucidate the molecular identity and function of Arc expressing, taste- responsive neurons. Naïve and taste-conditioned mice were stimulated with tastants from each of the five basic taste qualities (sweet, salty, sour, umami, and bitter), with additional bitter compounds included for comparison. The expression patterns of Arc and marker genes were analysed using in situ hybridisation (ISH). The Arc catFISH method was used to observe taste-responsive neurons following each taste stimulation. A double fluorescent in situ hybridisation protocol was then established to investigate possible neuropeptide genes involved in neural responses to taste stimulation.
The results showed that bitter taste stimulation induces increased Arc expression in the PbN in naïve mice. This was not true for other taste qualities. In mice conditioned to find an umami tastant aversive, subsequent umami taste stimulation resulted in an increase in Arc expression similar to that seen in bitter-stimulated mice. Taste-responsive Arc expression was denser in the lateral PbN than the medial PbN. In mice that received two temporally separated taste stimulations, each stimulation time-point showed a distinct population of Arc-expressing neurons, with only a small population (10 – 18 %) of neurons responding to both stimulations. This suggests that either each stimulation event activates a different population of neurons, or that Arc is marking something other than simple cellular activation, such as long-term cellular changes that do not occur twice within a 25 minute time frame. Investigation using the newly established double-FISH protocol revealed that, of the bitter-responsive Arc expressing neuron population: 16 % co-expressed calcitonin RNA; 17 % co-expressed glucagon-like peptide 1 receptor RNA; 17 % co-expressed hypocretin receptor 1 RNA; 9 % co-expressed gastrin-releasing peptide RNA; and 20 % co-expressed neurotensin RNA. This co-expression with multiple different neuropeptides suggests that bitter-activated Arc expression mediates multiple neural responses to the taste event, such as taste aversion learning, suppression of food intake, increased heart rate, and involves multiple brain structures such as the lateral hypothalamus, amygdala, bed nucleus of the stria terminalis, and the thalamus.
The increase in Arc-expression suggests that bitter taste stimulation, and umami taste stimulation in umami-averse animals, may result in an enhanced state of Arc- dependent synaptic plasticity in the PbN, allowing animals to form taste-relevant memories to these aversive compounds more readily. The results investigating neuropeptide RNA co- expression suggest the amygdala, bed nucleus of the stria terminalis, and thalamus as possible targets for bitter-responsive Arc-expressing PbN neurons.
Einleitung: Die Erdnussallergie zählt zu den häufigsten Nahrungsmittelallergien im Kindesalter. Bereits kleine Mengen Erdnuss (EN) können zu schweren allergischen Reaktionen führen. EN ist der häufigste Auslöser einer lebensbedrohlichen Anaphylaxie bei Kindern und Jugendlichen. Im Gegensatz zu anderen frühkindlichen Nahrungsmittelallergien entwickeln Patienten mit einer EN-Allergie nur selten eine natürliche Toleranz. Seit mehreren Jahren wird daher an kausalen Therapiemöglichkeiten für EN-Allergiker, insbesondere an der oralen Immuntherapie (OIT), geforscht. Erste kleinere Studien zur OIT bei EN-Allergie zeigten erfolgsversprechende Ergebnisse. Im Rahmen einer randomisierten, doppelblind, Placebo-kontrollierten Studie mit größerer Fallzahl werden in der vorliegenden Arbeit die klinische Wirksamkeit und Sicherheit dieser Therapieoption bei Kindern mit EN-Allergie genauer evaluiert. Des Weiteren werden immunologische Veränderungen sowie die Lebensqualität und Therapiebelastung unter OIT untersucht.
Methoden: Kinder zwischen 3-18 Jahren mit einer IgE-vermittelten EN-Allergie wurden in die Studie eingeschlossen. Vor Beginn der OIT wurde eine orale Provokation mit EN durchgeführt. Die Patienten wurden 1:1 randomisiert und entsprechend der Verum- oder Placebogruppe zugeordnet. Begonnen wurde mit 2-120 mg EN bzw. Placebo pro Tag, abhängig von der Reaktionsdosis bei der oralen Provokation. Zunächst wurde die tägliche OIT-Dosis alle zwei Wochen über etwa 14 Monate langsam bis zu einer Erhaltungsdosis von mindestens 500 mg EN (= 125 mg EN-Protein, ~ 1 kleine EN) bzw. Placebo gesteigert. Die maximal erreichte Dosis wurde dann über zwei Monate täglich zu Hause verabreicht. Im Anschluss erfolgte erneut eine orale Provokation mit EN. Der primäre Endpunkt der Studie war die Anzahl an Patienten der Verum- und Placebogruppe, die unter oraler Provokation nach OIT ≥1200 mg EN vertrugen (=„partielle Desensibilisierung“). Sowohl vor als auch nach OIT wurde ein Hautpricktest mit EN durchgeführt und EN-spezifisches IgE und IgG4 im Serum bestimmt. Außerdem wurden die Basophilenaktivierung sowie die Ausschüttung von T-Zell-spezifischen Zytokinen nach Stimulation mit EN in vitro gemessen. Anhand von Fragebögen wurde die Lebensqualität vor und nach OIT sowie die Therapiebelastung während OIT erfasst.
Ergebnisse: 62 Patienten wurden in die Studie eingeschlossen und randomisiert. Nach etwa 16 Monaten unter OIT zeigten 74,2% (23/31) der Patienten der Verumgruppe und nur 16,1% (5/31) der Placebogruppe eine „partielle Desensibilisierung“ gegenüber EN (p<0,001). Im Median vertrugen Patienten der Verumgruppe 4000 mg EN (~8 kleine EN) unter der Provokation nach OIT wohingegen Patienten der Placebogruppe nur 80 mg EN (~1/6 kleine EN) vertrugen (p<0,001). Fast die Hälfte der Patienten der Verumgruppe (41,9%) tolerierten die Höchstdosis von 18 g EN unter Provokation („komplette Desensibilisierung“). Es zeigte sich ein vergleichbares Sicherheitsprofil unter Verum- und Placebo-OIT in Bezug auf objektive Nebenwirkungen. Unter Verum-OIT kam es jedoch signifikant häufiger zu subjektiven Nebenwirkungen wie oralem Juckreiz oder Bauchschmerzen im Vergleich zu Placebo (3,7% der Verum-OIT-Gaben vs. 0,5% der Placebo-OIT-Gaben, p<0,001). Drei Kinder der Verumgruppe (9,7%) und sieben Kinder der Placebogruppe (22,6%) beendeten die Studie vorzeitig, je zwei Patienten beider Gruppen aufgrund von Nebenwirkungen. Im Gegensatz zu Placebo, zeigten sich unter Verum-OIT signifikante immunologische Veränderungen. So kam es zu einer Abnahme des EN-spezifischen Quaddeldurchmessers im Hautpricktest, einem Anstieg der EN-spezifischen IgG4-Werte im Serum sowie zu einer verminderten EN-spezifischen Zytokinsekretion, insbesondere der Th2-spezifischen Zytokine IL-4 und IL-5. Hinsichtlich der EN-spezifischen IgE-Werte sowie der EN-spezifischen Basophilenaktivierung zeigten sich hingegen keine Veränderungen unter OIT. Die Lebensqualität von Kindern der Verumgruppe war nach OIT signifikant verbessert, jedoch nicht bei Kindern der Placebogruppe. Während der OIT wurde die Therapie von fast allen Kindern (82%) und Müttern (82%) als positiv bewertet (= niedrige Therapiebelastung).
Diskussion: Die EN-OIT führte bei einem Großteil der EN-allergischen Kinder zu einer Desensibilisierung und einer deutlich erhöhten Reaktionsschwelle auf EN. Somit sind die Kinder im Alltag vor akzidentellen Reaktionen auf EN geschützt, was die Lebensqualität der Kinder deutlich verbessert. Unter den kontrollierten Studienbedingungen zeigte sich ein akzeptables Sicherheitsprofil, mit vorrangig milder Symptomatik. Die klinische Desensibilisierung ging mit Veränderungen auf immunologischer Ebene einher. Langzeitstudien zur EN-OIT müssen jedoch abgewartet werden, um die klinische und immunologische Wirksamkeit hinsichtlich einer möglichen langfristigen oralen Toleranzinduktion sowie die Sicherheit unter langfristiger OIT zu untersuchen, bevor das Therapiekonzept in die Praxis übertragen werden kann.
This cumulative doctoral dissertation, based on three publications, is devoted to the investigation of several aspects of azobenzene molecular switches, with the aid of computational chemistry.
In the first paper, the isomerization rates of a thermal cis → trans isomerization of azobenzenes for species formed upon an integer electron transfer, i.e., with added or removed electron, are calculated from Eyring’s transition state theory and activation energy barriers, computed by means of density functional theory. The obtained results are discussed in connection with an experimental study of the thermal cis → trans isomerization of azobenzene derivatives in the presence of gold nanoparticles, which is demonstrated to be greatly accelerated in comparison to the same isomerization reaction in the absence of nanoparticles.
The second paper is concerned with electronically excited states of (i) dimers, composed of two photoswitchable units placed closely side-by-side, as well as (ii) monomers and dimers adsorbed on a silicon cluster. A variety of quantum chemistry methods, capable of calculating molecular electronic absorption spectra, based on density functional and wave function theories, is employed to quantify changes in optical absorption upon dimerization and covalent grafting to a surface. Specifically, the exciton (Davydov) splitting between states of interest is determined from first-principles calculations with the help of natural transition orbital analysis, allowing for insight into the nature of excited states.
In the third paper, nonadiabatic molecular dynamics with trajectory surface hopping is applied to model the photoisomerization of azobenzene dimers, (i) for the isolated case (exhibiting the exciton coupling between two molecules) as well as (ii) for the constrained case (providing the van der Waals interaction with environment in addition to the exciton coupling between two monomers). For the latter, the additional azobenzene molecules, surrounding the dimer, are introduced, mimicking a densely packed self-assembled monolayer. From obtained results it is concluded that the isolated dimer is capable of isomerization likewise the monomer, whereas the steric hindrance considerably suppresses trans → cis photoisomerization.
Furthermore, the present dissertation comprises the general introduction describing the main features of the azobenzene photoswitch and objectives of this work, theoretical basis of the employed methods, and discussion of gained findings in the light of existing literature. Also, additional results on (i) activation parameters of the thermal cis → trans isomerization of azobenzenes, (ii) an approximate scheme to account for anharmonicity of molecular vibrations in calculation of the activation entropy, as well as (iii) absorption spectra of photoswitch–silicon composites obtained from time-demanding wave function-based methods are presented.
Der technologische Wandel stellt Organisationen vor die Herausforderung, Innovationen möglichst schnell produktiv zu nutzen und damit einen Wettbewerbsvorteil zu erzielen. Der Erfolg der Technologieeinführung hängt stark mit der Schaffung von Akzeptanz bei den Mitarbeitern zusammen. Bestehende Ansätze wie die Diffusionstheorie (Rogers, 2003) oder das Technology Acceptance Model (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003) widmen sich dem Organisationskontext jedoch nur am Rande. Ihre Modelle zielen auf die Übernahme einer Technologie in freier Entscheidung und im Marktkontext ab. Weiterhin beleuchten sie den Widerstand gegen Neuerungen nicht, welcher sich bei der verpflichtenden Übernahme bilden kann. Zur Untersuchung der Technologieeinführung und von Akzeptanzbildungsprozessen in Organisationen sind sie daher nur begrenzt nutzbar.
Das Ziel dieser Arbeit ist es daher, den spezifischen Einfluss des Kontextes Organisation auf die Akzeptanz und das Nutzungsverhalten herauszuarbeiten. Konkreter soll die Forschungsfrage geklärt werden, welchen Einfluss unterschiedliche Organisationstypen auf die Akzeptanz- und Nutzungsdynamik innerhalb von Organisationen haben. Hierfür wird die Erweiterung und Synthese bestehender Modelle der Akzeptanzforschung um organisationsspezifische Attribute vorgenommen. Das resultierende Modell erfasst die dynamische Entwicklung innerhalb der Organisation und ermöglicht damit die Beobachtung des Wandels. Die Funktionsweise des entwickelten Modells soll in einem Simulationsexperiment demonstriert und die Wirkung unterschiedlicher Organisationsformen verdeutlicht werden.
Das Modell vereint daher zwei Perspektiven: Die personale Perspektive fasst Akzeptanz als kognitiv-psychischen Prozess auf individueller Ebene. Dieser basiert auf den Kalkülen und Entscheidungen einzelner Personen. Zentral sind hierfür die Beiträge der Diffusionstheorie (Rogers, 2003) sowie das Technology Acceptance Model in seinen diversen Weiterentwicklungen und Veränderungen (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003). Individuelle Faktoren aus unterschiedlichen Fit-Theorien (Goodhue und Thompson, 1995; Floyd, 1986; Liu, Lee und Chen, 2011; Parkes, 2013) werden genutzt, um diese Modelle anzureichern. Neben der Entwicklung
einer positiven, förderlichen Einstellung muss jedoch auch die Ablehnung und das offene Opponieren gegen die Innovation berücksichtigt werden (Patsiotis, Hughes und Webber, 2012).
Die organisatorische Perspektive hingegen sieht Akzeptanzentscheidungen eingebettet in den sozialen Kontext der Organisation. Die gegenseitige Beeinflussung basiert auf der Beobachtung der Umgebung und der Internalisierung sozialen Drucks. Dem steht in Organisationen die intendierte Beeinflussung in Form von Steuerung gegenüber. Beide Vorgänge formen das Akzeptanz- oder das Nutzungsverhalten der Mitarbeiter. Ausgehend von einem systemtheoretischen Organisationsbegriff werden unterschiedliche Steuerungsmedien (Luhmann, 1997; Fischer, 2009) vorgestellt. Diese können durch Steuerungsakteure
(Change Agents, Management) intendiert eingesetzt werden, um den Akzeptanz- und Nutzungsprozess über Interventionen zu gestalten.
Die Wirkung der Medien unterscheidet sich in verschiedenen Organisationstypen. Zur Analyse unterschiedlicher Organisationstypen werden die Konfigurationen nach Mintzberg (1979) herangezogen. Diese zeichnen sich durch unterschiedliche Koordinationsmechanismen aus, welche wiederum auf dem Einsatz von Steuerungsmedien beruhen.
Die Demonstration der Funktionsweise und Analysemöglichkeiten des entwickelten Modells erfolgt anhand eines Simulationsexperiments mittels der Simulationsplattform AnyLogic. Das Gültigkeitsspektrum wird anhand einer Sensitivitätsanalyse geprüft.
In der Simulation lassen sich spezifische Muster der Nutzung und Akzeptanzentwicklung nachweisen. Die Akzeptanz ist durch ein initiales Absinken und ein anschließendes gedämpftes Wachstum gekennzeichnet. Die Nutzung wird in der Organisation hingegen schnell durchgesetzt und verharrt dann auf einem stabilen Niveau. Für die Organisationstypen konnten unterschiedliche Effekte beobachtet werden. So eignet sich die bürokratische Steuerungsform zur Nutzungserhöhung, schafft es jedoch nicht, die Akzeptanz zu steigern. Organisationen, welche eher auf gegenseitige Abstimmung zur Koordination ausgelegt sind, erhöhen die Akzeptanz, jedoch nicht die Nutzung. Weiterhin ist die Entwicklung der Akzeptanz in diesem Organisationstyp sehr unsicher und weist einen hohen Schwankungsbereich auf.
Approaching physical limits in speed and size of today's magnetic storage and processing technologies demands new concepts for controlling magnetization and moves researches on optically induced magnetic dynamics. Studies on photoinduced magnetization dynamics and their underlying mechanisms have been primarily performed on ferromagnetic metals. Ferromagnetic dynamics bases on transfer of the conserved angular momentum connected with atomic magnetic moments out of the parallel aligned magnetic system into other degrees of freedom.
In this thesis the so far rarely studied response of antiferromagnetic order to ultra-short optical laser pulses in a metal is investigated. The experiments were performed at the FemtoSpex slicing facility at the storage ring BESSY II, an unique source for ultra-short elliptically polarized x-ray pulses. Laser-induced changes of the 4f-magnetic order parameter in ferro- and antiferromagnetic dysprosium (Dy), were studied by x-ray methods, which yield directly comparable quantities. The discovered fundamental differences in the temporal and spatial behavior of ferro- and antiferrmagnetic dynamics are assinged to an additional channel for angular momentum transfer, which reduces the antiferromagnetic order by redistributing angular momentum within the non-parallel aligned magnetic system, and hence conserves the zero net magnetization. It is shown that antiferromagnetic dynamics proceeds considerably faster and more energy-efficient than demagnetization in ferromagnets. By probing antiferromagnetic order in time and space, it is found to be affected along the whole sample depth of an in situ grown 73 nm tick Dy film. Interatomic transfer of angular momentum via fast diffusion of laser-excited 5d electrons is held responsible for the out-most long-ranging effect. Ultrafast ferromagnetic dynamics can be expected to base on the same origin, which however leads to demagnetization only in regions close to interfaces caused by super-diffusive spin transport. Dynamics due to local scattering processes of excited but less mobile electrons, occur in both magnetic alignments only in directly excited regions of the sample and on slower pisosecond timescales. The thesis provides fundamental insights into photoinduced magnetic dynamics by directly comparing ferro- and antiferromagnetic dynamics in the same material and by consideration of the laser-induced magnetic depth profile.
Anthropogenically amplified erosion leads to increased fine-grained sediment input into the fluvial system in the 15.000 km2 Kharaa River catchment in northern Mongolia and constitutes a major stressing factor for the aquatic ecosystem. This study uniquely combines the application of intensive monitoring, source fingerprinting and catchment modelling techniques to allow for the comparison of the credibility and accuracy of each single method. High-resolution discharge data were used in combination with daily suspended solid measurements to calculate the suspended sediment budget and compare it with estimations of the sediment budget model SedNet. The comparison of both techniques showed that the development of an overall sediment budget with SedNet was possible, yielding results in the same order of magnitude (20.3 kt a- 1 and 16.2 kt a- 1).
Radionuclide sediment tracing, using Be-7, Cs-137 and Pb-210 was applied to differentiate sediment sources for particles < 10μm from hillslope and riverbank erosion and showed that riverbank erosion generates 74.5% of the suspended sediment load, whereas surface erosion contributes 21.7% and gully erosion only 3.8%. The contribution of the single subcatchments of the Kharaa to the suspended sediment load was assessed based on their variation in geochemical composition (e.g. in Ti, Sn, Mo, Mn, As, Sr, B, U, Ca and Sb). These variations were used for sediment source discrimination with geochemical composite fingerprints based on Genetic Algorithm driven Discriminant Function Analysis, the Kruskal–Wallis H-test and Principal Component Analysis. The contributions of the individual sub-catchment varied from 6.4% to 36.2%, generally showing higher contributions from the sub-catchments in the middle, rather than the upstream portions of the study area.
The results indicate that river bank erosion generated by existing grazing practices of livestock is the main cause for elevated fine sediment input. Actions towards the protection of the headwaters and the stabilization of the river banks within the middle reaches were identified as the highest priority. Deforestation and by lodging and forest fires should be prevented to avoid increased hillslope erosion in the mountainous areas. Mining activities are of minor importance for the overall catchment sediment load but can constitute locally important point sources for particular heavy metals in the fluvial system.
Seizing long-term growth opportunities is both a key goal of and a challenge for companies at the same time. Saturated markets and shorter product lifecycles have changed market dynamics over the past decades, in such a way that competition on price or quality leadership has receded into the background. Instead, firms increasingly depend on the successful development of new business fields and strong brands to retain customers and spur growth. Thus, the two pillars of business development and brand management have become core strategic functions.
By focusing on innovation – a key dimension of business development – this book analyzes the interrelations between innovation and brand management and the ways in which both functions can benefit from each other. Innovations are considered crucial for building brand equity and revitalizing brand images in the long term, while vice versa, branding could facilitate consumer adoption of a newly launched innovative product or service. Since a brand is a first quality signal, it could act as a vehicle for consumers to reduce the risks and uncertainty associated with a novel product from a consumer's perspective and encourage product trial.
This book empirically investigates whether such interdependencies exist and how managers can make use of them to best leverage their company’s innovation and branding efforts. In particular, the author examines the interplay between innovation and brand management by analyzing (1) how innovations impact consumer attitudes towards the (parent) brand and its brand images, (2) how branding an innovation facilitates its market success, and (3) how building brand equity can serve as a buffer against impacts from adverse events such as a product scandal.
Its findings are highly relevant from a managerial and a theoretical perspective. They provide managers with guidance on two key aspects of business development and innovation management: One, how is innovation employed in order to best enhance a brand's equity (e.g., to revitalize its brand image)? Two, how to choose whether to leverage an existing brand or to develop a new brand in order to facilitate consumer adoption of a new innovation?
Plant cells host two important organelles: mitochondria, known as the cell’s ‘powerhouse’, which act by converting oxygen and nutrients into ATP, and plastids, which perform photosynthesis. These organelles contain their own genomes that encode proteins required for gene expression and energy metabolism. Transformation technologies offer great potential for investigating all aspects of the physiology and gene expression of these organelles in vivo. In addition, organelle transformation can be a valuable tool for biotechnology and molecular plant breeding. Plastid transformation systems are well-developed for a few higher plants, however, mitochondrial transformation has so far only been reported for Saccharomyces cerevisiae and the unicellular alga Chlamydomonas reinhardtii.
Development of an efficient new selection marker for plastid transformation is important for several reasons, including facilitating supertransformation of the plastid genome for metabolic engineering purposes and for producing multiple knock-outs or site-directed mutagenesis of two unlinked genes. In this work, we developed a novel selection system for Nicotiana tabacum (tobacco) chloroplast transformation with an alternative marker. The marker gene, aac(6′)-Ie/aph(2′′)-Ia, was cloned into different plastid transformation vectors and several candidate aminoglycoside antibiotics were investigated as selection agents. Generally, the efficiency of selection and the transformation efficiency with aac(6′)-Ie/aph(2′′)-Ia as selectable marker in combination with the aminoglycoside antibiotic tobramycin was similarly high as that with the standard marker gene aadA and spectinomycin selection. Furthermore, our new selection system may be useful for the development of plastid transformation for new species, including cereals, the world’s most important food crops, and could also be helpful for the establishment of a selection system for mitochondrial transformation.
To date, all attempts to achieve mitochondrial transformation for higher plants have been unsuccessful. A mitochondrial transformation system for higher plants would not only provide a potential for studying mitochondrial physiology but could also provide a method to introduce cytoplasmic male sterility into crops to produce hybrid seeds. Establishing a stable mitochondrial transformation system in higher plants requires several steps including delivery of foreign DNA, stable integration of the foreign sequences into the mitochondrial genome, efficient expression of the transgene, a highly regenerable tissue culture system that allows regeneration of the transformed cells into plants, and finally, a suitable selection system to identify cells with transformed mitochondrial genomes. Among all these requirements, finding a good selection is perhaps the most important obstacle towards the development of a mitochondrial transformation system for higher plants. In this work, two selection systems were tested for mitochondrial transformation: kanamycin as a selection system in combination with the antibiotic-inactivating marker gene nptII, and sulfadiazine as a selection agent that inhibits the folic acid biosynthesis pathway residing in plant mitochondria in combination with the sul gene encoding an enzyme that is insensitive to inhibition by sulfadiazine. Nuclear transformation experiments were considered as proof of the specificity of the sulfadiazine selection system for mitochondria. We showed that an optimized sulfadiazine selection system, with the Sul protein targeted to mitochondria, is much more efficient than the previous sulfadiazine selection system, in which the Sul protein was targeted to the chloroplast. We also showed by systematic experiments that the efficiency of selection and nuclear transformation of the optimized sulfadiazine selection was higher compared to the standard kanamycin selection system. Finally, we also investigated the suitability of this selection system for nuclear transformation of the model alga Chlamydomonas reinhardtii, obtaining promising results. Although we designed several mitochondrial transformation vectors with different expression elements and integration sites in the mitochondrial genome based on the sulfadiazine system, and different tissue culture condition were also considered, we were not able to obtain mitochondrial transformation with this system. Nonetheless, establishing the sul gene as an efficient and specific selection marker for mitochondria addresses one of the major bottlenecks and may pave the way to achieve mitochondrial transformation in higher plants.
Chloroplast membranes have a unique composition characterized by very high contents of the galactolipids, MGDG and DGDG. Many studies on constitutive, galactolipid-deficient mutants revealed conflicting results about potential functions of galactolipids in photosynthetic membranes. Likely, this was caused by pleiotropic effects such as starvation artefacts because of impaired photosynthesis from early developmental stages of the plants onward. Therefore, an ethanol inducible RNAi-approach has been taken to suppress two key enzymes of galactolipid biosynthesis in the chloroplast, MGD1 and DGD1. Plants were allowed to develop fully functional source leaves prior to induction, which then could support plant growth. Then, after the ethanol induction, both young and mature leaves were investigated over time.
Our studies revealed similar changes in both MGDG- and DGDG-deficient lines, however young and mature leaves of transgenic lines showed a different response to galactolipid deficiency. While no changes of photosynthetic parameters and minor changes in lipid content were observed in mature leaves of transgenic lines, strong reductions in total chlorophyll content and in the accumulation of all photosynthetic complexes and significant changes in contents of various lipid groups occurred in young leaves. Microscopy studies revealed an appearance of lipid droplets in the cytosol of young leaves in all transgenic lines which correlates with significantly higher levels of TAGs. Since in young leaves the production of membrane lipids is lowered, the excess of fatty acids is used for storage lipids production, resulting in the accumulation of TAGs.
Our data indicate that both investigated galactolipids serve as structural lipids since changes in photosynthetic parameters were mainly the result of reduced amounts of all photosynthetic constituents. In response to restricted galactolipid synthesis, thylakoid biogenesis is precisely readjusted to keep the proper stoichiometry and functionality of the photosynthetic apparatus. Ultimately, the data revealed that downregulation of one galactolipid triggers changes not only in chloroplasts but also in the nucleus as shown by downregulation of nuclear encoded subunits of the photosynthetic complexes.
Der Erfolg eines Finanzinstituts im Kreditgeschäft mit Firmenkunden wird maßgeblich von der Fähigkeit bestimmt, die künftige Bonität von Unternehmen einzuschätzen. Durch eine zunehmend starke Regulierung und einen sich verschärfenden Wettbewerb gewinnen prognosestarke Kreditrisikomodelle weiter an Bedeutung. Sowohl in der theoretischen Forschung als auch in der Regulierungspraxis, wie in der Kreditwirtschaft insgesamt, dominieren jedoch seit Jahrzehnten Modelle und Verfahren der Ausfallprognose, welche eine starke Vergangenheitsorientierung implizieren. Dies betrifft im Grunde die gesamte betriebswirtschaftliche Krisenforschung.
Dieses Spannungsfeld – einhergehend mit einer mangelnden theoretischen Fundierung bisheriger Ansätze zur Bonitätsprognose – greift der Autor auf, indem er die Logik des Unternehmensbewertungsmodells von Schwartz/Moon (2001) auf die Ausfallprognose von Unternehmen überträgt. Erweiterungen dieses Modells, etwa um die Berücksichtigung qualitativer Einflussfaktoren wie der Managementqualität, resultieren im Potsdamer Modell zur simulativen Prognose der Ausfallwahrscheinlichkeit von Unternehmen. Ausgangspunkt des Verfahrens bildet die Monte Carlo Simulation, wodurch – im Gegensatz zu traditionellen Verfahren der Insolvenzprognose – ökonomisch fundierte Ursache-Wirkungszusammenhänge einen Ausfall definieren. Die empirische Untersuchung verdeutlicht das große Potenzial des Modells und damit einhergehend die Notwendigkeit eines Paradigmenwechsels bei der Prognose der Ausfallwahrscheinlichkeit von Unternehmen.
During the drug discovery & development process, several phases encompassing a number of preclinical and clinical studies have to be successfully passed to demonstrate safety and efficacy of a new drug candidate. As part of these studies, the characterization of the drug's pharmacokinetics (PK) is an important aspect, since the PK is assumed to strongly impact safety and efficacy. To this end, drug concentrations are measured repeatedly over time in a study population. The objectives of such studies are to describe the typical PK time-course and the associated variability between subjects. Furthermore, underlying sources significantly contributing to this variability, e.g. the use of comedication, should be identified. The most commonly used statistical framework to analyse repeated measurement data is the nonlinear mixed effect (NLME) approach. At the same time, ample knowledge about the drug's properties already exists and has been accumulating during the discovery & development process: Before any drug is tested in humans, detailed knowledge about the PK in different animal species has to be collected. This drug-specific knowledge and general knowledge about the species' physiology is exploited in mechanistic physiological based PK (PBPK) modeling approaches -it is, however, ignored in the classical NLME modeling approach.
Mechanistic physiological based models aim to incorporate relevant and known physiological processes which contribute to the overlying process of interest. In comparison to data--driven models they are usually more complex from a mathematical perspective. For example, in many situations, the number of model parameters outrange the number of measurements and thus reliable parameter estimation becomes more complex and partly impossible. As a consequence, the integration of powerful mathematical estimation approaches like the NLME modeling approach -which is widely used in data-driven modeling -and the mechanistic modeling approach is not well established; the observed data is rather used as a confirming instead of a model informing and building input.
Another aggravating circumstance of an integrated approach is the inaccessibility to the details of the NLME methodology so that these approaches can be adapted to the specifics and needs of mechanistic modeling. Despite the fact that the NLME modeling approach exists for several decades, details of the mathematical methodology is scattered around a wide range of literature and a comprehensive, rigorous derivation is lacking. Available literature usually only covers selected parts of the mathematical methodology. Sometimes, important steps are not described or are only heuristically motivated, e.g. the iterative algorithm to finally determine the parameter estimates.
Thus, in the present thesis the mathematical methodology of NLME modeling is systemically described and complemented to a comprehensive description,
comprising the common theme from ideas and motivation to the final parameter estimation. Therein, new insights for the interpretation of different approximation methods used in the context of the NLME modeling approach are given and illustrated; furthermore, similarities and differences between them are outlined. Based on these findings, an expectation-maximization (EM) algorithm to determine estimates of a NLME model is described.
Using the EM algorithm and the lumping methodology by Pilari2010, a new approach on how PBPK and NLME modeling can be combined is presented and exemplified for the antibiotic levofloxacin. Therein, the lumping identifies which processes are informed by the available data and the respective model reduction improves the robustness in parameter estimation. Furthermore, it is shown how apriori known factors influencing the variability and apriori known unexplained variability is incorporated to further mechanistically drive the model development. Concludingly, correlation between parameters and between covariates is automatically accounted for due to the mechanistic derivation of the lumping and the covariate relationships.
A useful feature of PBPK models compared to classical data-driven PK models is in the possibility to predict drug concentration within all organs and tissue in the body. Thus, the resulting PBPK model for levofloxacin is used to predict drug concentrations and their variability within soft tissues which are the site of action for levofloxacin. These predictions are compared with data of muscle and adipose tissue obtained by microdialysis, which is an invasive technique to measure a proportion of drug in the tissue, allowing to approximate the concentrations in the interstitial fluid of tissues. Because, so far, comparing human in vivo tissue PK and PBPK predictions are not established, a new conceptual framework is derived. The comparison of PBPK model predictions and microdialysis measurements shows an adequate agreement and reveals further strengths of the presented new approach.
We demonstrated how mechanistic PBPK models, which are usually developed in the early stage of drug development, can be used as basis for model building in the analysis of later stages, i.e. in clinical studies. As a consequence, the extensively collected and accumulated knowledge about species and drug are utilized and updated with specific volunteer or patient data. The NLME approach combined with mechanistic modeling reveals new insights for the mechanistic model, for example identification and quantification of variability in mechanistic processes. This represents a further contribution to the learn & confirm paradigm across different stages of drug development.
Finally, the applicability of mechanism--driven model development is demonstrated on an example from the field of Quantitative Psycholinguistics to analyse repeated eye movement data. Our approach gives new insight into the interpretation of these experiments and the processes behind.
Der Gefangene als Phantom
(2017)
Der »hooded man« aus dem Abu-Ghraib-Folterskandal war 2004 medial omnipräsent und erhitzt seitdem Diskussionen über die Repräsentation von Gefangenschaft als Form der Selbst- und Fremdbeschreibung. Stephanie Siewert zeigt, dass die Inszenierungen von Gemeinschaft in Darstellungen der Gefangenschaft nicht neu sind. Ihre transnational angelegte Studie zeichnet nach, wie Literatur und Medien seit Mitte des 19. Jahrhunderts an der Herstellung und Dekonstruktion einer Phantom-Position beteiligt sind, die sich in der Moderne über verschiedene Strukturen der Bannung manifestiert. Dabei wird das Wechselspiel ethnischer, sozialer und geschlechterspezifischer Zuschreibungen in den ästhetischen Anordnungen und Verfahren des Verschwindenmachens betont.
The ionosphere, which is strongly influenced by the Sun, is known to be also affected by meteorological processes. These processes, despite having their origin in the troposphere and stratosphere, interact with the upper atmosphere. Such an interaction between atmospheric layers is known as vertical coupling. During geomagnetically quiet times, when near-Earth space is not under the influence of solar storms, these processes become important drivers for ionospheric variability. Studying the link between these processes in the lower atmosphere and the ionospheric variability is important for our understanding of fundamental mechanisms in ionospheric and meteorological research.
A prominent example of vertical coupling between the stratosphere and the ionosphere are the so-called stratospheric sudden warming (SSW) events that occur usually during northern winters and result in an increase in the polar stratospheric temperature and a reversal of the circumpolar winds. While the phenomenon of SSW is confined to the northern polar stratosphere, its influence on the ionosphere can be observed even at equatorial latitudes. During SSW events, the connection between the polar stratosphere and the equatorial ionosphere is believed to be through the modulation of global atmospheric tides. These tides are fundamental for the ionospheric E-region wind dynamo that generates electric fields and currents in the ionosphere. Observations of ionospheric currents indicate a large enhancement of the semidiurnal lunar tide in response to SSW events. Thus, the semidiurnal lunar tide becomes an important driver of ionospheric variability during SSW events.
In this thesis, the ionospheric effect of SSW events is investigated in the equatorial region, where a narrow but an intense E-region current known as the equatorial electrojet (EEJ) flows above the dip equator during the daytime. The day-to-day variability of the EEJ can be determined from magnetic field records at geomagnetic observatories close to the dip equator. Such magnetic data are available for several decades and allows to investigate the impact of SSW events on the EEJ and, even more importantly, helps in understanding the effects of SSW events on the equatorial ionosphere. An excellent long-term record of the geomagnetic field at the equator from 1922 onwards is available for the observatory Huancayo in Peru and is extensively utilized in this study.
The central subject of this thesis is the investigation of lunar tides in the EEJ during SSW events by analyzing long time series. This is done by estimating the lunar tidal amplitude in the EEJ from the magnetic records at Huancayo and by comparing them to measurements of the polar stratospheric wind and temperature, which led to the identification of the known SSW events from 1952 onwards. One goal of this thesis is to identify SSW events that predate 1952. To this end, superposed epoch analysis (SEA) is employed to establish a relationship between the lunar tidal power and the wind and temperature conditions in the lower atmosphere. A threshold value for the lunar tidal power is identified that is discriminative for the known SSW events. This threshold is then used to identify lunar tidal enhancements, which are indicative for any historic SSW events prior to 1952. It can be shown, that the number of lunar tidal enhancements and thus the occurrence frequency of historic SSW events between 1926 and 1952 is similar to the occurrence frequency of the known SSW events from 1952 onwards.
Next to the classic SSW definition, the concept of polar vortex weakening (PVW) is utilized in this thesis. PVW is defined for higher latitudes and altitudes (≈ 40km) than the classical SSW definition (≈ 32km). The correlation between the timing and magnitude of lunar tidal enhancements in the EEJ and the timing and magnitude of PVW is found to be better than for the classic SSW definition. This suggests that the lunar tidal enhancements in the EEJ are closely linked to the state of the middle atmosphere.
Geomagnetic observatories located in different longitudes at the dip equator allow investigating the longitudinally dependent variability of the EEJ during SSW events. For this purpose, the lunar tidal enhancements in the EEJ are determined for the Peruvian and Indian sectors during the major SSW events of the years 2006 and 2009. It is found that the lunar tidal amplitude shows similar enhancements in the Peruvian sector during both SSW events, while the enhancements are notably different for the two events in the Indian sector.
In summary, this thesis shows that lunar tidal enhancements in the EEJ are indeed correlated to the occurrence of SSW events and they should be considered a prominent driver of low latitude ionospheric variability. Secondly, lunar tidal enhancements are found to be longitudinally variable. This suggests that regional effects, such as ionospheric conductivity and the geometry and strength of the geomagnetic field, also play an important role and have to be considered when investigating the mechanisms behind vertical coupling.
Via their powerful radiation, stellar winds, and supernova explosions, massive stars (Mini & 8 M☉) bear a tremendous impact on galactic evolution. It became clear in recent decades that the majority of massive stars reside in binary systems. This thesis sets as a goal to quantify the impact of binarity (i.e., the presence of a companion star) on massive stars. For this purpose, massive binary systems in the Local Group, including OB-type binaries, high mass X-ray binaries (HMXBs), and Wolf-Rayet (WR) binaries, were investigated by means of spectral, orbital, and evolutionary analyses.
The spectral analyses were performed with the non-local thermodynamic equillibrium (non-LTE) Potsdam Wolf-Rayet (PoWR) model atmosphere code. Thanks to critical updates in the calculation of the hydrostatic layers, the code became a state-of-the-art tool applicable for all types of hot massive stars (Chapter 2). The eclipsing OB-type triple system δ Ori served as an intriguing test-case for the new version of the PoWR code, and provided key insights regarding the formation of X-rays in massive stars (Chapter 3). We further analyzed two prototypical HMXBs, Vela X-1 and IGR J17544-2619, and obtained fundamental conclusions regarding the dichotomy of two basic classes of HMXBs (Chapter 4). We performed an exhaustive analysis of the binary R 145 in the Large Magellanic Cloud (LMC), which was claimed to host the most massive stars known. We were able to disentangle the spectrum of the system, and performed an orbital, polarimetric, and spectral analysis, as well as an analysis of the wind-wind collision region. The true masses of the binary components turned out to be significantly lower than suggested, impacting our understanding of the initial mass function and stellar evolution at low metallicity (Chapter 5). Finally, all known WR binaries in the Small Magellanic Cloud (SMC) were analyzed. Although it was theoretical predicted that virtually all WR stars in the SMC should be formed via mass-transfer in binaries, we find that binarity was not important for the formation of the known WR stars in the SMC, implying a strong discrepancy between theory and observations (Chapter 6).
Das vorliegende Werk widmet sich den an deutschen Hochschulen oftmals wiederkehrenden Fragestellungen zur Ausgestaltung und Anwendung von Prüfungsverfahren. Unter Bezugnahme auf die bestehenden verfassungs- und verwaltungsrechtlichen Anforderungen, die für Hochschulabschlussprüfungen als auch für studienbegleitende Leistungskontrollen gelten, wird darin umfassend erörtert,
- für welche Prüfungsleistungen eine Begründungspflicht besteht,
- in welchen Fällen eine Kollegialprüfung durchzuführen ist,
- welche Prüflinge für die Herstellung einheitlicher Prüfungsbedingungen miteinander vergleichbar sind,
- welche verwaltungsrechtliche Qualität Hochschulprüfungsleistungen anhaftet,
- ob generell ein Anspruch auf ein verwaltungsinternes Kontrollverfahren gegen die gerügte Bewertung einer Hochschulprüfungsleistungen besteht und wenn ja in welchem Umfang, bzw. mit welchen rechtlichen Instrumentarien auf eine Bewertungsrüge zu reagieren ist
- und ob das Rechtsinstitut der reformatio in peius bei der Bescheidung einer Bewertungsrüge Anwendung finden darf.
Im Anschluss daran wird unter Berücksichtigung der aktuellen Rechtslage dargestellt, inwieweit der parlamentarische Gesetzgeber dem verfassungsrechtlich gebotenen Kodifikationsbedarf im Hochschulprüfungsrecht entspricht und an welchen Stellen Nachbesserungsbedarf besteht.
Mit Inkrafttreten der NFA 2008 hat die Schweiz ihren Finanzausgleich umfassend reformiert und erstmals auch einen direkt umverteilenden Ausgleich zwischen den Kantonen geschaffen. Diese Reform blieb auf deutscher Seite weitgehend unbeachtet. Der Autor vergleicht zunächst die finanzverfassungsrechtlichen Grundstrukturen in beiden Ländern und erläutert das bestehende und das ab 2020 geltende deutsche System. Dem folgt eine umfassende Analyse des sekundären Finanzausgleichs in der Schweiz, sog. Finanzausgleich im engeren Sinn, mit ausführlicher Darstellung des Ressourcenausgleichs sowie des geografisch-topografischen und soziodemografischen Lastenausgleichs. Im Anschluss werden nach Problemschwerpunkten gegliedert Reformoptionen für Deutschland aufgezeigt. Der Autor plädiert insbesondere für einen nach Schweizer Vorbild gestalteten indikatorbasierten Lastenausgleich, um dem verfassungsrechtlichen Benennungs- und Begründungsgebot bei Sonderlasten besser gerecht zu werden.
In Germany more than 200.000 persons die of cancer every year, which makes it the second most common cause of death. Chemotherapy and radiation therapy are often combined to exploit a supra-additive effect, as some chemotherapeutic agents like halogenated nucleobases sensitize the cancerous tissue to radiation. The radiosensitizing action of certain therapeutic agents can be at least partly assigned to their interaction with secondary low energy electrons (LEEs) that are generated along the track of the ionizing radiation. In the therapy of cancer DNA is an important target, as severe DNA damage like double strand breaks induce the cell death. As there is only a limited number of radiosensitizing agents in clinical practice, which are often strongly cytotoxic, it would be beneficial to get a deeper understanding of the interaction of less toxic potential radiosensitizers with secondary reactive species like LEEs. Beyond that LEEs can be generated by laser illuminated nanoparticles that are applied in photothermal therapy (PTT) of cancer, which is an attempt to treat cancer by an increase of temperature in the cells. However, the application of halogenated nucleobases in PTT has not been taken into account so far. In this thesis the interaction of the potential radiosensitizer 8-bromoadenine (8BrA) with LEEs was studied. In a first step the dissociative electron attachment (DEA) in the gas phase was studied in a crossed electron-molecular beam setup. The main fragmentation pathway was revealed as the cleavage of the C-Br bond. The formation of a stable parent anion was observed for electron energies around 0 eV. Furthermore, DNA origami nanostructures were used as platformed to determine electron induced strand break cross sections of 8BrA sensitized oligonucleotides and the corresponding nonsensitized sequence as a function of the electron energy. In this way the influence of the DEA resonances observed for the free molecules on the DNA strand breaks was examined. As the surrounding medium influences the DEA, pulsed laser illuminated gold nanoparticles (AuNPs) were used as a nanoscale electron source in an aqueous environment. The dissociation of brominated and native nucleobases was tracked with UV-Vis absorption spectroscopy and the generated fragments were identified with surface enhanced Raman scattering (SERS). Beside the electron induced damage, nucleobase analogues are decomposed in the vicinity of the laser illuminatednanoparticles due to the high temperatures. In order to get a deeper understanding of the different dissociation mechanisms, the thermal decomposition of the nucleobases in these systems was studied and the influence of the adsorption kinetics of the molecules was elucidated. In addition to the pulsed laser experiments, a dissociative electron transfer from plasmonically generated ”hot electrons” to 8BrA was observed under low energy continuous wave laser illumination and tracked with SERS. The reaction was studied on AgNPs and AuNPs as a function of the laser intensity and wavelength. On dried samples the dissociation of the molecule was described by fractal like kinetics. In solution, the dissociative electron transfer was observed as well. It turned out that the timescale of the reaction rates were slightly below typical integration times of Raman spectra. In consequence such reactions need to be taken into account in the interpretation of SERS spectra of electrophilic molecules. The findings in this thesis help to understand the interaction of brominated nucleobases with plasmonically generated electrons and free electrons. This might help to evaluate the potential radiosensitizing action of such molecules in cancer radiation therapy and PTT.
Prevalence and Predictors of Sexual Aggression Victimization and Perpetration in Chile and Turkey
(2017)
Background: Although sexual aggression is recognized as a serious issue worldwide, the current knowledge base is primarily built on evidence from Western countries, particularly the U.S. For the present doctoral research, Chile and Turkey were selected based on theoretical considerations to examine the prevalence as well as predictors of sexual aggression victimization and perpetration. The first aim of this research project was to systematically review the available evidence provided by past studies on this topic within each country. The second aim was to empirically study the prevalence of experiencing and engaging in sexual aggression since the age of consent among college students in Chile and Turkey. The third aim was to conduct cross-cultural analyses examining pathways to victimization and perpetration based on a two-wave longitudinal design.
Methods: This research adopted a gender-inclusive approach by considering men and women in both victim and perpetrator roles. For the systematic reviews, multiple-stage literature searches were performed, and based on a predefined set of eligibility criteria, 28 studies in Chile and 56 studies in Turkey were identified for inclusion. A two-wave longitudinal study was conducted to examine the prevalence and predictors of sexual aggression among male and female college students in Chile and Turkey. Self-reports of victimization and perpetration were assessed with a Chilean Spanish or Turkish version of the Sexual Aggression and Victimization Scale. Two path models were conceptualized in which participants’ risky sexual scripts for consensual sex, risky sexual behavior, sexual self-esteem, sexual assertiveness, and religiosity were assessed at T1 and used as predictors of sexual aggression victimization and perpetration at T2 in the following 12 months, mediated through past victimization or perpetration, respectively. The models differed in that sexual assertiveness was expected to serve different functions for victimization (refusal assertiveness negatively linked to victimization) and perpetration (initiation assertiveness positively linked to perpetration).
Results: Both systematic reviews revealed that victimization was addressed by all included studies, but data on perpetration was severely limited. A great heterogeneity not only in victimization rates but also in predictors was found, which may be attributed to a lack of conceptual and methodological consistency across studies. The empirical analysis of the prevalence of sexual aggression in Chile revealed a victimization rate of 51.9% for women and 48.0% for men, and a perpetration rate of 26.8% for men and 16.5% for women. In the Turkish original data, victimization was reported by 77.6% of women and 65.5% of men, whereas, again, lower rates were found for perpetration, with 28.9% of men and 14.2% of women reporting at least one incident. The cross-cultural analyses showed, as expected, that risky sexual scripts informed risky sexual behavior, and thereby indirectly increased the likelihood of victimization and perpetration at T2 in both samples. More risky sexual scripts were also linked to lower levels of refusal assertiveness in both samples, indirectly increasing the vulnerability to victimization at T2. High sexual self-esteem decreased the probability of victimization at T2 through higher refusal assertiveness as well as through less risky sexual behavior also in both samples, whereas it increased the odds of perpetration at T2 via higher initiation assertiveness in the Turkish sample only. Furthermore, high religiosity decreased the odds of perpetration and victimization at T2 through less risky sexual scripts and less risky sexual behavior in both samples. It reduced the vulnerability to victimization through less risky sexual scripts and higher refusal assertiveness in the Chilean sample only. In the Turkish sample only, it increased the odds of perpetration and victimization through lower sexual self-esteem.
Conclusions: The findings showed that sexual aggression is a widespread problem in both Chile and Turkey, contributing cross-cultural evidence to the international knowledge base and indicating the clear need for implementing policy measures and prevention strategies in each country. Based on the results of the prospective analyses, concrete implications for intervention efforts are discussed.
This thesis investigates the processing of non-canonical word orders and whether non-canonical orders involving object topicalizations, midfield scrambling and particle verbs are treated the same by native (L1) and non-native (L2) speakers. The two languages investigated are Norwegian and German.
32 L1 Norwegian and 32 L1 German advanced learners of Norwegian were tested in two experiments on object topicalization in Norwegian. The results from the online self-paced reading task and the offline agent identification task show that both groups are able to identify the non-canonical word order and show a facilitatory effect of animate subjects in their reanalysis. Similarly high error rates in the agent identification task suggest that globally unambiguous object topicalizations are a challenging structure for L1 and L2 speakers alike.
The same participants were also tested in two experiments on particle placement in Norwegian, again using a self-paced reading task, this time combined with an acceptability rating task. In the acceptability rating L1 and L2 speakers show the same preference for the verb-adjacent placement of the particle over the non-adjacent placement after the direct object. However, this preference for adjacency is only found in the L1 group during online processing, whereas the L2 group shows no preference for either order.
Another set of experiments tested 33 L1 German and 39 L1 Slavic advanced learners of German on object scrambling in ditransitive clauses in German. Non-native speakers accept both object orders and show neither a preference for either order nor a processing advantage for the canonical order. The L1 group, in contrast, shows a small, but significant preference for the canonical dative-first order in the judgment and the reading task.
The same participants were also tested in two experiments on the application of the split rule in German particle verbs. Advanced L2 speakers of German are able to identify particle verbs and can apply the split rule in V2 contexts in an acceptability judgment task in the same way as L1 speakers. However, unlike the L1 group, the L2 group is not sensitive to the grammaticality manipulation during online processing. They seem to be sensitive to the additional lexical information provided by the particle, but are unable to relate the split particle to the preceding verb and recognize the ungrammaticality in non-V2 contexts.
Taken together, my findings suggest that non-canonical word orders are not per se more difficult to identify for L2 speakers than L1 speakers and can trigger the same reanalysis processes as in L1 speakers. I argue that L2 speakers’ ability to identify a non-canonical word order depends on how the non-canonicity is signaled (case marking vs. surface word order), on the constituents involved (identical vs. different word types), and on the impact of the word order change on sentence meaning. Non-canonical word orders that are signaled by morphological case marking and cause no change to the sentence’s content are hard to detect for L2 speakers.
Das Thema der vorliegenden Arbeit ist die semantische Suche im Kontext heutiger Informationsmanagementsysteme. Zu diesen Systemen zählen Intranets, Web 3.0-Anwendungen sowie viele Webportale, die Informationen in heterogenen Formaten und Strukturen beinhalten. Auf diesen befinden sich einerseits Daten in strukturierter Form und andererseits Dokumente, die inhaltlich mit diesen Daten in Beziehung stehen. Diese Dokumente sind jedoch in der Regel nur teilweise strukturiert oder vollständig unstrukturiert. So beschreiben beispielsweise Reiseportale durch strukturierte Daten den Zeitraum, das Reiseziel, den Preis einer Reise und geben in unstrukturierter Form weitere Informationen, wie Beschreibungen zum Hotel, Zielort, Ausflugsziele an.
Der Fokus heutiger semantischer Suchmaschinen liegt auf dem Finden von Wissen entweder in strukturierter Form, auch Faktensuche genannt, oder in semi- bzw. unstrukturierter Form, was üblicherweise als semantische Dokumentensuche bezeichnet wird. Einige wenige Suchmaschinen versuchen die Lücke zwischen diesen beiden Ansätzen zu schließen. Diese durchsuchen zwar gleichzeitig strukturierte sowie unstrukturierte Daten, werten diese jedoch entweder weitgehend voneinander unabhängig aus oder schränken die Suchmöglichkeiten stark ein, indem sie beispielsweise nur bestimmte Fragemuster unterstützen. Hierdurch werden die im System verfügbaren Informationen nicht ausgeschöpft und gleichzeitig unterbunden, dass Zusammenhänge zwischen einzelnen Inhalten der jeweiligen Informationssysteme und sich ergänzende Informationen den Benutzer erreichen.
Um diese Lücke zu schließen, wurde in der vorliegenden Arbeit ein neuer hybrider semantischer Suchansatz entwickelt und untersucht, der strukturierte und semi- bzw. unstrukturierte Inhalte während des gesamten Suchprozesses kombiniert. Durch diesen Ansatz werden nicht nur sowohl Fakten als auch Dokumente gefunden, es werden auch Zusammenhänge, die zwischen den unterschiedlich strukturierten Daten bestehen, in jeder Phase der Suche genutzt und fließen in die Suchergebnisse mit ein. Liegt die Antwort zu einer Suchanfrage nicht vollständig strukturiert, in Form von Fakten, oder unstrukturiert, in Form von Dokumenten vor, so liefert dieser Ansatz eine Kombination der beiden. Die Berücksichtigung von unterschiedlich Inhalten während des gesamten Suchprozesses stellt jedoch besondere Herausforderungen an die Suchmaschine. Diese muss in der Lage sein, Fakten und Dokumente in Abhängigkeit voneinander zu durchsuchen, sie zu kombinieren sowie die unterschiedlich strukturierten Ergebnisse in eine geeignete Rangordnung zu bringen. Weiterhin darf die Komplexität der Daten nicht an die Endnutzer weitergereicht werden. Die Darstellung der Inhalte muss vielmehr sowohl bei der Anfragestellung als auch bei der Darbietung der Ergebnisse verständlich und leicht interpretierbar sein.
Die zentrale Fragestellung der Arbeit ist, ob ein hybrider Ansatz auf einer vorgegebenen Datenbasis die Suchanfragen besser beantworten kann als die semantische Dokumentensuche und die Faktensuche für sich genommen, bzw. als eine Suche die diese Ansätze im Rahmen des Suchprozesses nicht kombiniert. Die durchgeführten Evaluierungen aus System- und aus Benutzersicht zeigen, dass die im Rahmen der Arbeit entwickelte hybride semantische Suchlösung durch die Kombination von strukturierten und unstrukturierten Inhalten im Suchprozess bessere Antworten liefert als die oben genannten Verfahren und somit Vorteile gegenüber bisherigen Ansätzen bietet. Eine Befragung von Benutzern macht deutlich, dass die hybride semantische Suche als verständlich empfunden und für heterogen strukturierte Datenmengen bevorzugt wird.
Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung von anisotropen Goldnanopartikeln in einer geeigneten Polyelektrolyt-modifizierten Templatphase. Der Mittelpunkt bildet dabei die Auswahl einer geeigneten Templatphase, zur Synthese von einheitlichen und reproduzierbaren anisotropen Goldnanopartikeln mit den daraus resultierenden besonderen Eigenschaften. Bei der Synthese der anisotropen Goldnanopartikeln lag der Fokus in der Verwendung von Vesikeln als Templatphase, wobei hier der Einfluss unterschiedlicher strukturbildender Polymere (stark alternierende Maleamid-Copolymere PalH, PalPh, PalPhCarb und PalPhBisCarb mit verschiedener Konformation) und Tenside (SDS, AOT – anionische Tenside) bei verschiedenen Synthese- und Abtrennungsbedingungen untersucht werden sollte.
Im ersten Teil der Arbeit konnte gezeigt werden, dass PalPhBisCarb bei einem pH-Wert von 9 die Bedingungen eines Röhrenbildners für eine morphologische Transformation von einer vesikulären Phase in eine röhrenförmige Netzwerkstruktur erfüllt und somit als Templatphase zur formgesteuerten Bildung von Nanopartikeln genutzt werden kann.
Im zweiten Teil der Arbeit wurde dargelegt, dass die Templatphase PalPhBisCarb (pH-Wert von 9, Konzentration von 0,01 wt.%) mit AOT als Tensid und PL90G als Phospholipid (im Verhältnis 1:1) die effektivste Wahl einer Templatphase für die Bildung von anisotropen Strukturen in einem einstufigen Prozess darstellt. Bei einer konstanten Synthesetemperatur von 45 °C wurden die besten Ergebnisse bei einer Goldchloridkonzentration von 2 mM, einem Gold-Templat-Verhältnis von 3:1 und einer Synthesezeit von 30 Minuten erzielt. Ausbeute an anisotropen Strukturen lag bei 52 % (Anteil an dreieckigen Nanoplättchen von 19 %). Durch Erhöhung der Synthesetemperatur konnte die Ausbeute auf 56 % (29 %) erhöht werden.
Im dritten Teil konnte durch zeitabhängige Untersuchungen gezeigt werden, dass bei Vorhandensein von PalPhBisCarb die Bildung der energetisch nicht bevorzugten Plättchen-Strukturen bei Raumtemperatur initiiert wird und bei 45 °C ein Optimum annimmt.
Kintetische Untersuchungen haben gezeigt, dass die Bildung dreieckiger Nanoplättchen bei schrittweiser Zugabe der Goldchlorid-Präkursorlösung zur PalPhBisCarb enthaltenden Templatphase durch die Dosierrate der vesikulären Templatphase gesteuert werden kann. In umgekehrter Weise findet bei Zugabe der Templatphase zur Goldchlorid-Präkursorlösung bei 45 °C ein ähnlicher, kinetisch gesteuerter Prozess der Bildung von Nanodreiecken statt mit einer maximalen Ausbeute dreieckigen Nanoplättchen von 29 %.
Im letzten Kapitel erfolgten erste Versuche zur Abtrennung dreieckiger Nanoplättchen von den übrigen Geometrien der gemischten Nanopartikellösung mittels tensidinduzierter Verarmungsfällung. Bei Verwendung von AOT mit einer Konzentration von 0,015 M wurde eine Ausbeute an Nanoplättchen von 99 %, wovon 72 % dreieckiger Geometrien hatten, erreicht.
Mietpreisbremse
(2017)
Der Zugang der Bevölkerung zu Wohnraum und die Bezahlbarkeit des Wohnens sind seit jeher Kernthemen der Sozialen Marktwirtschaft. Für den Gesetzgeber ist es nicht zuletzt angesichts von rund 23 Millionen Mieterhaushalten in Deutschland politisch attraktiv, mittels gesetzlicher Beschränkungen Einfluss auf die Mietpreisentwicklung zu nehmen. Das Werk zeigt die ökonomischen Auswirkungen derartiger Mietpreisbegrenzungen auf, untersucht ihre regulatorischen und privatrechtlichen Implikationen und arbeitet die Grenzen für eine verfassungskonforme Ausgestaltung heraus. Dabei nimmt der Autor auch zur Diskussion um die sog. Materialisierung des Privatrechts Stellung und entwickelt einen eigenen Ansatz, wie sich unter privatrechtlichen Gesichtspunkten Einschränkungen der Vertragsfreiheit rechtfertigen lassen. Die Arbeit schließt mit einer umfassenden Bewertung der im Jahr 2015 eingeführten Mietpreisbremse, in deren Rahmen insbesondere die Verfassungsmäßigkeit der Mietpreisbremse untersucht wird.
Ausgezeichnet mit dem Fakultätspreis der Universität Potsdam.
Nicht nur die Griechenland-Krise und die drohende Zahlungsunfähigkeit des Landes beschäftigen die Öffentlichkeit seit Jahren. Das Thema Staateninsolvenz ist dauerhaft präsent, zuletzt geriet Venezuela 2017 in massive finanzielle Schwierigkeiten. Gleichwohl fehlt es weiterhin an einem geordneten Insolvenzverfahren für Staaten.
Neben der einheimischen Bevölkerung sind häufig auch ausländische Anleihegläubiger von einer Staateninsolvenz beeinflusst und müssen im Rahmen der Umschuldung auf einen erheblichen Teil der Anleihesumme verzichten. Einzig Großgläubiger (häufig Hedge Fonds) können oftmals die volle Rückzahlung der Anleihesumme erwirken, indem sie andernfalls die Umschuldung durch komplizierte Vollstreckungshandlungen stören. Diese Möglichkeit hat einen Sekundärmarkt entstehen lassen, auf dem Hedge Fonds mit diesem Geschäftsmodell Anleihen von Kleinanlegern aufkaufen.
Diesen Gegebenheiten widmet sich der Verfasser. Es wird erörtert, inwieweit eine Anwendung der Grundsätze des Wegfalls der Geschäftsgrundlage Abhilfe dafür schaffen könnte, dass es an einem geordneten Insolvenzverfahren für Staaten fehlt. Dabei werden die Voraussetzungen des § 313 BGB einer kritischen Würdigung unterzogen.
Darüber hinaus erscheint vor dem Hintergrund der Euro-Krise und den Verwerfungen in der EU im Jahr 2016 (sog. Brexit) ein Auseinanderbrechen der Euro-Zone wieder wahrscheinlicher. Ein wirtschaftlich angeschlagener Mitgliedsstaat könnte den gemeinsamen Währungsraum verlassen, um durch Abwertungsmaßnahmen seine heimische Wirtschaft zu stützen. Auch erlebt der Protektionismus durch den 2016 gewählten US-Präsidenten Donald Trump eine Renaissance. Daher könnten sich nunmehr auch insolvente Staaten zu protektionistischen Maßnahmen verleitet sehen, um Arbeitsplätze zu schaffen und heimischen Unternehmen einen Vorteil zu verschaffen. Diese aktuellen und möglichen Entwicklungen und ihre Auswirkungen auf grenzüberschreitende Vertragsverhältnisse werden abschließend behandelt.
Systematische Abweichungen zwischen gehandelten Marktpreisen und fundamentalen Werten von Wertpapieren zeigen bis heute, dass Kapitalmärkte weder vollkommen noch effizient sind. Sowohl die Finanzmarktforschung als auch die Investmentpraxis befassen sich weiter mit der Suche nach geeigneten Kapitalmarktmodellen. Neue Investmentstrategien auf Basis verbesserter Erklärungen von Wertpapierrenditen etablieren sich zunehmend am Markt. Das traditionelle Konzept der Kapitalmarktanomalie Value versus Growth beweist auch in erweiterter Form seine Gültigkeit und zeigt, dass Wertpapierrenditen und fundamentale Charakteristika von Unternehmen zusammenhängen. Solche Erkenntnisse greift der Autor auf und analysiert die traditionellen Assetklassen Aktien und Anleihen.
Für die empirische Untersuchung werden Wertpapierportfolios ermittelt, die von fundamentalen Bewertungskennzahlen abhängen, d. h. eine Kombination von Kapitalmarkt- und Jahresabschlussdaten bilden. Erkenntnisgewinne ergeben sich im Rahmen dieser Forschungsarbeit vor allem zu den Ursachen von Fehlbewertungen bei Wertpapieren im Sinne der Kapitalmarktanomalie Value versus Growth. Zudem wird gezeigt, dass die fundamentale Analyse als Bewertungsmethode sowohl für Aktien als auch für Anleihen relevant ist. Überrenditen können somit systematisch ausgenutzt werden. Dies erscheint für die Praxis besonders wichtig, da Fonds sowohl in Aktien wie auch in Anleihen investieren. Da der Anleihemarkt deutlich größer als der Aktienmarkt ist, bieten Anleihen beträchtliche Diversifikationspotentiale für Investoren, sofern eine Ausnutzung von Kapitalmarktanomalien angestrebt wird.
Für den Industrialisierungsprozess von Entwicklungs- und Schwellenländern haben ausländische Direktinvestitionen (ADI) eine wichtige Funktion. Sie können zum einen zu einer Erhöhung des industriellen Output des Ziellandes führen und zum anderen als Träger von technologischem Wissen fungieren. Neues Wissen kann den Empfängerländern der ADI durch Spillovereffekte und Technologietransfers ausländischer Tochterunternehmen zufließen. Diese Arbeit soll Antworten auf die Fragen geben, durch welche Mechanismen Spillovereffekte und Technologietransfers ausgelöst werden und wie Entwicklungs- und Schwellenländern diesen Wissenszufluss zur Beschleunigung ihres Industrialisierungsprozesses einsetzen können. Hierfür wird ein Konzept zur Förderung von Spillovereffekten entwickelt. Weiterhin wird ein theoretisches Modell entwickelt, in dem der Technologietransfer ausländischer Exportplattformen erstmals in Abhängigkeit des Anteils der Vorprodukte, die im Gastland nachgefragt werden, untersucht. In den Fallstudien Irland und Malaysia werden die Ergebnisse des theoretischen Modells sowie des entwickelten Konzepts illustriert.
The central aim of this thesis is to demonstrate the benefits of innovative frequency-based methods to better explain the variability observed in lake ecosystems. Freshwater ecosystems may be the most threatened part of the hydrosphere. Lake ecosystems are particularly sensitive to changes in climate and land use because they integrate disturbances across their entire catchment. This makes understanding the dynamics of lake ecosystems an intriguing and important research priority. This thesis adds new findings to the baseline knowledge regarding variability in lake ecosystems. It provides a literature-based, data-driven and methodological framework for the investigation of variability and patterns in environmental parameters in the time frequency domain.
Observational data often show considerable variability in the environmental parameters of lake ecosystems. This variability is mostly driven by a plethora of periodic and stochastic processes inside and outside the ecosystems. These run in parallel and may operate at vastly different time scales, ranging from seconds to decades. In measured data, all of these signals are superimposed, and dominant processes may obscure the signals of other processes, particularly when analyzing mean values over long time scales. Dominant signals are often caused by phenomena at long time scales like seasonal cycles, and most of these are well understood in the limnological literature. The variability injected by biological, chemical and physical processes operating at smaller time scales is less well understood. However, variability affects the state and health of lake ecosystems at all time scales. Besides measuring time series at sufficiently high temporal resolution, the investigation of the full spectrum of variability requires innovative methods of analysis.
Analyzing observational data in the time frequency domain allows to identify variability at different time scales and facilitates their attribution to specific processes. The merit of this approach is subsequently demonstrated in three case studies. The first study uses a conceptual analysis to demonstrate the importance of time scales for the detection of ecosystem responses to climate change. These responses often occur during critical time windows in the year, may exhibit a time lag and can be driven by the exceedance of thresholds in their drivers. This can only be detected if the temporal resolution of the data is high enough. The second study applies Fast Fourier Transform spectral analysis to two decades of daily water temperature measurements to show how temporal and spatial scales of water temperature variability can serve as an indicator for mixing in a shallow, polymictic lake. The final study uses wavelet coherence as a diagnostic tool for limnology on a multivariate high-frequency data set recorded between the onset of ice cover and a cyanobacteria summer bloom in the year 2009 in a polymictic lake. Synchronicities among limnological and meteorological time series in narrow frequency bands were used to identify and disentangle prevailing limnological processes.
Beyond the novel empirical findings reported in the three case studies, this thesis aims to more generally be of interest to researchers dealing with now increasingly available time series data at high temporal resolution. A set of innovative methods to attribute patterns to processes, their drivers and constraints is provided to help make more efficient use of this kind of data.
Ecosystem services (ESs) are defined as the contributions that ecosystems make to human wellbeing and are increasingly being used as an approach to explore the importance of ecosystems for humans through their valuation. Although value plurality has been recognised long before the mainstreaming of ESs research, socio-cultural valuation is still underrepresented in ESs assessments. It is the central goal of this PhD dissertation to explore the ability of socio-cultural valuation methods for the operationalisation of ESs research in land management. To address this, I formulated three research objectives that are briefly outlined below and relate to the three studies conducted during this dissertation.
The first objective relates to the assessment of the current role of socio-cultural valuation in ESs research. Human values are central to ESs research yet non-monetary socio-cultural valuation methods have been found underrepresented in the field of ESs science. In regard to the unbalanced consideration of value domains and conceptual uncertainties, I perform a systematic literature review aiming to answer the research question: To what extent have socio-cultural values been addressed in ESs assessments.
The second objective aims to test socio-cultural valuation methods of ESs and their relevance for land use preferences by exploring their methodological opportunities and limitations. Socio-cultural valuation methods have only recently become a focus in ESs research and therefore bear various uncertainties in regard to their methodological implications. To overcome these uncertainties, I analysed responses to a visitor survey. The research questions related to the second objective were: What are the implications of different valuation methods for ESs values? To what extent are land use preferences explained by socio-cultural values of ESs?
The third objective addressed in this dissertation is the implementation of ESs research into land management through socio-cultural valuation. Though it is emphasised that the ESs approach can assist decision making, there is little empirical evidence of the effect of ESs knowledge on land management. I proposed a way to implement transdisciplinary, spatially explicit research on ESs by answering the following research questions: Which landscape features underpinning ESs supply are considered in land management? How can participatory approaches accounting for ESs be operationalised in land management?
The empirical research resulted in five main findings that provide answers to the research questions. First, this dissertation provides evidence that socio-cultural values are an integral part of ESs research. I found that they can be assessed for provisioning, regulating, and cultural services though they are linked to cultural services to a greater degree. Socio-cultural values have been assessed by monetary and non-monetary methods and their assessment is effectively facilitated by stakeholder participation. Second, I found that different methods of socio-cultural valuation revealed different information. Whereas rating revealed a general value of ESs, weighting was found more suitable to identify priorities across ESs. Value intentions likewise differed in the distribution of values, generally implying a higher value for others than for respondents themselves. Third, I showed that ESs values were distributed similarly across groups with differing land use preferences. Thus, I provided empirical evidence that ESs values and landscape values should not be used interchangeably. Fourth, I showed which landscape features important for ESs supply in a Scottish regional park are not sufficiently accounted for in the current management strategy. This knowledge is useful for the identification of priority sites for land management. Finally, I provide an approach to explore how ESs knowledge elicited by participatory mapping can be operationalised in land management. I demonstrate how stakeholder knowledge and values can be used for the identification of ESs hotspots and how these hotspots can be compared to current management priorities.
This dissertation helps to bridge current gaps of ESs science by advancing the understanding of the current role of socio-cultural values in ESs research, testing different methods and their relevance for land use preferences, and implementing ESs knowledge into land management. If and to what extent ESs and their values are implemented into ecosystem management is mainly the choice of the management. An advanced understanding of socio-cultural valuation methods contributes to the normative basis of this management, while the proposal for the implementation of ESs in land management presents a practical approach of how to transfer this type of knowledge into practice. The proposed methods for socio-cultural valuation can support guiding land management towards a balanced consideration of ESs and conservation goals.
Modern welfare states aim at designing unemployment insurance (UI) schemes which minimize the length of unemployment spells. A variety of institutions and incentives, which are embedded in UI schemes across OECD countries, reflect this attempt. For instance, job seekers entering UI are often provided with personal support through a caseworker. They also face the requirement to regularly submit a minimum number of job applications, which is typically enforced through benefit cuts in the case of non-compliance. Moreover, job seekers may systematically receive information on their re-employment prospects. As a consequence, UI design has become a complex task. Policy makers need to define not only the amount and duration of benefit payments, but also several other choice parameters. These include the intensity and quality of personal support through caseworkers, the level of job search requirements, the strictness of enforcement, and the information provided to unemployed individuals. Causal estimates on how these parameters affect re-employment outcomes are thus central inputs to the design of modern UI systems: how much do individual caseworkers influence the transition out of unemployment? Does the requirement of an additional job application translate into increased job finding? Do individuals behave differently when facing a strict versus mild enforcement system? And how does information on re-employment prospects influence the job search decision? This dissertation proposes four novel research designs to answer this question. Chapters one to three elaborate quasi-experimental identification strategies, which are applied to large-scale administrative data from Switzerland. They, respectively, measure how personal interactions with caseworkers (chapter one), the level of job search requirements (chapter two) and the strictness of enforcement (chapter three) affect re-employment outcomes. Chapter four proposes a structural estimation approach, based on linked survey and administrative data from Germany. It studies how over-optimism on future wage offers affects the decision to search for work, and how the provision of information changes this decision.
Understanding the distribution of species is fundamental for biodiversity conservation, ecosystem management, and increasingly also for climate impact assessment. The presence of a species in a given site depends on physiological limitations (abiotic factors), interactions with other species (biotic factors), migratory or dispersal processes (site accessibility) as well as the continuing
effects of past events, e.g. disturbances (site legacy). Existing approaches to predict species distributions either (i) correlate observed species occurrences with environmental variables describing abiotic limitations, thus ignoring biotic interactions, dispersal and legacy effects (statistical species distribution model, SDM); or (ii) mechanistically model the variety of processes determining species distributions (process-based model, PBM). SDMs are widely used due to their easy applicability and ability to handle varied data qualities. But they fail to reproduce the dynamic response of species distributions to changing conditions. PBMs are expected to be superior in this respect, but they need very specific data unavailable for many species, and are often more complex and require more computational effort. More recently, hybrid models link the two approaches to combine their respective strengths.
In this thesis, I apply and compare statistical and process-based approaches to predict species distributions, and I discuss their respective limitations, specifically for applications in changing environments. Detailed analyses of SDMs for boreal tree species in Finland reveal that nonclimatic predictors - edaphic properties and biotic interactions - are important limitations at the treeline, contesting the assumption of unrestricted, climatically induced range expansion. While the estimated SDMs are successful within their training data range, spatial and temporal model transfer fails. Mapping and comparing sampled predictor space among data subsets identifies spurious extrapolation as the plausible explanation for limited model transferability. Using these findings, I analyze the limited success of an established PBM (LPJ-GUESS) applied to the same problem. Examination of process representation and parameterization in the PBM identifies implemented processes to adjust (competition between species, disturbance) and missing processes that are crucial in boreal forests (nutrient limitation, forest management). Based on climatic correlations shifting over time, I stress the restricted temporal transferability of bioclimatic limits used in LPJ-GUESS and similar PBMs. By critically assessing the performance of SDM and PBM in this application, I demonstrate the importance of understanding the limitations of the
applied methods.
As a potential solution, I add a novel approach to the repertoire of existing hybrid models. By simulation experiments with an individual-based PBM which reproduces community dynamics resulting from biotic factors, dispersal and legacy effects, I assess the resilience of coastal vegetation to abrupt hydrological changes. According to the results of the resilience analysis, I then modify temporal SDM predictions, thereby transferring relevant process detail from PBM to
SDM. The direction of knowledge transfer from PBM to SDM avoids disadvantages of current hybrid models and increases the applicability of the resulting model in long-term, large-scale applications. A further advantage of the proposed framework is its flexibility, as it is readily extended to other model types, disturbance definitions and response characteristics.
Concluding, I argue that we already have a diverse range of promising modelling tools at hand, which can be refined further. But most importantly, they need to be applied more thoughtfully. Bearing their limitations in mind, combining their strengths and openly reporting underlying assumptions and uncertainties is the way forward.
Schwankende Ansichten
(2017)
Neu sehen, anders sehen - seit dem 19. Jahrhundert hat sich in der Literatur eine Ästhetik alternativer Sehformen etabliert, die die eigene Wahrnehmung zunehmend infrage stellt und sich in der Figur des Schwankens manifestiert.
Robert Schade eröffnet einen Einblick in die Geschichte dieser alternativen Sehformen, indem er ausgehend von ökonomischen Wahrnehmungstheorien des 19. und 20. Jahrhunderts Fragestellungen aus Psychologie, Philosophie und Ästhetik verfolgt. Er stellt auf diesem Wege erstmals eine Verbindung zwischen der Sehtheorie Hermann von Helmholtz' und der Verfremdungsästhetik Viktor Shklovskijs her. Am Beispiel von vier Werkuntersuchungen (von Gustave Caillebotte, Andrej Belyj, H.G. Wells und Luigi Pirandello) werden die Vernetztheit und das kritische Potenzial der Figur des Schwankens in unterschiedlichen Diskursen illustriert.
The first main goal of this thesis is to develop a concept of approximate differentiability of higher order for subsets of the Euclidean space that allows to characterize higher order rectifiable sets, extending somehow well known facts for functions. We emphasize that for every subset A of the Euclidean space and for every integer k ≥ 2 we introduce the approximate differential of order k of A and we prove it is a Borel map whose domain is a (possibly empty) Borel set. This concept could be helpful to deal with higher order rectifiable sets in applications.
The other goal is to extend to general closed sets a well known theorem of Alberti on the second order rectifiability properties of the boundary of convex bodies. The Alberti theorem provides a stratification of second order rectifiable subsets of the boundary of a convex body based on the dimension of the (convex) normal cone. Considering a suitable generalization of this normal cone for general closed subsets of the Euclidean space and employing some results from the first part we can prove that the same stratification exists for every closed set.
Volcano dome deformation processes analysed with high resolution InSAR and camera-based techniques
(2017)
Die vorliegende Studie beschäftigt sich mit dem Berufseinstieg von Lehrpersonen und untersucht Zusammenhänge zwischen der Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen, die erstmalig in dieser Zusammenstellung überprüft worden sind.
Die Literaturrecherche machte deutlich, dass der Berufseinstieg eine besonders wichtige Phase für die berufliche Sozialisation darstellt. Die Nutzung von Lerngelegenheiten wurde empirisch noch nicht sehr oft untersucht vor allem nicht im Zusammenhang mit individuellen Determinanten und die Kooperation meist nur unter dem Fokus der Bedeutung für die Schule.
An der empirischen Untersuchung nahmen 223 berufseinsteigende Lehrkräfte aus dem Allgemeinen Pflichtschulbereich in Niederösterreich teil, die verpflichtend in den ersten beiden Dienstjahren Fortbildungen besuchen müssen. Diese Situation ist einzigartig in Österreich, da es nur in diesem Bundesland seit 2011 eine verpflichtend zu besuchende Berufseinstiegsphase gibt. Ab 2019 wird es in Österreich eine Induktionsphase für alle Lehrkräfte geben, die in den Beruf einsteigen.
Mit Hilfe von Strukturgleichungsmodellen wurden die Zusammenhänge untersucht und es zeigte sich, dass es diese in allen Bereichen gibt. Am Ende konnte ein neues Theoriemodell zur Nutzung von Lerngelegenheiten abgeleitet werden, das sich in Theorien zu professionellen Kompetenzentwicklung und zu Lernen in Aus-, Fortund Weiterbildung einordnen lässt.
Incredible !ndia – Indienreisende haben viele Eindrücke im Gepäck. Dabei sind Weblogs ein noch relativ junges Tool zur Kommunikation und Aufzeichnung der gemachten Erfahrungen. In ihrer Studie zeichnet Maria Rost aktuelle Perzeptionen und Präsentationen der Destination Indien nach mit dem Ziel, den höchst unterschiedlichen Facetten visueller, akustischer, olfaktorischer, gustatorischer und taktiler Erfahrungen von bloggenden Reisenden auf die Spur zu kommen. Vor diesem Hintergrund werden nicht nur die Handlungspraktiken der Akteure analysiert und Entwicklungsprozesse anhand von Stadtbeschreibungen, Alltagsbeobachtungen, Zeitwahrnehmungen und Selbstbeobachtungen festgehalten, sondern ergänzend zu den Weblog-Einträgen auch gepostete Fotografien herangezogen und leitfadengestützte Interviews geführt.
Tremendous progress in the development of thin film solar cell techniques has been made over the last decade. The field of organic solar cells is constantly developing, new material classes like Perowskite solar cells are emerging and different types of hybrid organic/inorganic material combinations are being investigated for their physical properties and their applicability in thin film electronics. Besides typical single-junction architectures for solar cells, multi-junction concepts are also being investigated as they enable the overcoming of theoretical limitations of a single-junction. In multi-junction devices each sub-cell operates in different wavelength regimes and should exhibit optimized band-gap energies. It is exactly this tunability of the band-gap energy that renders organic solar cell materials interesting candidates for multi-junction applications. Nevertheless, only few attempts have been made to combine inorganic and organic solar cells in series connected multi-junction architectures. Even though a great diversity of organic solar cells exists nowadays, their open circuit voltage is usually low compared to the band-gap of the active layer. Hence, organic low band-gap solar cells in particular show low open circuit voltages and the key factors that determine the voltage losses are not yet fully understood. Besides open circuit voltage losses the recombination of charges in organic solar cells is also a prevailing research topic, especially with respect to the influence of trap states.
The exploratory focus of this work is therefore set, on the one hand, on the development of hybrid organic/inorganic multi-junctions and, on the other hand, on gaining a deeper understanding of the open circuit voltage and the recombination processes of organic solar cells.
In the first part of this thesis, the development of a hybrid organic/inorganic triple-junction will be discussed which showed at that time (Jan. 2015) a record power conversion efficiency of 11.7%. The inorganic sub-cells of these devices consist of hydrogenated amorphous silicon and were delivered by the Competence Center Thin-Film and Nanotechnology for Photovoltaics in Berlin. Different recombination contacts and organic sub-cells were tested in conjunction with these inorganic sub-cells on the basis of optical modeling predictions for the optimal layer thicknesses to finally reach record efficiencies for this type of solar cells.
In the second part, organic model systems will be investigated to gain a better understanding of the fundamental loss mechanisms that limit the open circuit voltage of organic solar cells. First, bilayer systems with different orientation of the donor and acceptor molecules were investigated to study the influence of the donor/acceptor orientation on non-radiative voltage loss. Secondly, three different bulk heterojunction solar cells all comprising the same amount of fluorination and the same polymer backbone in the donor component were examined to study the influence of long range electrostatics on the open circuit voltage. Thirdly, the device performance of two bulk heterojunction solar cells was compared which consisted of the same donor polymer but used different fullerene acceptor molecules. By this means, the influence of changing the energetics of the acceptor component on the open circuit voltage was investigated and a full analysis of the charge carrier dynamics was presented to unravel the reasons for the worse performance of the solar cell with the higher open circuit voltage. In the third part, a new recombination model for organic solar cells will be introduced and its applicability shown for a typical low band-gap cell. This model sheds new light on the recombination process in organic solar cells in a broader context as it re-evaluates the recombination pathway of charge carriers in devices which show the presence of trap states. Thereby it addresses a current research topic and helps to resolve alleged discrepancies which can arise from the interpretation of data derived by different measurement techniques.
All life-sustaining processes are ultimately driven by thousands of biochemical reactions occurring in the cells: the metabolism. These reactions form an intricate network which produces all required chemical compounds, i.e., metabolites, from a set of input molecules. Cells regulate the activity through metabolic reactions in a context-specific way; only reactions that are required in a cellular context, e.g., cell type, developmental stage or environmental condition, are usually active, while the rest remain inactive. The context-specificity of metabolism can be captured by several kinds of experimental data, such as by gene and protein expression or metabolite profiles. In addition, these context-specific data can be assimilated into computational models of metabolism, which then provide context-specific metabolic predictions.
This thesis is composed of three individual studies focussing on context-specific experimental data integration into computational models of metabolism. The first study presents an optimization-based method to obtain context-specific metabolic predictions, and offers the advantage of being fully automated, i.e., free of user defined parameters. The second study explores the effects of alternative optimal solutions arising during the generation of context-specific metabolic predictions. These alternative optimal solutions are metabolic model predictions that represent equally well the integrated data, but that can markedly differ. This study proposes algorithms to analyze the space of alternative solutions, as well as some ways to cope with their impact in the predictions.
Finally, the third study investigates the metabolic specialization of the guard cells of the plant Arabidopsis thaliana, and compares it with that of a different cell type, the mesophyll cells. To this end, the computational methods developed in this thesis are applied to obtain metabolic predictions specific to guard cell and mesophyll cells. These cell-specific predictions are then compared to explore the differences in metabolic activity between the two cell types. In addition, the effects of alternative optima are taken into consideration when comparing the two cell types. The computational results indicate a major reorganization of the primary metabolism in guard cells. These results are supported by an independent 13C labelling experiment.
Nicht jeder kann sich wegen Strafvereitelung durch Nichtanzeige einer Straftat bei der Staatsanwaltschaft strafbar machen. Doch wie ist es, wenn eine Anzeige unterbleibt, nachdem die Stellen zur Bekämpfung von Fehlverhalten im Gesundheitswesen einen Verdacht festgestellt haben?
Die Arbeit gibt, nach eingehenden Untersuchungen, die Antwort. Sie zeigt, wer sich strafbar machen kann, erläutert das Aufgabenfeld der Stellen, die Voraussetzungen der Anzeigepflicht und die einzelnen strafrechtlichen Problempunkte. Zu entscheidenden Streitfragen bezieht die Untersuchung Stellung. Beantwortet werden diverse Fragen, u.a. ob die Vorstandsmitglieder der Kassenärztlichen Vereinigungen, der Orts-, Betriebs-, Innungs- und Ersatzkassen, die Geschäftsführer der Deutschen Rentenversicherung Knappschaft-Bahn-See und der Sozialversicherung für Landwirtschaft, Forsten und Gartenbau sowie die Mitarbeiter der jeweiligen Stellen, Garanten zum Schutz der Strafrechtspflege sind.
Die Rechtsgrundlagen des grenzüberschreitenden Kooperationsrechts zwischen Gebietskörperschaften
(2017)
Durch den Siegeszug der interkommunalen Zusammenarbeit und ihrer rechtlichen Grundlagen in den letzten Jahrzehnten wurde das Kooperationsrecht zwischen Gebietskörperschaften innerhalb von nationalen oder regionalen Rechtsordnungen umfassend erforscht. Die Frage nach der Anwendung dieses Rechts in einem grenzüberschreitenden Zusammenhang fand hingegen kaum Beachtung. Diese Arbeit zielt deshalb auf eine systematische Einordnung der Rechtsquellen der nationalen und europäischen Rechtsordnungen ab, die für die grenzüberschreitende Zusammenarbeit zwischen Gebietskörperschaften Anwendung finden.
During the course of millions of years, evolutionary forces have shaped the current distribution of species and their genetic variability, by influencing their phylogeny, adaptability and probability of survival. Southeast Asia is an extraordinary biodiverse region, where past climate events have resulted in dramatic changes in land availability and distribution of vegetation, resulting likewise in periodic connections between isolated islands and the mainland. These events have influenced the way species are distributed throughout this region but, more importantly, they influenced the genesis of genetic diversity. Despite the observation that a shared paleo-history resulted in very diverse species phylogeographic patterns, the mechanisms behind these patterns are still poorly understood.
In this thesis, I investigated and contrasted the phylogeography of three groups of ungulate species distributed within South and Southeast Asia, aiming to understand what mechanisms have shaped speciation and geographical distribution of genetic variability. For that purpose, I analysed the mitogenomes of historical samples, in order to account for populations from the entire range of species distributions – including populations that no longer exist. This thesis is organized in three manuscripts, which correspond to the three investigated groups: red muntjacs, Rusa deer and Asian rhinoceros.
Red muntjacs are a widely distributed species and occur in very different habitats. We found evidence for gene-flow among populations of different islands, indicative of their ability to utilize the available land corridors. However, we described also the existence of at least two dispersal barriers that created population differentiation within this group; one isolated Sundaic and Mainland populations and the second separated individuals from Sri Lanka.
Second, the two Rusa species investigated here revealed another consequence of the historical land connections. While the two species were monophyletic, we found evidence of hybridisation in Java, facilitated by the expansion of the widespread sambar, Rusa unicolor. Consequently, I found that all the individuals of Javan deer, R. timorensis which were transported to the east of Sundaland by humans, to be of hybrid descent.
In the last manuscript, we were able to include samples from the extinct mainland populations of both Sumatran and Javan rhinoceros. The results revealed a much higher genetic diversity of the historical populations than ever reported for the contemporaneous survivors. Their evolutionary histories revealed a close relationship to climatic events of the Pleistocene but, more importantly, point out the vast extent of genetic erosion within these two endangered species.
The specific phylogeographic history of the species showed some common patters of genetic differentiation that could be directly linked to the climatic and geological changes on the Sunda Shelf during the Pleistocene. However, by contrasting these results I discussed that the same geological events
did not always result in similar histories. One obvious example was the different permeability of the land corridors of Sundaland, as the ability of each species to utilize this newly available land was directly related to their specific ecological requirements. Taken together, these results have an important contribution to the general understanding of evolution in this biodiversity hotspot and the main drivers shaping the distribution of genetic diversity, but could also have important consequences for taxonomy and conservation of the three investigated groups.
Natural products and their derivatives have always been a source of drug leads. In particular, bacterial compounds have played an important role in drug development, for example in the field of antibiotics. A decrease in the discovery of novel leads from natural sources and the hope of finding new leads through the generation of large libraries of drug-like compounds by combinatorial chemistry aimed at specific molecular targets drove the pharmaceutical companies away from research on natural products. However, recent technological advances in genetics, bioinformatics and analytical chemistry have revived the interest in natural products. The ribosomally synthesized and post-translationally modified peptides (RiPPs) are a group of natural products generated by the action of post-translationally modifying enzymes on precursor peptides translated from mRNA by ribosomes. The great substrate promiscuity exhibited by many of the enzymes from RiPP biosynthetic pathways have led to the generation of hundreds of novel synthetic and semisynthetic variants, including variants carrying non-canonical amino acids (ncAAs). The microviridins are a family of RiPPs characterized by their atypical tricyclic structure composed of lactone and lactam rings, and their activity as serine protease inhibitors. The generalities of their biosynthetic pathway have already been described, however, the lack of information on details such as the protease responsible for cleaving off the leader peptide from the cyclic core peptide has impeded the fast and cheap production of novel microviridin variants. In the present work, knowledge on leader peptide activation of enzymes from other RiPP families has been extrapolated to the microviridin family, making it possible to bypass the need of a leader peptide. This feature allowed for the exploitation of the microviridin biosynthetic machinery for the production of novel variants through the establishment of an efficient one-pot in vitro platform. The relevance of this chemoenzymatic approach has been exemplified by the synthesis of novel potent serine protease inhibitors from both rationally-designed peptide libraries and bioinformatically predicted microviridins. Additionally, new structure-activity relationships (SARs) could be inferred by screening microviridin intermediates. The significance of this technique was further demonstrated by the simple incorporation of ncAAs into the microviridin scaffold.
In dieser Untersuchung zur deutsch-jüdischen Bildungsgeschichte wird die Wirkungsgeschichte der Hascharath Zwi Schule in Halberstadt rekonstruiert, der einzigen privaten jüdischen Elementarschule der ehemaligen Provinz Sachsen. Das wegweisende Schulkonzept ihres Gründers Hirsch Isaac Borchert bestand in der Vermittlung religiöser und weltlicher Bildung und spiegelt im Zeitalter von Emanzipation und Akkulturation das Streben nach Bildung und gesellschaftlichem Aufstieg wider. Berücksichtigung fanden hierbei sowohl innerjüdische und lokalspezifische Entwicklungen wie auch die im 19. Jahrhundert eingeleiteten staatlichen Maßnahmen im jüdischen Bildungswesen. Die Studie verdeutlicht darüber hinaus das kooperative Verhältnis zwischen staatlicher Schulbehörde und privater Bildungseinrichtung und zeigt das besondere Engagement und die Entschlossenheit der Akteure, religiöse Traditionen mit den Modernisierungsbestrebungen im jüdischen Schul- und Erziehungswesen in Einklang zu bringen.
Recognizing, understanding, and responding to quantities are considerable skills for human beings. We can easily communicate quantities, and we are extremely efficient in adapting our behavior to numerical related tasks. One usual task is to compare quantities. We also use symbols like digits in numerical-related tasks. To solve tasks including digits, we must to rely on our previously learned internal number representations.
This thesis elaborates on the process of number comparison with the use of noisy mental representations of numbers, the interaction of number and size representations and how we use mental number representations strategically. For this, three studies were carried out.
In the first study, participants had to decide which of two presented digits was numerically larger. They had to respond with a saccade in the direction of the anticipated answer. Using only a small set of meaningfully interpretable parameters, a variant of random walk models is described that accounts for response time, error rate, and variance of response time for the full matrix of 72 digit pairs. In addition, the used random walk model predicts a numerical distance effect even for error response times and this effect clearly occurs in the observed data. In relation to corresponding correct answers error responses were systematically faster. However, different from standard assumptions often made in random walk models, this account required that the distributions of step sizes of the induced random walks be asymmetric to account for this asymmetry between correct and incorrect responses.
Furthermore, the presented model provides a well-defined framework to investigate the nature and scale (e.g., linear vs. logarithmic) of the mapping of numerical magnitude onto its internal representation. In comparison of the fits of proposed models with linear and logarithmic mapping, the logarithmic mapping is suggested to be prioritized.
Finally, we discuss how our findings can help interpret complex findings (e.g., conflicting speed vs. accuracy trends) in applied studies that use number comparison as a well-established diagnostic tool. Furthermore, a novel oculomotoric effect is reported, namely the saccadic overschoot effect. The participants responded by saccadic eye movements and the amplitude of these saccadic responses decreases with numerical distance.
For the second study, an experimental design was developed that allows us to apply the signal detection theory to a task where participants had to decide whether a presented digit was physically smaller or larger. A remaining question is, whether the benefit in (numerical magnitude – physical size) congruent conditions is related to a better perception than in incongruent conditions. Alternatively, the number-size congruency effect is mediated by response biases due to numbers magnitude. The signal detection theory is a perfect tool to distinguish between these two alternatives. It describes two parameters, namely sensitivity and response bias. Changes in the sensitivity are related to the actual task performance due to real differences in perception processes whereas changes in the response bias simply reflect strategic implications as a stronger preparation (activation) of an anticipated answer. Our results clearly demonstrate that the number-size congruency effect cannot be reduced to mere response bias effects, and that genuine sensitivity gains for congruent number-size pairings contribute to the number-size congruency effect.
Third, participants had to perform a SNARC task – deciding whether a presented digit was odd or even. Local transition probability of irrelevant attributes (magnitude) was varied while local transition probability of relevant attributes (parity) and global probability occurrence of each stimulus were kept constantly. Participants were quite sensitive in recognizing the underlying local transition probability of irrelevant attributes. A gain in performance was observed for actual repetitions of the irrelevant attribute in relation to changes of the irrelevant attribute in high repetition conditions compared to low repetition conditions. One interpretation of these findings is that information about the irrelevant attribute (magnitude) in the previous trial is used as an informative precue, so that participants can prepare early processing stages in the current trial, with the corresponding benefits and costs typical of standard cueing studies.
Finally, the results reported in this thesis are discussed in relation to recent studies in numerical cognition.