Refine
Year of publication
- 2018 (284) (remove)
Document Type
- Doctoral Thesis (284) (remove)
Keywords
- Biomarker (3)
- Fernerkundung (3)
- Magnetismus (3)
- biomarker (3)
- climate change (3)
- magnetism (3)
- remote sensing (3)
- uncertainty (3)
- Angriffserkennung (2)
- Bakterien (2)
Institute
- Institut für Chemie (37)
- Institut für Biochemie und Biologie (34)
- Institut für Physik und Astronomie (32)
- Institut für Geowissenschaften (25)
- Historisches Institut (21)
- Wirtschaftswissenschaften (17)
- Extern (16)
- Hasso-Plattner-Institut für Digital Engineering GmbH (14)
- Sozialwissenschaften (14)
- Öffentliches Recht (13)
Earth's climate varies continuously across space and time, but humankind has witnessed only a small snapshot of its entire history, and instrumentally documented it for a mere 200 years. Our knowledge of past climate changes is therefore almost exclusively based on indirect proxy data, i.e. on indicators which are sensitive to changes in climatic variables and stored in environmental archives. Extracting the data from these archives allows retrieval of the information from earlier times. Obtaining accurate proxy information is a key means to test model predictions of the past climate, and only after such validation can the models be used to reliably forecast future changes in our warming world. The polar ice sheets of Greenland and Antarctica are one major climate archive, which record information about local air temperatures by means of the isotopic composition of the water molecules embedded in the ice. However, this temperature proxy is, as any indirect climate data, not a perfect recorder of past climatic variations. Apart from local air temperatures, a multitude of other processes affect the mean and variability of the isotopic data, which hinders their direct interpretation in terms of climate variations. This applies especially to regions with little annual accumulation of snow, such as the Antarctic Plateau. While these areas in principle allow for the extraction of isotope records reaching far back in time, a strong corruption of the temperature signal originally encoded in the isotopic data of the snow is expected. This dissertation uses observational isotope data from Antarctica, focussing especially on the East Antarctic low-accumulation area around the Kohnen Station ice-core drilling site, together with statistical and physical methods, to improve our understanding of the spatial and temporal isotope variability across different scales, and thus to enhance the applicability of the proxy for estimating past temperature variability. The presented results lead to a quantitative explanation of the local-scale (1–500 m) spatial variability in the form of a statistical noise model, and reveal the main source of the temporal variability to be the mixture of a climatic seasonal cycle in temperature and the effect of diffusional smoothing acting on temporally uncorrelated noise. These findings put significant limits on the representativity of single isotope records in terms of local air temperature, and impact the interpretation of apparent cyclicalities in the records. Furthermore, to extend the analyses to larger scales, the timescale-dependency of observed Holocene isotope variability is studied. This offers a deeper understanding of the nature of the variations, and is crucial for unravelling the embedded true temperature variability over a wide range of timescales.
How can interactive devices connect with users in the most immediate and intimate way? This question has driven interactive computing for decades. Throughout the last decades, we witnessed how mobile devices moved computing into users’ pockets, and recently, wearables put computing in constant physical contact with the user’s skin. In both cases moving the devices closer to users allowed devices to sense more of the user, and thus act more personal. The main question that drives our research is: what is the next logical step?
Some researchers argue that the next generation of interactive devices will move past the user’s skin and be directly implanted inside the user’s body. This has already happened in that we have pacemakers, insulin pumps, etc. However, we argue that what we see is not devices moving towards the inside of the user’s body, but rather towards the body’s biological “interface” they need to address in order to perform their function.
To implement our vision, we created a set of devices that intentionally borrow parts of the user’s body for input and output, rather than adding more technology to the body.
In this dissertation we present one specific flavor of such devices, i.e., devices that borrow the user’s muscles. We engineered I/O devices that interact with the user by reading and controlling muscle activity. To achieve the latter, our devices are based on medical-grade signal generators and electrodes attached to the user’s skin that send electrical impulses to the user’s muscles; these impulses then cause the user’s muscles to contract.
While electrical muscle stimulation (EMS) devices have been used to regenerate lost motor functions in rehabilitation medicine since the 1960s, in this dissertation, we propose a new perspective: EMS as a means for creating interactive systems.
We start by presenting seven prototypes of interactive devices that we have created to illustrate several benefits of EMS. These devices form two main categories: (1) Devices that allow users eyes-free access to information by means of their proprioceptive sense, such as the value of a variable in a computer system, a tool, or a plot; (2) Devices that increase immersion in virtual reality by simulating large forces, such as wind, physical impact, or walls and heavy objects.
Then, we analyze the potential of EMS to build interactive systems that miniaturize well and discuss how they leverage our proprioceptive sense as an I/O modality. We proceed by laying out the benefits and disadvantages of both EMS and mechanical haptic devices, such as exoskeletons.
We conclude by sketching an outline for future research on EMS by listing open technical, ethical and philosophical questions that we left unanswered.
In a changing world facing several direct or indirect anthropogenic challenges the freshwater resources are endangered in quantity and quality. An excessive supply of nutrients, for example, can cause disproportional phytoplankton development and oxygen deficits in large rivers, leading to failure of the aims requested by the Water Framework Directive (WFD). Such problems can be observed in many European river catchments including the Elbe basin, and effective measures for improving water quality status are highly appreciated.
In water resources management and protection, modelling tools can help to understand the dominant nutrient processes and to identify the main sources of nutrient pollution in a watershed. They can be effective instruments for impact assessments investigating the effects of changing climate or socio-economic conditions on the status of surface water bodies, and for testing the usefulness of possible protection measures. Due to the high number of interrelated processes, ecohydrological model approaches containing water quality components are more complex than the pure hydrological ones, and their setup and calibration require more efforts. Such models, including the Soil and Water Integrated Model (SWIM), still need some further development and improvement.
Therefore, this cumulative dissertation focuses on two main objectives: 1) the approach-related objectives aiming in the SWIM model improvement and further development regarding nutrient (nitrogen and phosphorus) process description, and 2) the application-related objectives in meso- to large-scale Elbe river basins to support adaptive river basin management in view of possible future changes. The dissertation is based on five scientific papers published in international journals and dealing with these research questions.
Several adaptations were implemented in the model code to improve the representation of nutrient processes including a simple wetland approach, an extended by ammonium nitrogen cycle in the soils, as well as a detailed in-stream module, simulating algal growth, nutrient transformation processes and oxygen conditions in the river reaches, mainly driven by water temperature and light. Although this new approaches created a highly complex ecohydrological model with a large number of additional calibration parameters and rising uncertainty, the calibration and validation of the SWIM model enhanced by the new approaches in selected subcatchment and the entire Elbe river basin delivered satisfactory to good model results in terms of criteria of fit. Thus, the calibrated and validated model provided a sound base for the assessment of possible future changes and impacts in climate, land use and management in the Elbe river (sub)basin(s).
The new enhanced modelling approach improved the applicability of the SWIM model for the WFD related research questions, where the ability to consider biological water quality components (such as phytoplankton) is important. It additionally enhanced its ability to simulate the behaviour of nutrients coming mainly from point sources (e.g. phosphate phosphorus). Scenario results can be used by decision makers and stakeholders to find and understand future challenges and possible adaptation measures in the Elbe river basin.
Veränderungen im thermalen Regime des Permafrosts verursachen Störungen der Erdoberfläche. Diese Veränderungen werden durch die in der Arktis seit Jahrzehnten ansteigenden Temperaturen verstärkt. Thermokarst ist ein Prozess, welcher die Erdoberfläche durch Schmelzen von Grundeis, oder Auftauen von Permafrost absacken lässt, wodurch charakteristische Landformen entstehen. Thermokarst ist vor allem entlang von Hängen weit verbreitet und die Anzahl der damit verbundenen Landformen in der Arktis steigt stetig an. Dieser Prozess mobilisiert große Mengen an Material, welche in Richtung Meer transportiert oder entlang von Hängen akkumuliert werden. Während entlang von Hängen auftretender Thermokarst terrestrische sowie aquatische Ökosysteme stark verändert, ist dessen Einfluss auf regionaler Skala zurzeit noch Gegenstand der Forschung.
In dieser Arbeit quantifizieren wir die Auswirkungen von Thermokarstprozessen entlang von Hängen auf die umliegenden Ökosysteme der küstennahen Täler und Nahküstenbereiche entlang der Yukon Küste in Kanada. Mittels überwachtem maschinellen Lernen haben wir geomorphische Faktoren identifiziert, welche die Entwicklung von retrogressiven Auftaurutschungen (RTS) begünstigen. RTS sind eine Erscheinungsform von Thermokarst entlang von Hängen. Die Küstengeomorphologie, sowie der Grundeistyp und -inhalt sind die wesentlichen bestimmenden Faktoren für das Auftreten von RTS. Wir haben Luftbildaufnahmen und Satellitenbilder genutzt, um die Evolution von RTS im Zeitraum von 1952 bis 2011 zu verfolgen. Während dieser Zeit ist die Anzahl und Ausdehnung von RTS linear angestiegen. Wir zeigen, dass 56% der RTS welche entlang der Küste in 2011 identifiziert wurden, 16.6 × 106 m3 an Material erodiert haben. Hiervon wurden 45% durch Küstenprozesse entlang der Küste transportiert. RTS tragen wesentlich zu dem Kohlenstoff-Budget des Nahküstenbereiches bei: 17% der in 2011 identifizierten RTS, haben 0.6% des organischen Kohlenstoffes transportiert, welcher durch Küstenerosion entlang der Yukon Küste jährlich freigesetzt wird. Um den Einfluss von Thermokarst entlang von Hängen auf das terrestrische Ökosystem zu beurteilen, haben wir die räumliche Verteilung von organischem Bodenkohlenstoff und Stickstoff (SOC, TN) entlang von Hangprofilen in drei arktischen Tälern analysiert.Wir weisen auf eine hohe räumliche Variabilität in der Verteilung von SOC und TN hin, welche auf komplexe Bodenprozesse zurückzuführen ist, welche entlang von Hängen auftreten. Thermokarst entlang von Hängen hat einen großen Einfluss auf die Degradierung von organischem Material und die Speicherung von SOC und TN.
Die Folgen einer lebensmittelbedingten Erkrankung sind zum Teil gravierend, insbesondere für Kinder und immunsupprimierte Menschen. Hierbei gehören Salmonella und Campylobacter zu den häufigsten Erregern, die verantwortlich für gastrointestinale Erkrankungen in Deutschland sind. Trotz umfassender Maßnahmen der EU zur Prävention und Bekämpfung von Salmonellen in Geflügelbeständen und der Lebensmittel-Industrie, wird von einem stagnierenden Trend von Infektionszahlen berichtet. Zoonose-Erreger wie Salmonellen können über Nutztiere in die Nahrungskette des Menschen gelangen, wodurch sich Infektionsherde schnell ausbreiten können. Dabei sind bestehende Präventionsstrategien für Geflügel vorhanden, die aber nicht auf den Menschen übertragbar sind. Folglich sind Diagnostik und Prävention in der Lebensmittelindustrie essentiell. Deshalb besteht ein hoher Bedarf für spezifische, sensitive und zuverlässige Nachweismethoden, die eine Point-of-care Diagnostik gewährleisten. Durch ein wachsendes Verständnis der wirtsspezifischen Faktoren von S. enterica Serovaren kann die Entwicklung sowohl neuartiger diagnostischer Methoden, als auch neuartiger Therapien und Impfstoffe maßgeblich vorangetrieben werden.
Infolgedessen wurde in dieser Arbeit ein infektionsähnliches in vitro Modell für S. Enteritidis etabliert und darauf basierend eine umfassende Untersuchung zur Identifizierung neuer Zielstrukturen für den Erreger durchgeführt. Während einer Salmonellen-Infektion ist die erste zelluläre Barriere im Wirt die Epithelschicht. Dementsprechend wurde eine humane Zelllinie (CaCo 2, Darmepithel) für die Pathogen-Wirt-Studie ausgewählt. Das Salmonellen-Transkriptom und morphologische Eigenschaften der Epithelzellen wurden in verschiedenen Phasen der Salmonellen-Infektion untersucht und mit bereits gut beschriebenen Virulenzfaktoren und Beobachtungen in Bezug gesetzt. Durch dieses Infektionsmodell konnte ein spezifischer Phänotyp für die intrazellulären Salmonellen in den Epithelzellen nachgewiesen werden. Zudem wurde aufgezeigt, dass bereits die Kultivierung in Flüssigmedium einen invasionsaktiven Zustand der Salmonellen erzeugt. Allerdings wurde durch die Kokultivierung mit Epithelzellen eine zusätzliche Expression relevanter Gene induziert, um eine effiziente Adhäsion und Transmembran-Transport zu gewährleisten. Letzterer ist charakteristisch für die intrazelluläre Limitierung von Nährstoffen und prägt den infektionsrelevanten Status. Unter Berücksichtigung dieser Faktoren ergab sich ein Phänotyp, der eindeutig Mechanismen zur Wirtsadaptation und möglicherweise auch Pathogenese aufzeigt. Die intrazellulären Bakterien müssen vom Wirt separiert werden, was ein wesentlicher Schritt für Pathogen-bestimmende Analysen ist. Hierbei wurde mithilfe einer Detergenz-basierten Lyse der eukaryotischen Zellmembran und differentieller Zentrifugation, der eukaryotische Eintrag minimal gehalten. Unter Verwendung der Virulenz-adaptierten Salmonellen wurden Untersuchungen in Hinblick auf die Identifizierung neuer Zielstrukturen für S. Enteritidis durchgeführt. Mithilfe eines immunologischen Screenings wurden neue potentielle Antigene entdeckt. Zu diesem Zweck wurden bakterielle cDNA-basierte Expressionsbibliotheken hergestellt, die durch eine vereinfachte Microarray-Anwendung ein Hochdurchsatzscreening von Proteinen als potentielle Binder ermöglichen. Folglich konnten neue unbeschriebene Proteine identifiziert werden, die sich durch eine Salmonella-Spezifität oder Membranständigkeit auszeichnen. Ebenso wurde ein Vergleich der im Screening identifizierten Proteine mit der Regulation der kodierenden Gene im infektionsähnlichen Modell durchgeführt. Dabei wurde deutlich, dass die Häufigkeit von Transkripten einen Einfluss auf die Verfügbarkeit in der cDNA-Bibliothek und folglich auch auf die Expressionsbibliothek nimmt. Angesichts eines Ungleichgewichts zwischen der Gesamtzahl protein-kodierender Gene in S. Enteritidis zu möglichen Klonen, die während des Microarray-Screenings untersucht werden können, besteht der Bedarf einer Anreicherung von Proteinen in der Expressionsbibliothek. Das infektionsähnliche Modell zeigte, dass nicht nur Virulenz-assoziierte, sondern auch Stress- und Metabolismus-relevante Gene hochreguliert werden. Durch die Konstruktion dieser spezifischen cDNA-Bibliotheken ist die Erkennung von charakteristischen molekularen Markern gegeben.
Weiterhin wurden anhand der Transkriptomanalyse spezifisch hochregulierte Gene identifiziert, die relevant für das intrazelluläre Überleben von S. Enteritidis in humanen Epithelzellen sind. Hiervon wurden drei Gene näher untersucht, indem ihr Einfluss im infektionsähnlichen Modell mittels entsprechender Gen-Knockout-Stämme analysiert wurde. Dabei wurde für eine dieser Mutanten ein reduziertes Wachstum in der späten intrazellulären Phase nachgewiesen. Weiterführende in vitro Analysen sind für die Charakterisierung des Knockout-Stamms notwendig, um den Einsatz als potenzielles Therapeutikum zu verifizieren.
Zusammenfassend wurde ein in vitro Infektionsmodell für S. Enteritidis etabliert, wodurch neue Zielstrukturen des Erregers identifiziert wurden. Diese sind für diagnostische oder therapeutische Anwendungen interessant. Das Modell lässt sich ebenso für andere intrazelluläre Pathogene übertragen und gewährleistet eine zuverlässige Identifizierung von potentiellen Antigenen.
Identifizierung früher epigenetischer Veränderungen, die zur Ausbildung einer Fettleber beitragen
(2018)
Understanding how humans move their eyes is an important part for understanding the functioning of the visual system. Analyzing eye movements from observations of natural scenes on a computer screen is a step to understand human visual behavior in the real world. When analyzing eye-movement data from scene-viewing experiments, the impor- tant questions are where (fixation locations), how long (fixation durations) and when (ordering of fixations) participants fixate on an image. By answering these questions, computational models can be developed which predict human scanpaths. Models serve as a tool to understand the underlying cognitive processes while observing an image, especially the allocation of visual attention.
The goal of this thesis is to provide new contributions to characterize and model human scanpaths on natural scenes. The results from this thesis will help to understand and describe certain systematic eye-movement tendencies, which are mostly independent of the image. One eye-movement tendency I focus on throughout this thesis is the tendency to fixate more in the center of an image than on the outer parts, called the central fixation bias. Another tendency, which I will investigate thoroughly, is the characteristic distribution of angles between successive eye movements.
The results serve to evaluate and improve a previously published model of scanpath generation from our laboratory, the SceneWalk model. Overall, six experiments were conducted for this thesis which led to the following five core results:
i) A spatial inhibition of return can be found in scene-viewing data. This means that locations which have already been fixated are afterwards avoided for a certain time interval (Chapter 2).
ii) The initial fixation position when observing an image has a long-lasting influence of up to five seconds on further scanpath progression (Chapter 2 & 3).
iii) The often described central fixation bias on images depends strongly on the duration of the initial fixation. Long-lasting initial fixations lead to a weaker central fixation bias than short fixations (Chapter 2 & 3).
iv) Human observers adjust their basic eye-movement parameters, like fixation dura- tions and saccade amplitudes, to the visual properties of a target they look for in visual search (Chapter 4).
v) The angle between two adjacent saccades is an indicator for the selectivity of the upcoming saccade target (Chapter 4).
All results emphasize the importance of systematic behavioral eye-movement tenden- cies and dynamic aspects of human scanpaths in scene viewing.
Human actuation
(2018)
Ever since the conception of the virtual reality headset in 1968, many researchers have argued that the next step in virtual reality is to allow users to not only see and hear, but also feel virtual worlds. One approach is to use mechanical equipment to provide haptic feedback, e.g., robotic arms, exoskeletons and motion platforms. However, the size and the weight of such mechanical equipment tends to be proportional to its target’s size and weight, i.e., providing human-scale haptic feedback requires human-scale equipment, often restricting them to arcades and lab environments.
The key idea behind this dissertation is to bypass mechanical equipment by instead leveraging human muscle power. We thus create software systems that orchestrate humans in doing such mechanical labor—this is what we call human actuation. A potential benefit of such systems is that humans are more generic, flexible, and versatile than machines. This brings a wide range of haptic feedback to modern virtual reality systems.
We start with a proof-of-concept system—Haptic Turk, focusing on delivering motion experiences just like a motion platform. All Haptic Turk setups consist of a user who is supported by one or more human actuators. The user enjoys an interactive motion simulation such as a hang glider experience, but the motion is generated by those human actuators who manually lift, tilt, and push the user’s limbs or torso. To get the timing and force right, timed motion instructions in a format familiar from rhythm games are generated by the system.
Next, we extend the concept of human actuation from 3-DoF to 6-DoF virtual reality where users have the freedom to walk around. TurkDeck tackles this problem by orchestrating a group of human actuators to reconfigure a set of passive props on the fly while the user is progressing in the virtual environment. TurkDeck schedules human actuators by their distances from the user, and instructs them to reconfigure the props to the right place on the right time using laser projection and voice output.
Our studies in Haptic Turk and TurkDeck showed that human actuators enjoyed the experience but not as much as users. To eliminate the need of dedicated human actuators, Mutual Turk makes everyone a user by exchanging mechanical actuation between two or more users. Mutual Turk’s main functionality is that it orchestrates the users so as to actuate props at just the right moment and with just the right force to produce the correct feedback in each other's experience.
Finally, we further eliminate the need of another user, making human actuation applicable to single-user experiences. iTurk makes the user constantly reconfigure and animate otherwise passive props. This allows iTurk to provide virtual worlds with constantly varying or even animated haptic effects, even though the only animate entity present in the system is the user. Our demo experience features one example each of iTurk’s two main types of props, i.e., reconfigurable props (the foldable board from TurkDeck) and animated props (the pendulum).
We conclude this dissertation by summarizing the findings of our explorations and pointing out future directions. We discuss the development of human actuation compare to traditional machine actuation, the possibility of combining human and machine actuators and interaction models that involve more human actuators.
The concept of hydrologic connectivity summarizes all flow processes that link separate regions of a landscape. As such, it is a central theme in the field of catchment hydrology, with influence on neighboring disciplines such as ecology and geomorphology. It is widely acknowledged to be an important key in understanding the response behavior of a catchment and has at the same time inspired research on internal processes over a broad range of scales. From this process-hydrological point of view, hydrological connectivity is the conceptual framework to link local observations across space and scales.
This is the context in which the four studies this thesis comprises of were conducted. The focus was on structures and their spatial organization as important control on preferential subsurface flow. Each experiment covered a part of the conceptualized flow path from hillslopes to the stream: soil profile, hillslope, riparian zone, and stream.
For each study site, the most characteristic structures of the investigated domain and scale, such as slope deposits and peat layers were identified based on preliminary or previous investigations or literature reviews. Additionally, further structural data was collected and topographical analyses were carried out. Flow processes were observed either based on response observations (soil moisture changes or discharge patterns) or direct measurement (advective heat transport). Based on these data, the flow-relevance of the characteristic structures was evaluated, especially with regard to hillslope to stream connectivity.
Results of the four studies revealed a clear relationship between characteristic spatial structures and the hydrological behavior of the catchment. Especially the spatial distribution of structures throughout the study domain and their interconnectedness were crucial for the establishment of preferential flow paths and their relevance for large-scale processes. Plot and hillslope-scale irrigation experiments showed that the macropores of a heterogeneous, skeletal soil enabled preferential flow paths at the scale of centimeters through the otherwise unsaturated soil. These flow paths connected throughout the soil column and across the hillslope and facilitated substantial amounts of vertical and lateral flow through periglacial slope deposits.
In the riparian zone of the same headwater catchment, the connectivity between hillslopes and stream was controlled by topography and the dualism between characteristic subsurface structures and the geomorphological heterogeneity of the stream channel. At the small scale (1 m to 10 m) highest gains always occurred at steps along the longitudinal streambed profile, which also controlled discharge patterns at the large scale (100 m) during base flow conditions (number of steps per section). During medium and high flow conditions, however, the impact of topography and parafluvial flow through riparian zone structures prevailed and dominated the large-scale response patterns.
In the streambed of a lowland river, low permeability peat layers affected the connectivity between surface water and groundwater, but also between surface water and the hyporheic zone. The crucial factor was not the permeability of the streambed itself, but rather the spatial arrangement of flow-impeding peat layers, causing increased vertical flow through narrow “windows” in contrast to predominantly lateral flow in extended areas of high hydraulic conductivity sediments.
These results show that the spatial organization of structures was an important control for hydrological processes at all scales and study areas. In a final step, the observations from different scales and catchment elements were put in relation and compared. The main focus was on the theoretical analysis of the scale hierarchies of structures and processes and the direction of causal dependencies in this context. Based on the resulting hierarchical structure, a conceptual framework was developed which is capable of representing the system’s complexity while allowing for adequate simplifications.
The resulting concept of the parabolic scale series is based on the insight that flow processes in the terrestrial part of the catchment (soil and hillslopes) converge. This means that small-scale processes assemble and form large-scale processes and responses. Processes in the riparian zone and the streambed, however, are not well represented by the idea of convergence. Here, the large-scale catchment signal arrives and is modified by structures in the riparian zone, stream morphology, and the small-scale interactions between surface water and groundwater. Flow paths diverge and processes can better be represented by proceeding from large scales to smaller ones. The catchment-scale representation of processes and structures is thus the conceptual link between terrestrial hillslope processes and processes in the riparian corridor.
The rapid development and integration of Information Technologies over the last decades influenced all areas of our life, including the business world. Yet not only the modern enterprises become digitalised, but also security and criminal threats move into the digital sphere. To withstand these threats, modern companies must be aware of all activities within their computer networks.
The keystone for such continuous security monitoring is a Security Information and Event Management (SIEM) system that collects and processes all security-related log messages from the entire enterprise network. However, digital transformations and technologies, such as network virtualisation and widespread usage of mobile communications, lead to a constantly increasing number of monitored devices and systems. As a result, the amount of data that has to be processed by a SIEM system is increasing rapidly. Besides that, in-depth security analysis of the captured data requires the application of rather sophisticated outlier detection algorithms that have a high computational complexity. Existing outlier detection methods often suffer from performance issues and are not directly applicable for high-speed and high-volume analysis of heterogeneous security-related events, which becomes a major challenge for modern SIEM systems nowadays.
This thesis provides a number of solutions for the mentioned challenges. First, it proposes a new SIEM system architecture for high-speed processing of security events, implementing parallel, in-memory and in-database processing principles. The proposed architecture also utilises the most efficient log format for high-speed data normalisation. Next, the thesis offers several novel high-speed outlier detection methods, including generic Hybrid Outlier Detection that can efficiently be used for Big Data analysis. Finally, the special User Behaviour Outlier Detection is proposed for better threat detection and analysis of particular user behaviour cases.
The proposed architecture and methods were evaluated in terms of both performance and accuracy, as well as compared with classical architecture and existing algorithms. These evaluations were performed on multiple data sets, including simulated data, well-known public intrusion detection data set, and real data from the large multinational enterprise. The evaluation results have proved the high performance and efficacy of the developed methods.
All concepts proposed in this thesis were integrated into the prototype of the SIEM system, capable of high-speed analysis of Big Security Data, which makes this integrated SIEM platform highly relevant for modern enterprise security applications.
Heinrich Loewe
(2018)
Die zionistische Geschichte Berlins ist zweifellos mit den Biographien einer Vielzahl von Aktivistinnen und Aktivisten verknüpft, die sich vom ausgehenden 19. Jahrhundert an selbstorganisierten. Heinrich Loewe, den Barbara Schäfer zum „Paradebeispiel einer ganzen Epoche“ erklärte, spielte im Zuge der zionistischen ‚Aneignung‘ der Großstadt zweifelsohne eine entscheidende Rolle. Auf seinem Grabstein auf dem Alten Friedhof in Tel Aviv ist zurecht eingraviert: „Einer unter den Gründern der zionistischen Bewegung“.
Loewe – geboren in Wanzleben, Berliner seit 1933 – war um die Jahrhundertwende an zahlreichen zionistischen Vereinsgründungen beteiligt und viele Jahre als Journalist und Chefredakteur tätig. Früh unternahm er mehrmonatige Reisen nach Palästina, war Delegierter (nicht nur) auf dem 1. Zionistenkongress, später sogar Referent für „Palästina-Kulturfragen“ im 1907 in Berlin eröffneten Zentralbüro der Zionistischen Weltorganisation. Mit der Machtübernahme der Nationalsozialisten 1933 endete Loewes langjährige Tätigkeit als Bibliothekar der Berliner Universitätsbibliothek und er emigrierte mit seiner Familie nach Tel Aviv. Zu diesem Zeitpunkt blickte er auf einen 30 Jahre andauernden Einsatz für den Aufbau einer jüdischen Nationalbibliothek in Jerusalem zurück. Er wäre beinahe ihr erster Direktor geworden.
Basierend auf umfangreichem Material aus israelischen und deutschen Archiven sowie einem großen Korpus weiterer zeitgenössischer Quellen untersucht Frank Schlöffels Buch am Beispiel der Biographie Heinrich Loewes soziale und kulturelle Verflechtungsprozesse. Häufig von konkreten raum-zeitlichen Settings ausgehend – einem Ort etwa wie der Bibliothek oder der Redaktion –, richtet er einerseits den Blick auf das in diesen Kontexten entstehende Wissen, anderseits auf die sich knüpfenden Beziehungen zwischen Orten und zwischen Menschen, Gegenständen und Ideen.
Die Arbeit widmet sich den Haushaltssperren auf den verschiedenen Ebenen und untersucht, ob ein einheitliches Instrument der Haushaltssperre im deutschen Recht existiert, oder ob sich hinter dem Begriff der Haushaltssperre verschiedene haushaltsrechtliche Maßnahmen verbergen. Dazu werden auf verfassungsrechtlicher Ebene der Aspekt der Gewaltenteilung gemäß Art. 20 II 2 GG sowie die kommunale Selbstverwaltungsgarantie des Art. 28 II GG betrachtet. Auf Bundes-, Landes- und kommunaler Ebene werden u.a. Sperrvermerke, Globale Minderausgaben, haushaltswirtschaftliche Sperren sowie Bewirtschaftungssperren eingehend dargestellt und erörtert. Ergänzend werden Aspekte wie weitere Instrumente zur Kontrolle des Haushalts und Rechtsschutz gegen Haushaltssperren dargestellt und Regelungsvorschläge unterbreitet. Im Fazit wird festgestellt, dass »Haushaltssperren« zu komplex und unterschiedlich sind, um ein einheitliches Institut der Haushaltssperre darstellen zu können.
The prediction of the ground shaking that can occur at a site of interest due to an earthquake is crucial in any seismic hazard analysis. Usually, empirically derived ground-motion prediction equations (GMPEs) are employed within a logic-tree framework to account for this step. This is, however, challenging if the area under consideration has only low seismicity and lacks enough recordings to develop a region-specific GMPE. It is then usual practice to adapt GMPEs from data-rich regions (host area) to the area with insufficient ground-motion recordings (target area). Host GMPEs must be adjusted in such a way that they will capture the specific ground-motion characteristics of the target area. In order to do so, seismological parameters of the target region have to be provided as, for example, the site-specific attenuation factor kappa0. This is again an intricate task if data amount is too sparse to derive these parameters.
In this thesis, I explore methods that can facilitate the selection of non-endemic GMPEs in a logic-tree analysis or their adjustment to a data-poor region. I follow two different strategies towards this goal.
The first approach addresses the setup of a ground-motion logic tree if no indigenous GMPE is available. In particular, I propose a method to derive an optimized backbone model that captures the median ground-motion characteristics in the region of interest. This is done by aggregating several foreign GMPEs as weighted components of a mixture model in which the weights are inferred from observed data. The approach is applied to Northern Chile, a region for which no indigenous GMPE existed at the time of the study. Mixture models are derived for interface and intraslab type events using eight subduction zone GMPEs originating from different parts of the world. The derived mixtures provide satisfying results in terms of average residuals and average sample log-likelihoods. They outperform all individual non-endemic GMPEs and are comparable to a regression model that was specifically derived for that area.
The second approach is concerned with the derivation of the site-specific attenuation factor kappa0. kappa0 is one of the key parameters in host-to-target adjustments of GMPEs but is hard to derive if data amount is sparse. I explore methods to estimate kappa0 from ambient seismic noise. Seismic noise is, in contrast to earthquake recordings, continuously available. The rapidly emerging field of seismic interferometry gives the possibility to infer velocity and attenuation information from the cross-correlation or deconvolution of long noise recordings. The extraction of attenuation parameters from diffuse wavefields is, however, not straightforward especially not for frequencies above 1 Hz and at shallow depth. In this thesis, I show the results of two studies. In the first one, data of a small-scale array experiment in Greece are used to derive Love wave quality factors in
the frequency range 1-4 Hz. In a second study, frequency dependent quality factors of S-waves (5-15 Hz) are estimated by deconvolving noise recorded in a borehole and at a co-located surface station in West Bohemia/Vogtland. These two studies can be seen as preliminary steps towards the estimation of kappa0 from seismic noise.
Climate change affects societies across the globe in various ways. In addition to gradual changes in temperature and other climatic variables, global warming is likely to increase intensity and frequency of extreme weather events.
Beyond biophysical impacts, these also directly affect societal and economic activity. Additionally, indirect effects can occur; spatially, economic losses can spread along global supply-chains; temporally, climate impacts can change the economic development trajectory of countries.
This thesis first examines how climate change alters river flood risk and its local socio-economic implications. Then, it studies the global economic response to river floods in particular, and to climate change in general.
Changes in high-end river flood risk are calculated for the next three decades on a global scale with high spatial resolution. In order to account for uncertainties, this assessment makes use of an ensemble of climate and hydrological models as well as a river routing model, that is found to perform well regarding peak river discharge. The results show an increase in high-end flood risk in many parts of the world, which require profound adaptation efforts. This pressure to adapt is measured as the enhancement in protection level necessary to stay at historical high-end risk. In developing countries as well as in industrialized regions, a high pressure to adapt is observed - the former to increase low protection levels, the latter to maintain the low risk levels perceived in the past.
Further in this thesis, the global agent-based dynamic supply-chain model acclimate is developed. It models the cascading of indirect losses in the global supply network. As an anomaly model its agents - firms and consumers - maximize their profit locally to respond optimally to local perturbations. Incorporating quantities as well as prices on a daily basis, it is suitable to dynamically resolve the impacts of unanticipated climate extremes.
The model is further complemented by a static measure, which captures the inter-dependencies between sectors across regions that are only connected indirectly. These higher-order dependencies are shown to be important for a comprehensive assessment of loss-propagation and overall costs of local disasters.
In order to study the economic response to river floods, the acclimate model is driven by flood simulations. Within the next two decades, the increase in direct losses can only partially be compensated by market adjustments, and total losses are projected to increase by 17% without further adaptation efforts. The US and the EU are both shown to receive indirect losses from China, which is strongly affected directly. However, recent trends in the trade relations leave the EU in a better position to compensate for these losses.
Finally, this thesis takes a broader perspective when determining the investment response to the climate change damages employing the integrated assessment model DICE. On an optimal economic development path, the increase in damages is anticipated as emissions and consequently temperatures increase. This leads to a significant devaluation of investment returns and the income losses from climate damages almost double.
Overall, the results highlight the need to adapt to extreme weather events - local physical adaptation measures have to be combined with regional and global policy measures to prepare the global supply-chain network to climate change.
In der vorliegenden Arbeit werden Wege zur Gewinnung verschiedener phenolischer Substanzen wie Lignin, Diarylheptanoide und 4-(3-Oxobutyl)phenol (Himbeerketon) aus dem Stamm der Hängebirke (Betula pendula) aufgezeigt. Durch Methacrylierung des 4-(3-Oxobutyl)phenols wurde ein Monomer erzeugt, welches mittels freier radikalischer Masse- und Lösungspolymerisation, sowie enzymatischer Polymerisation polymerisiert werden kann.
Eine erste Isolierung von Bestandteilen wurde durch Extraktion von Innenholz bzw. Rinde mit Methanol erzielt. Die in Methanol unlöslichen Bestandteile des Innenholzes und der Rinde wurden anschließend mit ausgewählten ionischen Flüssigkeiten extrahiert. Es wurde ein Verfahren zum selektiven Trennen der mit diesen ionischen Flüssigkeiten extrahierten Bestandteile in Cellulose, Hemicellulose, Lignin und mit Ethylacetat extrahierbare Bestandteile entwickelt. Hierdurch war es möglich, sowohl die verwendeten ionischen Flüssigkeiten als auch das Innenholz und die Rinde hinsichtlich ihres Extraktionsverhaltens miteinander zu vergleichen.
Ferner wurden verschiedene Strategien aufgezeigt, um insgesamt drei Spezies an Diarylheptanoiden aus dem methanolischen Extrakt der Rinde zu isolieren. Eines der gefundenen Diarylheptanoide (5 Hydroxy-1,7-bis(4-hydroxyphenyl)-3-heptanon) wurde via Retroaldolreaktion in 4 (3 Oxobutyl)phenol (Himbeerketon) und 3 (4 Hydroxyphenyl)propanal gespalten.
Es wurde die Verwendung des 4-(3-Oxobutyl)phenol als Monomerbestandteil untersucht. Hierfür wurde 4-(3-Oxobutyl)phenylmethacrylat synthetisiert und Wege zur Reinigung mittels Säulenchromatographie und Umkristallisation aufgezeigt. Anschließend wurde Poly(4-(3-oxobutyl)phenylmethacrylat) (PObMA) und Polybenzylmethacrylats (PBzMA) aus Massen- und Lösungspolymerisation hergestellt. Die Ausbeuten an PObpMA im Vergleich zum PBzMA liegen bei gleichen Reaktionsbedingungen auf gleichem Niveau. Im Kontrast hierzu ist der Polymerisationsgrad aus freier radikalischer Polymerisation in Masse des PObpMA im Vergleich zum PBzMA um den Faktor 3,7 größer. Die Glasübergangstemperaturen des PObpMA liegen bei gleichen Reaktionsbedingungen sowohl bei freier radikalischer Polymerisation in Masse, als auch bei Lösungspolymerisation über denen des PBzMA. Darüber hinaus wurde die Polymerisation von 4-(3-Oxobutyl)phenylmethacrylat und Benzylmethacrylat mit einem Initiatorsystem bestehend aus Meerrettichperoxidase, Acetylaceton und Wasserstoffperoxid bei Raumtemperatur beschrieben. Die mit enzymatischem Initiatorsystem erzeugten Produkte zeigten starke Übereinstimmung mit Produkten aus Lösungspolymerisationen, welche mit Azobis(isobutyronitril) initiiert wurden.
Die Unzufriedenheit mit Gewicht und Figur gilt als bedeutsamer Risikofaktor für die Entstehung von gestörtem Essverhalten und Essstörungen im Vollbild und steht mit reduziertem psychischem Wohlbefinden in Zusammenhang. Aufgrund der hohen klinischen Relevanz wurden Gewichts- /Figursorgen v. a. bei weiblichen Jugendlichen und jungen Erwachsenen vielfach untersucht. Muskelsorgen – als männliches Äquivalent betrachtet – stießen erst im Verlauf der letzten 20 Jahren auf vermehrtes Interesse in der psychologischen Forschung. Die aktuellen westlichen Schönheitsideale legen jedoch die Relevanz von Gewicht, Figur und Muskulosität in Bezug auf aussehensbezogene Sorgen bei beiden Geschlechtern nahe. In der vorliegenden Dissertation wurden deshalb die folgenden Fragestellungen thematisiert: (1) Auftreten: Wie sind Gewichts- /Figursorgen und Muskelsorgen bei weiblichen und männlichen Jugendlichen und jungen Erwachsenen ausgeprägt? Wie verändern sie sich über 20 Monate? Welche Profile lassen sich bezüglich ihres Auftretens definieren? (2) Einflussfaktoren: Welchen Einfluss haben Alter, Gewichtsstatus, negative Affektivität und Internalisierung des Schönheitsideals auf Gewichts- /Figursorgen und Muskelsorgen? (3) Folgen: Welchen Einfluss haben Gewichts-/Figursorgen und Muskelsorgen auf essensbezogene Sorgen, restriktives Essverhalten, Binge Eating, zwanghaftes Bewegungsverhalten, Verhaltensweisen zum Muskelaufbau und negative Affektivität?
Es konnte gezeigt werden, dass mehr Mädchen von aussehensbezogenen Sorgen betroffen sind und diese im Mittel höher ausgeprägte Gewichts-/Figursorgen zeigen, während Jungen höher ausgeprägte Muskelsorgen berichten. Eine differenzierte Analyse verschiedener Subgruppen legt jedoch nahe, dass es in Gruppen mit ausgeprägten aussehensbezogenen Sorgen keine Geschlechtsunterschiede bezüglich Gewichts-/Figursorgen und Muskelsorgen gibt. Dieser Befund unterstreicht die Relevanz beider Aspekte bei beiden Geschlechtern und legt eine entsprechende Erfassung in zukünftigen Studien nahe. Des Weiteren ergaben sich Ansatzpunkte für die Notwendigkeit der Prävention bei Mädchen mit Übergewicht/Adipositas im späten Jugend- und frühen Erwachsenenalter ebenso wie bei Jungen mit Untergewicht sowie Übergewicht/Adipositas. Neben Gewichts-/Figursorgen sollte bei weiblichen Jugendlichen und jungen Erwachsenen auch die Internalisierung des schlanken Ideals thematisiert werden, um der Entstehung von auffälligem Ess- und Bewegungsverhalten vorzubeugen. Bei beiden Geschlechtern zeigte sich außerdem die Internalisierung des athletischen Ideals als relevanter Ansatzpunkt für die Vorbeugung von Verhaltensweisen zum Muskelaufbau. Darüberhinaus konnten bei beiden Geschlechtern sowohl für Gewichts-/Figursorgen, als auch für Muskelsorgen Zusammenhänge mit potentiell gesundheitsschädlichen Verhaltensweisen gezeigt werden.
Zusammenfassend gelang in der vorliegenden Arbeit eine differenzierte Analyse von Auftreten, Einflussfaktoren und Folgen von Gewichts-/Figursorgen und Muskelsorgen bei Jugendlichen und jungen Erwachsenen. Mittels, großteils prospektiver, latenter Modelle und manifester Pfadanalysen konnten bisherige Befunde überprüft und erste Befunde zu den Forschungslücken in Bezug auf Muskelsorgen bei weiblichen Jugendlichen und jungen Erwachsenen berichtet werden.
Professionelle GT Langstreckenmotorsportler (Rennfahrer) müssen den hohen motorischen und kognitiven Ansprüchen ohne Verlust der Performance während eines Rennens endgegenwirken können. Sie müssen stets, bei hoher Geschwindigkeit fokussiert und konzentriert auf ihr Auto, die Rennstrecke und ihre Gegner reagieren können. Darüber hinaus sind Rennfahrer zusätzlich durch die notwendige Kommunikation im Auto mit den Ingenieuren und Mechanikern in der Boxengasse gefordert. Daten über die tatsächliche Beanspruchung und häufig auftretende Beschwerden und/oder Verletzung von Profiathleten liegen kaum vor. Für eine möglichst gute Performance im Auto während eines Rennens ist es notwendige neben der körperlichen Beanspruchung auch die häufigen Krankheitsbilder zu kennen. Auf Basis dessen kann eine optimale Prävention oder notwendige Therapie zur möglichst schnellen Reintegration in den Sport abgeleitet und entwickelt werden. Die vorliegende Arbeit befasst sich durch ein regelmäßiges Gesundheitsmonitoring mit der Erfassung häufiger Beschwerden und oder Verletzungen im GT Langestreckenmotorsport zur Ableitung eines präventiven (trainingstherapeutischen) und therapeutischen Konzeptes. Darüber hinaus, soll über die Einschätzung der körperlichen Leistungsfähigkeit der Athleten, auf Basis der Beanspruchung im Rennfahrzeug ein mögliches Trainingskonzept in Abhängigkeit der Saison entwickelt werden.
Insgesamt wurden über 15 Jahre (2003-2017) 37 männliche Athleten aus dem GT Langstreckenmotorsport 353mal im Rahmen eines Gesundheitsmonitorings untersucht. Dabei wurden Athleten maximal 14 Jahre und mindestens 1 Jahr sportmedizinische betreut. Diese 2x im Jahr stattfindende Untersuchung beinhaltete im Wesentlichen eine sportmedizinische Untersuchung zur Einschätzung der Tauglichkeit für den Sport und die Erfassung der körperlichen Leistungsfähigkeit. Über das Gesundheitsmonitoring hinaus erfolgte die Betreuung zusätzlich an der Rennstrecke zur weiteren Erfassung der Beschwerden, Erkrankungen und Verletzungen der Athleten während ihrer sportartspezifischen Belastung. Zusammengefasst zeigen die Athleten geringe Prävalenzen und Inzidenzen der Krankheitsbilder bzw. Beschwerden. Ein Unterschied der Prävalenzen zeigt sich zwischen den Gesundheitsuntersuchungen und der Betreuung an der Rennstrecke. Die häufigsten Beschwerdebilder zeigen sich aus Orthopädie und Innerer Medizin. So sind Infekte der oberen Atemwege sowie Allergien neben Beschwerden der unteren Extremität und der Wirbelsäule am häufigsten. Demzufolge werden vorrangig physio- und trainingstherapeutische Konsequenzen abgeleitet. Eine medikamentöse Therapie erfolgt im Wesentlichen während der Rennbetreuung. Zur Reduktion der orthopädischen und internistischen Beschwerden sollten präventive Maßnahmen mehr betont werden. Die körperliche Leistungsfähigkeit zeigt im Wesentlichen über die Untersuchungsjahre eine stabile Performance für die Ausdauer-, Kraft und sensomotorische Leistungsfähigkeit. Die Ausdauerleistungsfähigkeit kann in Abhängigkeit der Sportartspezifik mit einer guten bis sehr guten Ausprägung definiert werden. Die Kraftleistungsfähigkeit und die sensomotorische Leistungsfähigkeit lassen sportartspezifische Unterschiede zu und sollte körpergewichtsbezogen betrachtet werden.
Ein sportmedizinisches und trainingstherapeutisches Konzept müsste demnach eine regelmäßige ärztlich-medizinische Untersuchung mit dem Fokus der Orthopädie, Inneren Medizin und Hals- Nasen-Ohren-Kunde beinhalten. Darüber hinaus sollte eine regelmäßige Erfassung der körperlichen Leistungsfähigkeit zur möglichst effektiven Ableitung von Trainingsinhalten oder Präventionsmaßnahmen berücksichtig werden. Auf Grundlage der hohen Reisetätigkeit und der ganzjährigen Saison könnte ein 1-2x jährlich stattfindendes Trainingslager, im Sinne eines Grundlagen- und Aufbautrainings zur Optimierung der Leistungsfähigkeit beitragen, das Konzept komplementieren. Zudem scheint eine ärztliche Rennbetreuung notwendig.
In einer verschränkten Lektüre von Curtius, Auerbach und Bachtin macht die Dissertation sichtbar, wie die Autoren mit ihren Arbeiten zur europäischen Literaturgeschichte nach einer ethischen Orientierung in der Krise der Moderne suchen. Ihr Konzept einer philologisch fundierten Geschichtsphilosophie in praktischer Absicht wird sowohl kultur- und theoriegeschichtlich aufbereitet, als auch anhand detaillierter Textanalysen nachvollzogen.
Der Blick auf den geschichtsphilosophischen Aspekt ihrer Forschungsarbeit erweist sich hierbei nicht nur insoweit als fruchtbar, als er sich als Schlüssel offenbart, philologische Mikrologie und breite Zusammenschau sowie ideengeschichtliche und gesellschaftliche Entwicklungen zu verknüpfen. Ihr Ansatz offenbart sich auch als wesentlich differenzierter, als es die gängigen Vorbehalte gegenüber der Geschichtsphilosophie vermuten lassen.
Die Untersuchung erweitert aus diesem Grund den methodischen Diskurshorizont, indem sie die Möglichkeiten einer kritischen Geschichtsphilosophie für gegenwärtige Fragen der Literaturgeschichte neu justiert. Dies geschieht über den Zugang so unterschiedlicher Rezeptionen wie der von Anselm Haverkamp, Edward Said, Terry Eagleton und Homi Bhabha, die einen Diskussionsraum eröffnen, welcher den eigenen historischen Standpunkt der Dissertation im Kontext von Postmoderne und Postkolonialismus reflektiert.
Der am 15. Juni 1875 in Frankfurt (Oder) geborene und langjährig in seiner Wahlheimat Potsdam praktizierende Allgemeinmediziner Georg Otto Schneider war einer der bedeutendsten ärztlichen Standesvertreter der ersten Hälfte des 20. Jahrhunderts. Eng verknüpft mit seinem Namen sind eine geradlinige, liberale Berufspolitik sowie die Entfaltung und der Erhalt beruflicher Selbstverwaltung in der brandenburgischen und gesamtdeutschen Ärzteschaft. Als führendes Mitglied in mehreren provinzialen und reichsweiten Verbänden engagierte sich Schneider über vier historische Epochen stets im Sinne einer freien Ausübung und autonomen Verwaltung des Arztberufes.
Im Deutschen Kaiserreich war Schneiders standespolitisches Handeln zunächst noch regional begrenzt. 1912 initiierte er die Errichtung eines Schutzverbandes für die Ärzte des Bezirks Potsdam, dem er über zehn Jahre vorsaß. In der Weimarer Republik stieg Schneider sodann zu einer Schlüsselfigur der Gesundheits- und ärztlichen Berufspolitik auf. 1920 belebte er den Ärzteverband für die Provinz Brandenburg, ab 1928 leitete er dazu in Personalunion die brandenburgische Ärztekammer. Bereits zwei Jahre zuvor hatte er die Geschäftsführung des Deutschen Ärztevereinsbundes übernommen. Infolge der Machtübernahme der Nationalsozialisten schied Schneider bis Mitte 1934 aus allen Ämtern aus, seine Bemühungen für den Erhalt der Berufsautonomie waren vergebens. Anders sah es zunächst nach Ende des Zweiten Weltkriegs aus. In der Sowjetischen Besatzungszone saß Schneider der Fachgruppe Ärzte im Freien Deutschen Gewerkschaftsbund Brandenburg vor und verteidigte die Möglichkeiten der selbstständigen Berufsverwaltung. Zudem war er von 1946 an bis zu seinem Tod am 26. Oktober 1949 Fraktionsvorsitzender der Liberal-Demokratischen Partei im brandenburgischen Landtag.
Vor dem Hintergrund des Lebens und Wirkens Georg Schneiders untersucht die Dissertation Kontinuitäten und Brüche im ärztlichen Organisationswesen, ausgehend vom Deutschen Kaiserreich über die Weimarer Epoche und den Nationalsozialismus bis hin zur Zeit der sowjetischen Besatzung. Die Arbeit stellt die Auswirkungen der jeweiligen politischen, sozioökonomischen und gesellschaftlichen Entwicklungen auf den Ärztestand und die entsprechenden Reaktionen der ärztlichen Berufsvertreter, allen voran Georg Schneiders, gegenüber. Dabei hinterfragt sie, inwiefern sich die ärztlichen Organisationsstrukturen dem jeweiligen System anpassten und welchen Einfluss Schneider als einzelne Person in den größeren Institutionen entfalten konnte.
Geben oder Nehmen
(2018)
Geben oder nehmen? Diese Frage war nach der Wiedervereinigung nicht einfach zu beantworten. Die Euphorie über das Ende der deutschen Teilung 1989/90 wurde besonders frühzeitig und lang anhaltend von Konflikten überschattet, die sich an ungeklärten Eigentumsfragen an Grundstücken in Ostdeutschland entzündeten. Wohl kaum ein anderes Thema hat das Zusammenwachsen zwischen Ost und West so belastet wie die Kontroversen um die Rückübertragung von Eigentum.
Der Band bietet eine – bislang fehlende – ausgewogene Gesamtdarstellung der Eigentumsfragen im Kontext der Wiedervereinigung. Dazu gehört die Darstellungen der Vorbedingung der Eigentumsproblematik vor 1990, die Betrachtung der Entscheidungsfindung, die zum umstrittenen Grundsatz geführt hat, eine intensive Auseinandersetzung mit den Umsetzungsproblemen der gesetzlichen Regelungen in der Praxis sowie der Versuch, die Auswirkungen für die Region Berlin/Brandenburg zu bilanzieren.
Kolorektalkrebs (CRC) ist die dritthäufigste Tumorerkrankung weltweit. Neben dem Alter spielt auch die Ernährung eine wichtige Rolle bei der Entstehung der Krankheit. Eine vermutlich krebspräventive Wirkung wird dabei dem Spurenelement Selen zugeschrieben, das fast ausschließlich über Lebensmittel aufgenommen wird. So hängt beispielsweise ein niedriger Selenstatus mit dem Risiko, im Laufe des Lebens an CRC zu erkranken, zusammen. Seine Funktionen vermittelt Selen dabei überwiegend durch Selenoproteine, in denen es in Form von Selenocystein eingebaut wird. Zu den bisher am besten untersuchten Selenoproteinen mit möglicher Funktion während CRC zählen die Glutathionperoxidasen (GPXen). Die Mitglieder dieser Familie tragen aufgrund ihrer Hydroperoxid-reduzierenden Eigenschaften entscheidend zum Schutz der Zellen vor oxidativem Stress bei. Dies kann je nach Art und Stadium des Tumors entweder krebshemmend oder -fördernd wirken, da auch transformierte Zellen von dieser Schutzfunktion profitieren.
In dieser Arbeit wurde die GPX2 in HT29-Darmkrebszellen mithilfe stabil-transfizierter shRNA herunterreguliert, um die Funktion des Enzyms vor allem in Hinblick auf regulierte Signalwege zu untersuchen. Ein Knockdowns (KD) der strukturell ähnlichen GPX1 kam ebenfalls zum Einsatz, um gezielt Isoform-spezifische Funktionen unterscheiden zu können. Anhand eines PCR-Arrays wurden Signalwege identifiziert, die auf einen Einfluss der beiden Proteine im Zellwachstum hindeuteten. Anschließende Untersuchungen ließen auf einen verminderten Differenzierungsstatus in den GPX1- und GPX2-KDs aufgrund einer geringeren Aktivität der Alkalischen Phosphatase schließen. Zudem war die Zellviabilität im Neutralrot-Assay (NRU) bei Fehlen der GPX1 bzw. GPX2 im Vergleich zur Kontrolle reduziert. Die Ergebnisse des PCR-Arrays, und speziell für die GPX2 frühere Untersuchungen der Arbeitsgruppe, wiesen weiterhin auf eine Rolle der beiden Proteine in der entzündungsgetriebenen Karzinogenese hin. Daher wurden auch mögliche Interaktionen mit dem NFκB-Signalweg analysiert. Eine Stimulation der Zellen mit dem proinflammatorischen Zytokin IL1β ging mit einer verstärkten Aktivierung der MAP-Kinasen ERK1/2 in den Zellen mit GPX1- bzw. GPX2-KD einher. Die gleichzeitige Behandlung mit dem Antioxidans NAC führte nicht zur Rücknahme der Effekte in den KDs, sodass möglicherweise nicht nur die antioxidativen Eigenschaften der Enzyme bei der Interaktion mit diesen Signalwegsproteinen relevant sind.
Weiterhin wurden Analysen zum Substratspektrum der GPX2 in HCT116-Zellen mit einer Überexpression des Proteins durchgeführt. Dabei zeigte sich mittels NRU-Assay und DNA-Laddering, dass die GPX2 besonders vor den proapoptotischen Effekten einer Behandlung mit den Lipidhydroperoxiden HPODE und HPETE schützt.
Im Gegensatz zur GPX2 lässt sich Selenoprotein H (SELENOH) stärker durch die alimentäre Selenzufuhr beeinflussen. Einer möglichen Nutzung als Biomarker oder gar als Ansatzpunkt bei der Prävention bzw. Behandlung von CRC steht allerdings unvollständiges Wissen über die Funktion des Proteins gegenüber. Zur genaueren Charakterisierung von SELENOH wurden daher stabil-transfizierte KD-Klone in HT29- und Caco2-Zellen hergestellt und zunächst auf ihre Tumorigenität untersucht.
Zellen mit SELENOH-KD bildeten mehr und größere Kolonien im Soft Agar und zeigten ein erhöhtes Proliferations- und Migrationspotenzial im Vergleich zur Kontrolle.
Ein Xenograft in Nacktmäusen resultierte zudem in einer stärkeren Tumorbildung nach Injektion von KD-Zellen. Untersuchungen zur Beteiligung von SELENOH an der Zellzyklusregulation deuten auf eine hemmende Rolle des Proteins in der G1/S-Phase hin.
Die weiterhin beobachtete Hochregulation von SELENOH in humanen Adenokarzinomen und präkanzerösem Mausgewebe lässt sich möglicherweise mit der postulierten Schutzfunktion vor oxidativen Zell- und DNA-Schäden erklären. In gesunden Darmepithelzellen war das Protein vorrangig am Kryptengrund lokalisiert, was zu einer potenziellen Rolle während der gastrointestinalen Differenzierung passt.
Um das Immunsystem der Pflanze zu manipulieren translozieren gram-negative pathogene Bakterien Typ-III Effektorproteine (T3E) über ein Typ-III Sekretionssystem (T3SS) in die pflanzliche Wirtszelle. Dort lokalisieren T3Es in verschiedenen subzellulären Kompartimenten, wo sie Zielproteine modifizieren und so die Infektion begünstigen. HopZ1a, ein T3E des Pflanzenpathogens Pseudomonas syringae pv. syringae, ist eine Acetyltransferase und lokalisiert über ein Myristolierungsmotiv an der Plasmamembran der Wirtszelle. Obwohl gezeigt wurde, dass HopZ1a die frühe Signalweiterleitung an der Plasmamembran stört, wurde bisher kein mit der Plasmamembran assoziiertes Zielprotein für diesen T3E identifiziert. Um bisher unbekannte HopZ1a-Zieleproteine zu identifizieren wurde im Vorfeld dieser Arbeit eine Hefe-Zwei-Hybrid-Durchmusterung mit einer cDNA-Bibliothek aus Tabak durchgeführt, wobei ein nicht näher charakterisiertes Remorin als Interaktor gefunden wurde.
Bei dem Remorin handelt es sich um einen Vertreter der Gruppe 4 der Remorin-Familie, weshalb es in NbREM4 umbenannt wurde. Durch den Einsatz verschiedener Interaktionsstudien konnte demonstriert werden, dass HopZ1a mit NbREM4 in Hefe, in vitro und in planta wechselwirkt. Es wurde ferner deutlich, dass HopZ1a auf spezifische Weise mit dem konservierten C-Terminus von NbREM4 interagiert, das Remorin jedoch in vitro nicht acetyliert. Analysen mittels BiFC haben zudem ergeben, dass NbREM4 in Homodimeren an der Plasmamembran lokalisiert, wo auch die Interaktion mit HopZ1a stattfindet.
Eine funktionelle Charakterisierung von NbREM4 ergab, dass das Remorin eine spezifische Rolle im Immunsystem der Pflanze einnimmt. Die transiente Expression in N. benthamiana induziert die Expression von Abwehrgenen sowie einen veränderten Blattphänotyp. In A. thaliana wird HopZ1a über das Decoy ZED1 und das R-Protein ZAR1 erkannt, was zur Auslösung einer starken Hypersensitiven Antwort (HR von hypersensitive response) führt. Es konnte im Rahmen dieser Arbeit gezeigt werden, dass ZAR1 in N. benthamiana konserviert ist, NbREM4 jedoch nicht in der ETI als Decoy fungiert. Mit Hilfe einer Hefe-Zwei-Hybrid-Durchmusterung mit NbZAR1 als Köder konnten zwei Proteine, die Catalase CAT1 und der Protonenpumpeninteraktor PPI1, als Interaktoren von NbZAR1 identifiziert werden, welche möglicherweise in der Regulation der HR eine Rolle spielen.
Aus Voruntersuchungen war bekannt, dass NbREM4 mit weiteren, nicht näher charakterisierten Proteinen aus Tabak interagieren könnte. Eine phylogenetische Einordnung hat gezeigt, dass es sich um die bekannte Immun-Kinase PBS1 sowie zwei E3-Ubiquitin-Ligasen, NbSINA1 und NbSINAL3, handelt. PBS1 interagiert mit NbREM4 an der Plasmamembran und phosphoryliert das Remorin innerhalb des intrinsisch ungeordneten N-Terminus. Mittels Massenspektrometrie konnten die Serine an Position 64 und 65 innerhalb der Aminosäuresequenz von NbREM4 als PBS1-abhängige Phosphorylierungsstellen identifiziert wurden.
NbSINA1 und NbSINAL3 besitzen in vitro Ubiquitinierungsaktivität, bilden Homo- und Heterodimere und interagieren ebenfalls mit dem N-terminalen Teil von NbREM4, wobei sie das Remorin in vitro nicht ubiquitinieren.
Aus den in dieser Arbeit gewonnenen Ergebnissen lässt sich ableiten, dass der bakterielle T3E HopZ1a gezielt mit dem Tabak-Remorin NbREM4 an der Plasmamembran interagiert und über einen noch unbekannten Mechanismus mit dem Immunsystem der Pflanze interferiert, wobei NbREM4 möglicherweise eine Rolle als Adapter- oder Ankerprotein zukommt, über welches HopZ1a mit weiteren Immunkomponenten interagiert. NbREM4 ist Teil eines größeren Immunnetzwerkes, zu welchem die bekannte Immun-Kinase PBS1 und zwei E3-Ubiquitin-Ligasen gehören. Mit NbREM4 konnte damit erstmalig ein membranständiges Protein mit einer Funktion im Immunsystem der Pflanze als Zielprotein von HopZ1a identifiziert werden.
Funktionelle Bauchschmerzen des Kindes betreffen die ganze Familie, wobei die Literatur insbesondere die Rolle der Eltern hervorhebt. Bisher wurden die Eltern jedoch primär als „critical behavioral agents“ (Palermo & Eccleston, 2009) gesehen, die einen Einfluss auf die Bauchschmerzen und Beeinträchtigung des Kindes ausüben. Untersuchungen der psychosozialen Auswirkungen der Bauchschmerzen und der Beeinträchtigung des Kindes auf die Eltern wurden bislang vernachlässigt (Palermo & Eccleston, 2009). Die Dissertation hatte daher zum Ziel, die Rolle der Eltern bei funktionellen Bauchschmerzen umfassend zu betrachten, indem sowohl schmerzbezogene Reaktionen der Eltern, als auch die psychosoziale Belastung der Eltern berücksichtigt und systematisch in Zusammenhang zu den Bauchschmerzen und der Beeinträchtigung des Kindes untersucht wurden. Zum anderen sollten durch Interventionsstudien Aussagen über die Veränderbarkeit spezifischer Belastungsmerkmale der Eltern und über das Wechselspiel zwischen der Ebene der Eltern und der Ebene des Kindes ermöglicht werden. Anhand von vier Studien sollten die Fragen beantworten werden 1) welche Faktoren die ärztliche Inanspruchnahme beeinflussen und welche besondere Relevanz dabei die Bewertungsprozesse der Eltern besitzen, 2) wie die psychosoziale Belastung der Eltern charakterisiert ist und durch welche Faktoren sie beeinflusst wird, 3) welche Veränderungen im Rahmen einer kindzentrierten verhaltenstherapeutischen Intervention auf Seiten der Eltern zu beobachten sind und 4) wie sich diese Veränderungen seitens der Eltern und seitens des Kindes gegenseitig beeinflussen.
Die vorliegende Arbeit behandelt die Synthese und Charakterisierung von funktionalisierten Alkydharzen und die photoinduzierte Polymerisation dieser unter Einsatz einer Quecksilberdampflampe oder einer UV LED mit unterschiedlicher Lichtintensität. Der Fokus dieser Arbeit bestand in der gezielten Substitution der internalen Doppelbindungen der Fettsäureester durch reaktivere Gruppen, wie Acrylate oder Methacrylate, welche für Alkydharze in dieser Form so in der Literatur nicht beschrieben sind. Untersuchungen des Polymerisationsverhaltens dieser funktionalisierten Harze wurden mit der Photo DSC durchgeführt, wobei Bis – (4 – methoxybenzoyl) diethylgermanium als Photoinitiator diente. Die Ergebnisse haben gezeigt, dass die Harze radikalisch polymerisiert werden können und eine geringere Abhängigkeit von der Umgebungsatmosphäre (Luftsauerstoff bzw. Stickstoff) vorliegt. Dies ist so in der Literatur für funktionalisierte Alkydharze nicht bekannt. Abmischungen von unterschiedlichen Monomeren und funktionalisierten Harzen bewirkten eine Steigerung der Viskosität sowie eine Verringerung der Sauerstoffinhibierung im Zuge der photoinduzierten Polymerisation unter Luftsauerstoff für die Quecksilberdampflampe und der UV LED.
Zur Untersuchung der sauerstoffinhibierenden Wirkung der Harze sind Synthesen unterschiedlicher, funktionalisierter Ölsäuremethylester als Modellsubstanzen durchgeführt worden. Ein verbessertes Polymerisationsverhalten und eine geringe Abhängigkeit von der Umgebungsatmosphäre konnte für die Modelle nachgewiesen werden. Zur Aufklärung des verbesserten Polymerisationsverhaltens sind gezielt Substituenten (Imidazol, Brom, Alkohol, Acetat) in den funktionalisierten Ölsäuremethylester eingebaut worden, um den Einfluss dieser aufzuzeigen. Im Rahmen dieser Synthesen sind neuartige Strukturen synthetisiert worden, welche so in der Literatur nicht beschrieben sind. Die Gegenüberstellung der Polymerisationszeit, der Umsatz der (Meth-)Acrylatgruppen sowie die Zeit zum Erreichen der maximalen Polymerisationsgeschwindigkeit unter Verwendung von unterschiedlichen UV Lichtquellen hat einen Einfluss der Substituenten auf das Polymerisationsverhalten gezeigt.
Funde und Fiktionen
(2018)
Urgeschichte im Fernsehen als Spiegel gesellschaftlicher Themen der Gegenwart. Unser gesichertes Wissen über die Urgeschichte der Menschheit ist angesichts der dünnen Quellenlage sehr begrenzt. Dennoch werden seit längerer Zeit sehr erfolgreiche Fernsehdokumentationen ausgestrahlt, die minutiös den Alltag in der fernsten menschlichen Vergangenheit präsentieren. Georg Koch untersucht, wie diese Darstellungen aus dem Zusammenspiel von Filmemachern und Wissenschaftlern entstanden und welchen Wandel sie seit den 1950er Jahren in der Bundesrepublik und in Großbritannien durchliefen. Er zeigt, wie Archäologen zu Medienstars des frühen britischen Fernsehens wurden, wie Hightech, Exotik und Abenteuer Einzug in die Darstellung der Archäologie hielten und wie inszenierte Erzählungen ein Millionenpublikum erreichten. Dabei wird deutlich, dass sich in den Betrachtungen der Urgeschichte stets Projektionen der Gegenwart finden, die zeitgemäße Antworten auf gesellschaftliche Fragen bieten.
Due to a challenging population growth and environmental changes, a need for new routes to provide required chemicals for human necessities arises. An effective solution discussed in this thesis is industrial heterogeneous catalysis. The development of an advanced industrial heterogeneous catalyst is investigated herein by considering porous carbon nano-material as supports and modifying their surface chemistry structure with heteroatoms. Such modifications showed a significant influence on the performance of the catalyst and provided a deeper insight regarding the interaction between the surface structure of the catalyst and the surrounding phase. This thesis contributes to the few present studies about heteroatoms effect on the catalyst performance and emphasizes on the importance of understanding surface structure functionalization in a catalyst in different phases (liquid and gaseous) and for different reactions (hydrogenolysis, oxidation, and hydrogenation/ polymerization). Herein, the heteroatoms utilized for the modifications are hydrogen (H), oxygen (O), and nitrogen (N). The heteroatoms effect on the metal particle size, on the polarity of the support/ the catalyst, on the catalytic performance (activity, selectivity, and stability), and on the interaction with the surrounding phase has been explored. First hierarchical porous carbon nanomaterials functionalized with heteroatoms (N) is synthesized and applied as supports for nickel nanoparticles for hydrogenolysis process of kraft lignin in liquid phase. This reaction has been performed in batch and flow reactors for three different catalysts, two of comparable hierarchical porosity, yet one is modified with N and the other is not, and a third is a prepared catalyst from a commercial carbon support. The reaction production and analyses show that the catalysts with hierarchical porosity perform catalytically much better than in presence of a commercial carbon support with lower surface area. Moreover, the modification with N-heteroatoms enhanced the catalytic performance because the heteroatom modified porous carbon material with nickel nanoparticles catalyst (Ni-NDC) performed highest among the other catalysts. In the flow reactor, Ni-NDC selectively degraded the ether bonds (β-O-4) in kraft lignin with an activity of 2.2 x10^-4 mg lignin mg Ni-1 s-1 for 50 h at 350°C and 3.5 mL min-1 flow, providing ~99 % conversion to shorter chained chemicals (mainly guaiacol derivatives). Then, the functionalization of carbon surface was further studied in selective oxidation of glucose to gluconic acid using < 1 wt. % of gold (Au) deposited on the previously-mentioned synthesized carbon (C) supports with different functionalities (Au-CGlucose, Au-CGlucose-H, Au-CGlucose-O, Au-CGlucoseamine). Except for Au-CGlucose-O, the other catalysts achieved full glucose conversion within 40-120 min and 100% selectivity towards gluconic acid with a maximum activity of 1.5 molGlucose molAu-1 s-1 in an aqueous phase at 45 °C and pH 9. Each heteroatom influenced the polarity of the carbon differently, affecting by that the deposition of Au on the support and thus the activity of the catalyst and its selectivity. The heteroatom effect was further investigated in a gas phase. The Fischer-Tropsch reaction was applied to convert synthetic gas (CO and H2) to short olefins and paraffins using surface-functionalized carbon nanotubes (CNTs) with heteroatoms as supports for ion (Fe) deposition in presence and absence of promoters (Na and S). The results showed the promoted Fe-CNT doped with nitrogen catalyst to be stable up to 180 h and selective to the formation of olefins (~ 47 %) and paraffins (~6 %) with a conversion of CO ~ 92 % at a maximum activity of 94 *10^-5 mol CO g Fe-1 s-1. The more information given regarding this topic can open wide range of applications not only in catalysis, but in other approaches as well. In conclusion, incorporation of heteroatoms can be the next approach for an advanced industrial heterogeneous catalyst, but also for other applications (e.g. electrocatalysis, gas adsorption, or supercapacitors).
Physical computing covers the design and realization of interactive objects and installations and allows learners to develop concrete, tangible products of the real world, which arise from their imagination. This can be used in computer science education to provide learners with interesting and motivating access to the different topic areas of the subject in constructionist and creative learning environments. However, if at all, physical computing has so far mostly been taught in afternoon clubs or other extracurricular settings. Thus, for the majority of students so far there are no opportunities to design and create their own interactive objects in regular school lessons.
Despite its increasing popularity also for schools, the topic has not yet been clearly and sufficiently characterized in the context of computer science education. The aim of this doctoral thesis therefore is to clarify physical computing from the perspective of computer science education and to adequately prepare the topic both content-wise and methodologically for secondary school teaching. For this purpose, teaching examples, activities, materials and guidelines for classroom use are developed, implemented and evaluated in schools.
In the theoretical part of the thesis, first the topic is examined from a technical point of view. A structured literature analysis shows that basic concepts used in physical computing can be derived from embedded systems, which are the core of a large field of different application areas and disciplines. Typical methods of physical computing in professional settings are analyzed and, from an educational perspective, elements suitable for computer science teaching in secondary schools are extracted, e. g. tinkering and prototyping. The investigation and classification of suitable tools for school teaching show that microcontrollers and mini computers, often with extensions that greatly facilitate the handling of additional components, are particularly attractive tools for secondary education. Considering the perspectives of science, teachers, students and society, in addition to general design principles, exemplary teaching approaches for school education and suitable learning materials are developed and the design, production and evaluation of a physical computing construction kit suitable for teaching is described.
In the practical part of this thesis, with “My Interactive Garden”, an exemplary approach to integrate physical computing in computer science teaching is tested and evaluated in different courses and refined based on the findings in a design-based research approach. In a series of workshops on physical computing, which is based on a concept for constructionist professional development that is developed specifically for this purpose, teachers are empowered and encouraged to develop and conduct physical computing lessons suitable for their particular classroom settings. Based on their in-class experiences, a process model of physical computing teaching is derived. Interviews with those teachers illustrate that benefits of physical computing, including the tangibility of crafted objects and creativity in the classroom, outweigh possible drawbacks like longer preparation times, technical difficulties or difficult assessment. Hurdles in the classroom are identified and possible solutions discussed.
Empirical investigations in the different settings reveal that “My Interactive Garden” and physical computing in general have a positive impact, among others, on learner motivation, fun and interest in class and perceived competencies.
Finally, the results from all evaluations are combined to evaluate the design principles for physical computing teaching and to provide a perspective on the development of decision-making aids for physical computing activities in school education.
There are numerous situations in which people ask for something or make a request, e.g. asking a favor, asking for help or requesting compliance with specific norms. For this reason, how to ask for something in order to increase people’s willingness to fulfill such requests is one of the most important question for many people working in various different fields of responsibility such as charitable giving, marketing, management or policy making.
This dissertation consists of four chapters that deal with the effects of small changes in the decision-making environment on altruistic decision-making and compliance behavior. Most notably, written communication as an influencing factor is the focus of the first three chapters. The starting point was the question how to devise a request in order to maximize its chance of success (Chapter 1). The results of the first chapter originate the ideas for the second and third chapter. Chapter 2 analyzes how communication by a neutral third-party, i.e. a text from the experimenters that either reminds potential benefactors of their responsibility or highlights their freedom of choice, affects altruistic decision-making. Chapter 3 elaborates on the effect of thanking people in advance when asking them for help. While being not as closely related to the other chapters as the three first ones are, the fourth chapter deals as well with the question how compliance (here: compliance with norms and rules) is affected by subtle manipulations of the environment in which decisions are made. This chapter analyzes the effect of default settings in a tax return on tax compliance.
In order to study the research questions outlined above, controlled experiments were conducted. Chapter 1, which analyzes the effect of text messages on the decision to give something to another person, employs a mini-dictator game. The recipient sends a free-form text message to the dictator before the latter makes a binary decision whether or not to give part of her or his endowment to the recipient. We find that putting effort into the message by writing a long note without spelling mistakes increases dictators’ willingness to give. Moreover, writing in a humorous way and mentioning reasons why the money is needed pays off. Furthermore, men and women seem to react differently to some message categories. Only men react positively to efficiency arguments, while only women react to messages that emphasize the dictator’s power and responsibility.
Building on this last result, Chapter 2 attempts to disentangle the effect of reminding potential benefactors of their responsibility for the potential beneficiary and the effect of highlighting their decision power and freedom of choice on altruistic decision-making by studying the effects of two different texts on giving in a dictator game. We find that only men react positively to a text that stresses their responsibility for the recipient by giving more to her or him, whereas only women seem to react positively to a text that emphasizes their decision power and freedom of choice.
Chapter 3 focuses on the compliance with a request. In the experiment, participants are asked to provide a detailed answer to an open question. Compliance is measured by the effort participants spend on answering the question. The treatment variable is whether or not they see the text “thanks in advance.” We find that participants react negatively by putting less effort into complying with the request in response to the phrase “thanks in advance.”
Chapter 4 studies the effect of prefilled tax returns with mostly inaccurate default values on tax compliance. In a laboratory experiment, participants earn income by performing a real-effort task and must subsequently file a tax return for three consecutive rounds. In the main treatment, the tax return is prefilled with a default value, resulting from participants’ own performance in previous rounds, which varies in its relative size. The results suggest that there is no lasting effect of a default value on tax honesty, neither for relatively low nor relatively high defaults. However, participants who face a default that is lower than their true income in the first round evade significantly and substantially more taxes in this round than participants in the control treatment without a default.
Arctic warming has implications for the functioning of terrestrial Arctic ecosystems, global climate and socioeconomic systems of northern communities. A research gap exists in high spatial resolution monitoring and understanding of the seasonality of permafrost degradation, spring snowmelt and vegetation phenology. This thesis explores the diversity and utility of dense TerraSAR-X (TSX) X-Band time series for monitoring ice-rich riverbank erosion, snowmelt, and phenology of Arctic vegetation at long-term study sites in the central Lena Delta, Russia and on Qikiqtaruk (Herschel Island), Canada. In the thesis the following three research questions are addressed:
• Is TSX time series capable of monitoring the dynamics of rapid permafrost degradation in ice-rich permafrost on an intra-seasonal scale and can these datasets in combination with climate data identify the climatic drivers of permafrost degradation?
• Can multi-pass and multi-polarized TSX time series adequately monitor seasonal snow cover and snowmelt in small Arctic catchments and how does it perform compared to optical satellite data and field-based measurements?
• Do TSX time series reflect the phenology of Arctic vegetation and how does the recorded signal compare to in-situ greenness data from RGB time-lapse camera data and vegetation height from field surveys?
To answer the research questions three years of TSX backscatter data from 2013 to 2015 for the Lena Delta study site and from 2015 to 2017 for the Qikiqtaruk study site were used in quantitative and qualitative analysis complimentary with optical satellite data and in-situ time-lapse imagery.
The dynamics of intra-seasonal ice-rich riverbank erosion in the central Lena Delta, Russia were quantified using TSX backscatter data at 2.4 m spatial resolution in HH polarization and validated with 0.5 m spatial resolution optical satellite data and field-based time-lapse camera data. Cliff top lines were automatically extracted from TSX intensity images using threshold-based segmentation and vectorization and combined in a geoinformation system with manually digitized cliff top lines from the optical satellite data and rates of erosion extracted from time-lapse cameras. The results suggest that the cliff top eroded at a constant rate throughout the entire erosional season. Linear mixed models confirmed that erosion was coupled with air temperature and precipitation at an annual scale, seasonal fluctuations did not influence 22-day erosion rates. The results highlight the potential of HH polarized X-Band backscatter data for high temporal resolution monitoring of rapid permafrost degradation.
The distinct signature of wet snow in backscatter intensity images of TSX data was exploited to generate wet snow cover extent (SCE) maps on Qikiqtaruk at high temporal resolution. TSX SCE showed high similarity to Landsat 8-derived SCE when using cross-polarized VH data. Fractional snow cover (FSC) time series were extracted from TSX and optical SCE and compared to FSC estimations from in-situ time-lapse imagery. The TSX products showed strong agreement with the in-situ data and significantly improved the temporal resolution compared to the Landsat 8 time series. The final combined FSC time series revealed two topography-dependent snowmelt patterns that corresponded to in-situ measurements. Additionally TSX was able to detect snow patches longer in the season than Landsat 8, underlining the advantage of TSX for detection of old snow. The TSX-derived snow information provided valuable insights into snowmelt dynamics on Qikiqtaruk previously not available.
The sensitivity of TSX to vegetation structure associated with phenological changes was explored on Qikiqtaruk. Backscatter and coherence time series were compared to greenness data extracted from in-situ digital time-lapse cameras and detailed vegetation parameters on 30 areas of interest. Supporting previous results, vegetation height corresponded to backscatter intensity in co-polarized HH/VV at an incidence angle of 31°. The dry, tall shrub dominated ecological class showed increasing backscatter with increasing greenness when using the cross polarized VH/HH channel at 32° incidence angle. This is likely driven by volume scattering of emerging and expanding leaves. Ecological classes with more prostrate vegetation and higher bare ground contributions showed decreasing backscatter trends over the growing season in the co-polarized VV/HH channels likely a result of surface drying instead of a vegetation structure signal. The results from shrub dominated areas are promising and provide a complementary data source for high temporal monitoring of vegetation phenology.
Overall this thesis demonstrates that dense time series of TSX with optical remote sensing and in-situ time-lapse data are complementary and can be used to monitor rapid and seasonal processes in Arctic landscapes at high spatial and temporal resolution.
The topic of this thesis is the experimental investigation of evaporating thin films on planar solid substrates and the enrichment, the crystal growth and Marangoni flows near the three phase line in the case of partially wetting mixtures of volatile and non volatile liquids. In short, it deals with the properties of planar liquid films and with those of thin liquid sections near the three phase contact line. In both cases the liquid looses continuously one component by evaporation. One topic is the rupture behavior of ultra-thin films of binary mixtures of a volatile solvent and a nonvolatile solute. It is studied how the thickness at which the film ruptures is related to the solute crystallization at the liquid/ substrate interface as soon as the solute reaches supersaturation. A universal relation between the rupture thickness and the saturation behaviour is presented. The second research subject are individual nanoparticles embedded in molecularly thin films at planar substrates. It is found that the nanoparticles cause an unexpectedly large film surface distortion (meniscus). This distortion can be measured quantitatively by conventional reflective microscopy although the nanoparticles are much smaller than the Rayleigh diffraction limit. Investigations with binary mixtures of volatile solvents and non-volatile solutes (polymers) aim at a better understanding/prediction of the final solute coverage, the timeresolved film thinning, the time-resolved solvent evaporation, and the evolution of the solute concentration within the thinning film. A quantiative theoretical description of the experimental findings is derived. Experiments of completely miscible binary mixtures of volatile liquids, which individually form continuous planar films show unexpectedly that films of mixtures are not necessarily continuous and planar. Rather, they may form surface
undulations or even rupture. This is explained with surface Marangoni flows. A new method for the exceptionally fast fabrication (mm/min) of ultralong aligned diphenylalanin single crystals via dip casting is presented. It is shown how the specific evaporation conditions at the three phase line can be used for a controlled peptide crystal growth process. It is further demonstrated how the confinement inside a smalll capillary affects the peptide crystallization and how this can be understood (and used).
This doctoral dissertation aims at elucidating the development of hot and cool executive functions in middle childhood and at gaining insight about their role in childhood overweight. The dissertation is based on three empirical studies which have been published in peer-reviewed journals. Data from a large 3-year longitudinal study (the “PIER-study”) was used.
The findings presented in the dissertation demonstrated that both hot and cool EF abilities increase during middle childhood. They also supported the notion that hot and cool EF facets are distinguishable from each other in middle childhood, that they have distinct developmental trajectories, and different predictors.
Evidence was found for associations of hot and cool EF with body weight in middle childhood, which is in line with the notion that they might play a role in the self-regulation of eating and the multifactorial etiology of childhood overweight.
Die stetig wachsenden internationalen und wirtschaftlichen Verflechtungen sowohl von Unternehmen als auch von Einzelsteuerpflichtigen stellen die deutsche Finanzverwaltung vor eine große Herausforderung. Hintergrund dafür ist, dass sich das deutsche Steuerrecht nicht nur auf rein nationale Sachverhalte beschränkt, sondern vielmehr auch an Vorgänge und Zustände anknüpft, die sich im Ausland befinden.
Das Auftreten solcher grenzüberschreitender Sachverhalte und deren juristische Begleiterscheinungen sind jedoch nicht ganz unproblematisch, da für die korrekte Besteuerung jener Sachverhalte sowohl das rein nationale Recht als auch die ausländischen Rechtsgrundlagen beachtet werden müssen. Diese werden in meiner Arbeit detailliert vorgestellt, wobei stets eine Unterscheidung zwischen gemeinschaftsrechtlichen Rechtsgrundlagen, multilateralen, bilateralen und unilateralen Rechtsquellen erfolgt.
Zuvor werden die vielfältigen Probleme bei der Besteuerung grenzüberschreitender Sachverhalte, wie z.B. die Gefahr der Doppelbesteuerung oder der Steuerflucht dargestellt, um danach die nationalen Lösungsansätze, wie die erweiterten Anzeige- und Mitwirkungspflichten auf Seiten der Steuerpflichtigen und den Untersuchungsgrundsatz auf Seiten der Finanzverwaltung aufzuzeigen. Dabei werden die europäischen Grundfreiheiten als Diskriminierungs- und Beschränkungsverbote abgebildet, wobei auch die anerkannten geschriebenen und ungeschriebenen Rechtfertigungsgründe dargestellt werden. Die vielfältigen Auswirkungen des europäischen Primärrechts auf das deutsche Besteuerungsverfahren werden anhand von verschiedenen EuGH-Urteilen veranschaulicht, wobei auch die praktische Umsetzung der europarechtlichen Vorgaben beispielhaft durch das Aktionsprogramm FISCALIS 2020, die Informationszentrale für steuerliche Auslandsbeziehungen in Bonn und das internationale Steuerzentrum in München vorgestellt werden.
Eta Carinae
(2018)
The exceptional binary star Eta Carinae has been fascinating scientists and the people in the Southern hemisphere alike for hundreds of years. It survived an enormous outbreak, comparable to a supernova energy-wise, and for a short period became the brightest star of the night sky. From observations from the radio regime to X-rays the system's characteristics and its emission in photon energies up to ~ 50 keV are well studied today. The binary is composed of two massive stars of ~ 30 and ~ 100 solar masses. Either star drives a strong stellar wind that continuously carries away a fraction of its mass. The collision of these winds leads to a shock on each side of the encounter. In the wind-wind-collision region plasma gets heated when it is overrun by the shocks. Part of the emission seen in X-rays can be attributed to this plasma. Above ~ 50 keV the emission is no longer of thermal origin: the required plasma temperature exceeds the available mechanical energy input of the stellar winds. In contrast to its observational history in thermal energies observational evidence of Eta Carinae's non-thermal emission has only recently built up. In high-energy gamma-rays Eta Carinae is the only binary of its kind that has been detected unambiguously. Its energy spectrum reaches up to ~ hundred GeV, a regime where satellite-based gamma-ray experiments run out of statistics. Ground-based gamma-ray experiments have the advantage of large photon collection areas. H.E.S.S. is the only gamma-ray experiment located in the Southern hemisphere and thus able to observe Eta Carinae in this energy range. H.E.S.S. measures gamma-rays via electromagnetic showers of particles that very-high-energy gamma-rays initiate in the atmosphere. The main challenge in observations of Eta Carinae with H.E.S.S. is the UV emission of the Carina nebula that leads to a background that is up to 10 times stronger than usual for H.E.S.S. This thesis presents the first detection of a colliding-wind binary in very-high-energy gamma-rays and documents the studies that led to it. The differential gamma-ray energy spectrum of Eta Carinae is measured up to 700 GeV. A hadronic and leptonic origin of the gamma-ray emission is discussed and based on the comparison of cooling times a hadronic scenario is favoured.
This dissertation consists of five self-contained essays, addressing different aspects of career choices, especially the choice of entrepreneurship, under risk and ambiguity. In Chapter 2, the first essay develops an occupational choice model with boundedly rational agents, who lack information, receive noisy feedback, and are restricted in their decisions by their personality, to analyze and explain puzzling empirical evidence on entrepreneurial decision processes. In the second essay, in Chapter 3, I contribute to the literature on entrepreneurial choice by constructing a general career choice model on the basis of the assumption that outcomes are partially ambiguous. The third essay, in Chapter 4, theoretically and empirically analyzes the impact of media on career choices, where information on entrepreneurship provided by the media is treated as an informational shock affecting prior beliefs. The fourth essay, presented in Chapter 5, contains an empirical analysis of the effects of cyclical macro variables (GDP and unemployment) on innovative start-ups in Germany. In the fifth, and last, essay in Chapter 6, we examine whether information on personality is useful for advice, using the example of career advice.
This dissertation consists of four self-contained papers that deal with the implications of financial market imperfections and heterogeneity. The analysis mainly relates to the class of incomplete-markets models but covers different research topics.
The first paper deals with the distributional effects of financial integration for developing countries. Based on a simple heterogeneous-agent approach, it is shown that capital owners experience large welfare losses while only workers moderately gain due to higher wages. The large welfare losses for capital owners contrast with the small average welfare gains from representative-agent economies and indicate that a strong opposition against capital market opening has to be expected.
The second paper considers the puzzling observation of capital flows from poor to rich countries and the accompanying changes in domestic economic development. Motivated by the mixed results from the literature, we employ an incomplete-markets model with different types of idiosyncratic risk and borrowing constraints. Based on different scenarios, we analyze under what conditions the presence of financial market imperfections contributes to explain the empirical findings and how the conditions may change with different model assumptions.
The third paper deals with the interplay of incomplete information and financial market imperfections in an incomplete-markets economy. In particular, it analyzes the impact of incomplete information about idiosyncratic income shocks on aggregate saving. The results show that the effect of incomplete information is not only quantitatively substantial but also qualitatively ambiguous and varies with the influence of the income risk and the borrowing constraint.
Finally, the fourth paper analyzes the influence of different types of fiscal rules on the response of key macroeconomic variables to a government spending shock. We find that a strong temporary increase in public debt contributes to stabilizing consumption and leisure in the first periods following the change in government spending, whereas a non-debt-intensive fiscal rule leads to a faster recovery of consumption, leisure, capital and output in later periods. Regarding optimal debt policy, we find that a debt-intensive fiscal rule leads to the largest aggregate welfare benefit and that the individual welfare gain is particularly high for wealth-poor agents.
Die intrazelluläre Markierung mit geeigneten Reagenzien ermöglicht ihre bildgebende Darstellung in lebenden Organismen. Dieses Verfahren (auch „Zell-Tracking“ genannt) wird in der Grundlagenforschung zur Entwicklung zellulärer Therapien, für die Erforschung pathologischer Prozesse, wie der Metastasierung, sowie für Therapiekontrollen eingesetzt. Besondere Bedeutung haben in den letzten Jahren zelluläre Therapien mit Stammzellen erlangt, da sie großes Potential bei der Regeneration von Geweben bei Krankheiten wie Morbus Parkinson oder Typ-1-Diabetes versprechen. Für die Entwicklung einer zellulären Therapie sind Informationen über den Verbleib der applizierten Zellen in vivo (Homing-Potential), über ihre Zellphysiologie sowie über die Entstehung möglicher Entzündungen notwendig. Das Ziel der vorliegenden Arbeit war daher die Synthese von Markierungsreagenzien, die nicht nur eine effiziente Zellmarkierung ermöglichen, sondern einen synergistischen Effekt hinsichtlich des modalitätsübergreifenden Einsatzes in den bildgebenden Verfahren MRT und Laser-Ablation(LA)-ICP-MS erlauben. Die MRT-Bildgebung ermöglicht die nicht invasive Nachverfolgung markierter Zellen in vivo und die LA-ICP-MS die anschließende ex vivo Analytik zur Darstellung der Elementverteilung (Bioimaging) in einer Biopsieprobe oder in einem Gewebeschnitt. Für diese Zwecke wurden zwei verschiedene Markierungsreagenzien mit dem kontrastgebenden Element Gadolinium synthetisiert. Gadolinium eignet sich aufgrund seines hohen magnetischen Moments hervorragend für die MRT-Bildgebung und da es in Biomolekülen nicht natürlich vorkommt, konnten die Reagenzien gleichermaßen für die Zellmarkierung und das Bioimaging mit der LA-ICP-MS untersucht werden. Für die Synthese eines makromolekularen Reagenzes wurde das kommerziell verfügbare Dendrimer G5-PAMAM über bifunktionelle Linker mit dem Chelator DOTA funktionalisiert, um anschließend Gadolinium zu komplexieren. Ein zweites, nanopartikuläres Reagenz wurde über eine Solvothermal-Synthese erhalten, bei der Ln:GdVO4-Nanokristalle mit einer funktionellen Polyacrylsäure(PAA)-Hülle dargestellt wurden. Die Dotierung der Ln:GdVO4-PAA Nanokristalle mit verschiedenen Lanthanoiden (Ln=Eu, Tb) zeigte ihre prinzipielle Multiplexfähigkeit in der LA-ICP-MS. Beide Markierungsreagenzien zeichneten sich durch gute Bioverträglichkeiten und r1-Relaxivitäten aus, was zudem ihr Potential für Anwendungen als präklinische „blood-pool“ MRT-Kontrastmittel belegte. Die Untersuchung der Zellmarkierung erfolgte anhand einer Tumorzelllinie und einer Stammzelllinie, wobei beide Zellarten erfolgreich intrazellulär mit beiden Reagenzien markiert wurden. Nach der Zellmarkierung veranschaulichte die in vitro MRT-Bildgebung von Zell-Phantomen eine deutlichere Kontrastverstärkung der Zellen nach der Markierung mit den Nanokristallen im Vergleich zum kommerziellen Kontrastmittel Magnevist®. Die hohe Effizienz der Zellmarkierung mit den Nanokristallen und die damit verbundenen hohen Signalintensitäten in einer einzelnen Zelle erlaubten beim Bioimaging mit der LA-ICP-MS, Messungen bis zu einer Auflösung von 4 µm Laser Spot Size. Nach der Zellmarkierung mit den DOTA(Gd3+)-funktionalisierten G5-PAMAM Dendrimeren waren hingegen Aufnahmen mit der LA-ICP-MS nur bis zu einer Auflösung von 12 µm Laser Spot Size möglich. Insgesamt waren die Ln:GdVO4-PAA Nanokristalle mit größerer Ausbeute und kostengünstiger herstellbar als die DOTA(Gd3+)-funktionalisierten G5-PAMAM Dendrimere und zeigten zudem eine effizientere Zellmarkierung. Die Ln:GdVO4-PAA Nanokristalle erscheinen somit für das Zell-Tracking als besonders vielversprechend. Darauf aufbauend wurden die Nanokristalle zur Etablierung der Antikörper-Konjugation ausgewählt, was sie für die molekulare in vivo Bildgebung sowie für die Immuno-Bildgebung von Gewebeschnitten oder Biopsie-Proben mit der LA-ICP-MS anwendbar macht.
In dieser Arbeit steht die Entwicklung einer Sensorplattform für biochemische Anwendungen, welche auf einem optischen Detektionsprinzips beruht, im Vordergrund. Während der Entwicklung wurden zwei komplementäre Konzeptideen behandelt, zum einen ein Sensor, der auf photonischen Kristallen und Wellenleiterstrukturen basiert und zum anderen einen faserbasierten Sensor, der chemisch modifizierte Faser-Bragg-Gitter enthält. Das optische Detektionsprinzip in beiden Sensorideen ist die resultierende Brechungsindexänderung als messbare physikochemische Kenngröße.
Das aus der Natur bekannte Phänomen der photonischen Kristalle, das u. a. bei Opalen und bei Schmetterlingen zu finden ist, wurde bereits 1887 von Lord Rayleigh beschrieben. Er beschrieb die optischen Eigenschaften von periodischen mehrschichtigen Filmen, welche als vereinfachtes Modell eines eindimensionalen photonischen Kristalls verstanden werden können. Die Periodizität der Brechungsindexänderung resultiert in einem optischen Filter für Frequenzen in einem bestimmten spektralen Bereich, weshalb dann dort keine Lichtausbreitung mehr möglich ist. Wird dieses System aber durch eine Defektstelle in der Brechungsindexperiodizität gestört, sodass daraus zwei perfekt periodische Systeme entstehen, ist die Lichtausbreitung für eine bestimmte Frequenz dennoch möglich. In der Folge resultiert daraus ein schmalbandiges Signal im Transmissionsspektrum. Die erlaubte Frequenz ist dabei u. a. abhängig vom Brechungsindexunterschied des periodischen Systems, d.h. Veränderung des Brechungsindexes einer Schicht führt zu einer spektralen Verschiebung der erlaubten Frequenz, dadurch kann dieses Sensorkonzept für biochemische Sensorik ausgenutzt werden [1]. Diese Entwicklung des auf photonischen Kristallen basierenden Sensors war eine Kooperation mit dem Industriepartner „Nanoplus GmbH“. In der Doktorarbeit wurden Simulationen und praktischen Arbeiten zur Designentwicklung des Sensors und die Arbeiten an einem ersten Modellaufbau für die biochemischen Anwendungen durchgeführt.
Für den faserbasierten Sensor wurden Faser-Bragg-Gitter in den Faserkern hineingeschrieben. Hill et al. entdeckten 1978, dass solche Gitterstrukturen genau wie photonische Kristalle als optische Filter fungieren [2]. Die Gitter bestehen dabei aus Änderungen des Brechungsindexes im Faserkern. Im Laufe der nächsten vierzig Jahren wurden verschiedene Einschreibetechniken und Gitterstrukturen entwickelt, weshalb die Eigenschaften der jeweiligen Gitterstrukturen variieren. Eine solche Gitterstruktur sind u. a. die Faser-Bragg-Gitter, deren Gitterperiode, d. h. die Abstände der Brechungsindexmodifikationen, sich im Nanometer- bis Mikrometerbereich befinden. Aufgrund der kleinen Gitterperiode wird eine rückwärtsführende Welle im Kern für eine bestimmte Frequenz bzw. Wellenlänge, der Bragg-Wellenlänge, erzeugt. Im Endeffekt resultiert daraus ein schmalbandiges Signal sowohl im Transmissionsspektrum, als auch im Reflexionsspektrum. Die Resonanzwellenlänge ist dabei proportional zu der Gitterperiode und dem effektiven Brechungsindex, welcher vom Brechungsindex des Kerns und des kernumgebenen Materials abhängig ist. Letztlich eignet sich diese Technik für physikochemische Sensorik. Im Rahmen dieser Arbeit wurden die Gitter mit Hilfe einer relativen neuen Herstellungsmethode in die Fasern geschrieben [3]. Anschließend stand die Entwicklung eines Biosensors im Vordergrund, wobei zunächst ein Protokoll zum Ätzen der Faser mit Flusssäure entwickelt worden ist, dass das System sensitiv zum umgebenen Brechungsindex macht. Am Ende wurde ein Modellaufbau realisiert, indem ein Modellsystem, hier die Detektion vom C-reaktiven Protein mittels spezifischen einzelsträngigen DNS-Aptameren, erfolgreich getestet und quantifiziert worden ist.
1 Mandal, S.; Erickson, D. Nanoscale Optofluidic Sensor Arrays. Opt. Express 2008, 16 (3), 1623–1631.
2 Hill, K. O.; Fujii, Y.; Johnson, D. C.; Kawasaki, B. S. Photosensitivity in Optical Fiber Waveguides: Application to Reflection Filter Fabrication. Appl. Phys. Lett. 1978, 32 (10), 647–649.
3 Martínez, A.; Dubov, M.; Khrushchev, I.; Bennion, I. Direct Writing of Fibre Bragg Gratings by Femtosecond Laser. Electron. Lett. 2004, 40 (19), 1170.
Entwicklung eines Instrumentes zur Messung von Präsentismus und Handlungsempfehlungen zur Reduktion
(2018)
The last years have shown an increasing sophistication of attacks against enterprises. Traditional security solutions like firewalls, anti-virus systems and generally Intrusion Detection Systems (IDSs) are no longer sufficient to protect an enterprise against these advanced attacks. One popular approach to tackle this issue is to collect and analyze events generated across the IT landscape of an enterprise. This task is achieved by the utilization of Security Information and Event Management (SIEM) systems. However, the majority of the currently existing SIEM solutions is not capable of handling the massive volume of data and the diversity of event representations. Even if these solutions can collect the data at a central place, they are neither able to extract all relevant information from the events nor correlate events across various sources. Hence, only rather simple attacks are detected, whereas complex attacks, consisting of multiple stages, remain undetected. Undoubtedly, security operators of large enterprises are faced with a typical Big Data problem.
In this thesis, we propose and implement a prototypical SIEM system named Real-Time Event Analysis and Monitoring System (REAMS) that addresses the Big Data challenges of event data with common paradigms, such as data normalization, multi-threading, in-memory storage, and distributed processing. In particular, a mostly stream-based event processing workflow is proposed that collects, normalizes, persists and analyzes events in near real-time. In this regard, we have made various contributions in the SIEM context. First, we propose a high-performance normalization algorithm that is highly parallelized across threads and distributed across nodes. Second, we are persisting into an in-memory database for fast querying and correlation in the context of attack detection. Third, we propose various analysis layers, such as anomaly- and signature-based detection, that run on top of the normalized and correlated events. As a result, we demonstrate our capabilities to detect previously known as well as unknown attack patterns. Lastly, we have investigated the integration of cyber threat intelligence (CTI) into the analytical process, for instance, for correlating monitored user accounts with previously collected public identity leaks to identify possible compromised user accounts.
In summary, we show that a SIEM system can indeed monitor a large enterprise environment with a massive load of incoming events. As a result, complex attacks spanning across the whole network can be uncovered and mitigated, which is an advancement in comparison to existing SIEM systems on the market.
El objetivo de este trabajo es investigar cómo se evoca la realidad del habla en la novela Rosario Tijeras, del colombiano Jorge Franco, y sus traducciones al alemán y al inglés. En esta novela negra, el autor recurre a un lenguaje coloquial llamado parlache, típico de un sector socioeconómico marginal de Medellín, y cuya influencia se ha extendido a todos los ámbitos de la ciudad y del país. El estudio se centrará en la descripción de la variación diatópica y diastrática en la ficción; concretamente, de las expresiones típicas del parlache. Con ello se pretende determinar la contribución de ciertos recursos lingüísticos típicos de esta variedad del español a la construcción de un diálogo hablado verosímil. Además, se estudiará cómo se reexpresa este «colorido local» en la evocación de la oralidad en las traducciones. Se intentarán determinar, por tanto, las divergencias de traducción y profundizar en la descripción de la variación lingüística (diatópica y diastrática) en la traducción literaria.
Wandlungsfähigkeit beschreibt die Fähigkeit eines Systems, proaktiv oder reaktiv Maßnahmen für die Modifikation seiner Eigenschaften schnell und effizient zu entwickeln, umzusetzen und anzuwenden sowie sich proaktiv darauf vorzubereiten, inaktiv zu sein und passiv Einwirkungen aus der Umwelt zu tolerieren. Die Eigenschaften wandlungsfähiger Systeme werden häufig als Indikatoren (z.B. Modularität, Wissen) verwendet. Dabei existiert eine Vielzahl potenzieller Indikatoren, deren jeweilige Relevanz jedoch ungeklärt ist. Hier setzt die Zielstellung der vorliegenden Arbeit an. Das Erkenntnisziel ist die Erklärung der Wandlungsfähigkeit sozio-technischer Systeme. Zu diesem Zweck wird ein Erklärungsmodell der indikatorbasierten Wandlungsfähigkeit erstellt, das zum Nachweis von Wandlungsfähigkeit, zur Bewertung dieser sowie zur Systemanalyse genutzt werden kann. Weiterhin wird exemplarisch eine positive Korrelation von Wandlungsfähigkeit und Schnelligkeit sowie Effizienz bei Veränderungsprojekten nachgewiesen.
Microbial processing of organic matter (OM) in the freshwater biosphere is a key component of global biogeochemical cycles. Freshwaters receive and process valuable amounts of leaf OM from their terrestrial landscape. These terrestrial subsidies provide an essential source of energy and nutrients to the aquatic environment as a function of heterotrophic processing by fungi and bacteria. Particularly in freshwaters with low in-situ primary production from algae (microalgae, cyanobacteria), microbial turnover of leaf OM significantly contributes to the productivity and functioning of freshwater ecosystems and not least their contribution to global carbon cycling.
Based on differences in their chemical composition, it is believed that leaf OM is less bioavailable to microbial heterotrophs than OM photosynthetically produced by algae. Especially particulate leaf OM, consisting predominantly of structurally complex and aromatic polymers, is assumed highly resistant to enzymatic breakdown by microbial heterotrophs. However, recent research has demonstrated that OM produced by algae promotes the heterotrophic breakdown of leaf OM in aquatic ecosystems, with profound consequences for the metabolism of leaf carbon (C) within microbial food webs. In my thesis, I aimed at investigating the underlying mechanisms of this so called priming effect of algal OM on the use of leaf C in natural microbial communities, focusing on fungi and bacteria.
The works of my thesis underline that algal OM provides highly bioavailable compounds to the microbial community that are quickly assimilated by bacteria (Paper II). The substrate composition of OM pools determines the proportion of fungi and bacteria within the microbial community (Paper I). Thereby, the fraction of algae OM in the aquatic OM pool stimulates the activity and hence contribution of bacterial communities to leaf C turnover by providing an essential energy and nutrient source for the assimilation of the structural complex leaf OM substrate. On the contrary, the assimilation of algal OM remains limited for fungal communities as a function of nutrient competition between fungi and bacteria (Paper I, II). In addition, results provide evidence that environmental conditions determine the strength of interactions between microalgae and heterotrophic bacteria during leaf OM decomposition (Paper I, III). However, the stimulatory effect of algal photoautotrophic activities on leaf C turnover remained significant even under highly dynamic environmental conditions, highlighting their functional role for ecosystem processes (Paper III).
The results of my thesis provide insights into the mechanisms by which algae affect the microbial turnover of leaf C in freshwaters. This in turn contributes to a better understanding of the function of algae in freshwater biogeochemical cycles, especially with regard to their interaction with the heterotrophic community.
The Sun is the nearest star to the Earth. It consists of an interior and an atmosphere. The convection zone is the outermost layer of the solar interior. A flux rope may emerge as a coherent structure from the convection zone into the solar atmosphere or be formed by magnetic reconnection in the atmosphere. A flux rope is a bundle of magnetic field lines twisting around an axis field line, creating a helical shape by which dense filament material can be supported against gravity. The flux rope is also considered as the key structure of the most energetic phenomena in the solar system, such as coronal mass ejections (CMEs) and flares. These magnetic flux ropes can produce severe geomagnetic storms. In particular, to improve the ability to forecast space weather, it is important to enrich our knowledge about the dynamic formation of flux ropes and the underlying physical mechanisms that initiate their eruption, such as a CME.
A confined eruption consists of a filament eruption and usually an associated are, but does not evolve into a CME; rather, the moving plasma is halted in the solar corona and usually seen to fall back. The first detailed observations of a confined filament eruption were obtained on 2002 May 27by the TRACE satellite in the 195 A band. So, in the Chapter 3, we focus on a flux rope instability model. A twisted flux rope can become unstable by entering the kink instability regime. We show that the kink instability, which occurs if the twist of a flux rope exceeds a critical value, is capable of initiating of an eruption. This model is tested against the well observed confined eruption on 2002 May 27 in a parametric magnetohydrodynamic (MHD) simulation study that comprises all phases of the event. Very good agreement with the essential observed properties is obtained, only except for a relatively poor matching of the initial filament height.
Therefore, in Chapter 4, we submerge the center point of the flux rope deeper below the photosphere to obtain a flatter coronal rope section and a better matching with the initial height profile of the erupting filament. This implies a more realistic inclusion of the photospheric line tying. All basic assumptions and the other parameter settings are kept the same as in Chapter 3. This complement of the parametric study shows that the flux rope instability model can yield an even better match with the observational data. We also focus in Chapters 3 and 4 on the magnetic reconnection during the confined eruption, demonstrating that it occurs in two distinct locations and phases that correspond to the observed brightenings and changes of topology, and consider the fate of the erupting flux, which can reform a (less twisted) flux rope.
The Sun also produces series of homologous eruptions, i.e. eruptions which occur repetitively in the same active region and are of similar morphology. Therefore, in Chapter 5, we employ the reformed flux rope as a new initial condition, to investigate the possibility of subsequent homologous eruptions. Free magnetic energy is built up by imposing motions in the bottom boundary, such as converging motions, leading to flux cancellation. We apply converging motions in the sunspot area, such that a small part of the flux from the sunspots with different polarities is transported toward the polarity inversion line (PIL) and cancels with each other. The reconnection associated with the cancellation process forms more helical magnetic flux around the reformed flux rope, which leads to a second and a third eruption. In this study, we obtain the first MHD simulation results of a homologous sequence of eruptions that show a transition from a confined to two ejective eruptions, based on the reformation of a flux rope after each eruption.
Nanophotonics is the field of science and engineering aimed at studying the light-matter interactions on the nanoscale. One of the key aspects in studying such optics at the nanoscale is the ability to assemble the material components in a spatially controlled manner. In this work, DNA origami nanostructures were used to self-assemble dye molecules and DNA coated plasmonic nanoparticles. Optical properties of dye nanoarrays, where the dyes were arranged at distances where they can interact by Förster resonance energy transfer (FRET), were systematically studied according to the size and arrangement of the dyes using fluorescein (FAM) as the donor and cyanine 3 (Cy 3) as the acceptor. The optimized design, based on steady-state and time-resolved fluorometry, was utilized in developing a ratiometric pH sensor with pH-inert coumarin 343 (C343) as the donor and pH-sensitive FAM as the acceptor. This design was further applied in developing a ratiometric toxin sensor, where the donor C343 is unresponsive and FAM is responsive to thioacetamide (TAA) which is a well-known hepatotoxin. The results indicate that the sensitivity of the ratiometric sensor can be improved by simply arranging the dyes into a well-defined array. The ability to assemble multiple fluorophores without dye-dye aggregation also provides a strategy to amplify the signal measured from a fluorescent reporter, and was utilized here to develop a reporter for sensing oligonucleotides. By incorporating target capturing sequences and multiple fluorophores (ATTO 647N dye molecules), a reporter for microbead-based assay for non-amplified target oligonucleotide sensing was developed. Analysis of the assay using VideoScan, a fluorescence microscope-based technology capable of conducting multiplex analysis, showed the DNA origami nanostructure based reporter to have a lower limit of detection than a single stranded DNA reporter. Lastly, plasmonic nanostructures were assembled on DNA origami nanostructures as substrates to study interesting optical behaviors of molecules in the near-field. Specifically, DNA coated gold nanoparticles, silver nanoparticles, and gold nanorods, were placed on the DNA origami nanostructure aiming to study surface-enhanced fluorescence (SEF) and surface-enhanced Raman scattering (SERS) of molecules placed in the hotspot of coupled plasmonic structures.
Business process management is an acknowledged asset for running an organization in a productive and sustainable way. One of the most important aspects of business process management, occurring on a daily basis at all levels, is decision making. In recent years, a number of decision management frameworks have appeared in addition to existing business process management systems. More recently, Decision Model and Notation (DMN) was developed by the OMG consortium with the aim of complementing the widely used Business Process Model and Notation (BPMN). One of the reasons for the emergence of DMN is the increasing interest in the evolving paradigm known as the separation of concerns. This paradigm states that modeling decisions complementary to processes reduces process complexity by externalizing decision logic from process models and importing it into a dedicated decision model. Such an approach increases the agility of model design and execution. This provides organizations with the flexibility to adapt to the ever increasing rapid and dynamic changes in the business ecosystem. The research gap, identified by us, is that the separation of concerns, recommended by DMN, prescribes the externalization of the decision logic of process models in one or more separate decision models, but it does not specify this can be achieved.
The goal of this thesis is to overcome the presented gap by developing a framework for discovering decision models in a semi-automated way from information about existing process decision making. Thus, in this thesis we develop methodologies to extract decision models from: (1) control flow and data of process models that exist in enterprises; and (2) from event logs recorded by enterprise information systems, encapsulating day-to-day operations. Furthermore, we provide an extension of the methodologies to discover decision models from event logs enriched with fuzziness, a tool dealing with partial knowledge of the process execution information. All the proposed techniques are implemented and evaluated in case studies using real-life and synthetic process models and event logs. The evaluation of these case studies shows that the proposed methodologies provide valid and accurate output decision models that can serve as blueprints for executing decisions complementary to process models. Thus, these methodologies have applicability in the real world and they can be used, for example, for compliance checks, among other uses, which could improve the organization's decision making and hence it's overall performance.
Direkte Arylierung
(2018)
Grenzüberschreitende, internetbasierte Dienstleistungen werfen zahlreiche steuerrechtliche Probleme auf. Die Grundfrage lautet, wie im digitalen Zeitalter das Besteuerungssubstrat zwischen den beteiligten Staaten idealerweise aufzuteilen ist. Die Umsatzsteuer ist strukturell geeignet, die fortschreitende Digitalisierung rechtlich in den Griff zu bekommen. Bislang fehlen jedoch technische Lösungsansätze, um den Ansässigkeitsort von Dienstleistungsempfängern zweifelsfrei feststellen zu können. Für die Ertragsteuer sind betriebsstättengebundene und betriebsstättenlose Lösungskonzepte zu analysieren. Die betriebsstättengebundenen Optionen knüpfen an einen digitalen Nexus an, z.B. Webseitenklicks. Zu den betriebsstättenlosen Entwürfen zählt u.a. eine Quellensteuer auf digitale Transaktionen. Durchsetzen dürfte sich die formelhafte Gewinnaufteilung. Ihr gelingt durch eine starre Aufteilung der Gewinne eine realitätsnahe Abbildung der grenzüberschreitenden Wertschöpfungsketten.
Um die gegenwärtige Transformation der Öffentlichkeit im digitalen Zeitalter erfassen zu können, ist in der Öffentlichkeitstheorie eine erweiterte Perspektive notwendig, die nicht nur den massenmedialen Diskurs, sondern auch die Veränderung sozialer Praktiken und institutioneller Strukturen in den Blick nimmt. Das Ziel dieses Buches besteht darin, die Grundlagen einer solchen Perspektive auf die Theorie digitaler Öffentlichkeiten zu entwickeln. Im vorgeschlagenen Ansatz wird Öffentlichkeit im Anschluss an John Dewey als Prozess verstanden. In seiner prozessualen und funktionalen Bestimmung von Öffentlichkeit liegt eine besondere Originalität, die seinen Ansatz von anderen Öffentlichkeitskonzeptionen unterscheidet. Das Buch liefert sowohl eine systematische Rekonstruktion und Interpretation der Philosophie John Deweys als auch einen Vorschlag zur gesellschaftstheoretischen Deutung des digitalen Wandels.
Poly(vinylidene fluoride-trifluoroethylene) (P(VDF-TrFE)) ferroelectric thin films of different molar ratio have been studied with regard to data memory applications. Therefore, films with thicknesses of 200 nm and less have been spin coated from solution. Observations gained from single layers have been extended to multilayer capacitors and three terminal transistor devices.
Besides conventional hysteresis measurements, the measurement of dielectric non-linearities has been used as a main tool of characterisation. Being a very sensitive and non-destructive method, non-linearity measurements are well suited for polarisation readout and property studies. Samples have been excited using a high quality, single-frequency sinusoidal voltage with an amplitude significantly smaller than the coercive field of the samples. The response was then measured at the excitation frequency and its higher harmonics. Using the measurement results, the linear and non-linear dielectric permittivities ɛ₁, ɛ₂ and ɛ₃ have been determined. The permittivities have been used to derive the temperature-dependent polarisation behaviour as well as the polarisation state and the order of the phase transitions.
The coercive field in VDF-TrFE copolymers is high if compared to their ceramic competitors. Therefore, the film thickness had to be reduced significantly. Considering a switching voltage of 5 V and a coercive field of 50 MV/m, the film thickness has to be 100 nm and below. If the thickness becomes substantially smaller than the other dimensions, surface and interface layer effects become more pronounced. For thicker films of P(VDF-TrFE) with a molar fraction of 56/44 a second-order phase transition without a thermal hysteresis for an ɛ₁(T) temperature cycle has been predicted and observed. This however, could not be confirmed by the measurements of thinner films. A shift of transition temperatures as well as a temperature independent, non-switchable polarisation and a thermal hysteresis for P(VDF-TrFE) 56/44 have been observed. The impact of static electric fields on the polarisation and the phase transition has therefore been studied and simulated, showing that all aforementioned phenomena including a linear temperature dependence of the polarisation might originate from intrinsic electric fields.
In further experiments the knowledge gained from single layer capacitors has been extended to bilayer copolymer thin films of different molar composition. Bilayers have been deposited by succeeding cycles of spin coating from solution. Single layers and their bilayer combination have been studied individually in order to prove the layers stability. The individual layers have been found to be physically stable. But while the bilayers reproduced the main ɛ₁(T) properties of the single layers qualitatively, quantitative numbers could not be explained by a simple serial connection of capacitors. Furthermore, a linear behaviour of the polarisation throughout the measured temperature range has been observed. This was found to match the behaviour predicted considering a constant electric field.
Retention time is an important quantity for memory applications. Hence, the retention behaviour of VDF-TrFE copolymer thin films has been determined using dielectric non-linearities. The polarisation loss in P(VDF-TrFE) poled samples has been found to be less than 20% if recorded over several days. The loss increases significantly if the samples have been poled with lower amplitudes, causing an unsaturated polarisation. The main loss was attributed to injected charges. Additionally, measurements of dielectric non-linearities have been proven to be a sensitive and non-destructive tool to measure the retention behaviour.
Finally, a ferroelectric field effect transistor using mainly organic materials (FerrOFET) has been successfully studied. DiNaphtho[2,3-b:2',3'-f]Thieno[3,2-b]Thiophene (DNTT) has proven to be a stable, suitable organic semiconductor to build up ferroelectric memory devices. Furthermore, an oxidised aluminium bottom electrode and additional dielectric layers, i.e. parylene C, have proven to reduce the leakage current and therefore enhance the performance significantly.
Die Nutzung sozialer Netzwerke ist für viele Menschen nicht mehr aus ihrem Alltag wegzudenken. Dies zeigt sich insbesondere an den Nutzerzahlen. Facebook hat beispielsweise mittlerweile mehr als 2,2 Milliarden Nutzer. Zu den wesentlichen Funktionen der sozialen Netzwerke gehört das Teilen von nutzergenerierten Inhalten, die beispielsweise als Fotos oder Videos dem Schutz des Urheberrechtsgesetzes unterfallen können.
Um diese geschützten Inhalte darstellen und verbreiten zu können, benötigen die sozialen Netzwerke die entsprechenden Nutzungsrechte ihrer Nutzer. Daher finden sich in den Allgemeinen Geschäftsbedingungen verschiedene Regelungen über die Einräumung der Rechte, die von den Nutzern in den allermeisten Fällen jedoch im Zuge der Registrierung ungelesen akzeptiert werden.
Im Rahmen der Untersuchung wird geprüft, ob eine Nutzungsrechtseinräumung an den urheberrechtlich geschützten Inhalten der Nutzer durch die Allgemeinen Geschäftsbedingungen der sozialen Netzwerke wirksam ist. Hierfür ist insbesondere entscheidend, ob die Rechtsprechung des Bundesgerichtshofs zum fehlenden Leitbildcharakter des Übertragungszweckgrundsatzes einer Inhaltskontrolle der Allgemeinen Geschäftsbedingungen der sozialen Netzwerke entgegensteht, oder, ob dieser als Maßstab für die Inhaltskontrolle herangezogen werden kann.
Eine Vergabesperre ist der längerfristige Ausschluss eines Unternehmens von der öffentlichen Auftragsvergabe. Sie geht damit in ihrer Intensität deutlich über den Einzelfallausschluss hinaus und kann für die betroffenen Unternehmen gegebenenfalls sogar existenzbedrohend sein. Obwohl die Verhängung von Vergabesperren seit langem praktiziert wird, hat sie auch im Zuge der Vergaberechtsreform im Jahr 2016 keine eindeutige Regelung erfahren. Diese Arbeit untersucht daher die rechtliche Zulässigkeit solcher Vergabesperren.
Die öffentliche Auftragsvergabe, die originär lediglich Beschaffungszwecken dient, wird seit einigen Jahren verstärkt zur Verfolgung anderer, häufig politischer Ziele eingesetzt. Schwerpunkt der Arbeit ist daher die Frage, ob eine Vergabesperre zur Verfolgung solcher öffentlicher Zwecke verhängt werden darf, die keinen unmittelbaren Zusammenhang zur Auftragsvergabe aufweisen. Von besonderer Bedeutung ist dabei der Einsatz der Vergabesperre als Sanktionsmittel.
Das Werk unternimmt eine erstmalige zusammenfassende Darstellung der Umsatzbesteuerung von Energieleistungen sowie deren mehrwertsteuerrechtlichen Beurteilung unter besonderer Berücksichtigung aktueller Probleme und Zweifelsfragen. Hierfür werden Problembereiche grundlegend und rechtsdogmatisch beleuchtet. Ziel der Arbeit ist es, die wesentlichen Geschäftspraktiken im Energiesektor einer mehrwertsteuerrechtlichen Analyse zu unterwerfen, die stets das unionsrechtliche Mehrwertsteuerrecht und das nationale Umsatzsteuerrecht betrachtet. Es wird untersucht, ob und inwieweit die gegenwärtigen Vorschriften zur umsatzsteuerrechtlichen Behandlung von Energieleistungen mit dem europäischen Unionsrecht vereinbar, praxistauglich und angemessen sind. Im Lichte der unaufhaltsam voranschreitenden Energiewende will die vorliegende Untersuchung einen systemimmanenten Überblick der energierechtlichen Implikationen auf das Mehrwertsteuerrecht in einem einheitlichen mehrwertsteuerrechtlichen Gesamtkontext geben.
Die Gesundheit unserer Jugend ist seit je ein gesellschaftspolitisches Primat und verdient die grösstmögliche Beachtung. Ein Teilbereich, nämlich Bewegung und Sport, ist in der Schweiz auch aus diesem Grund verfassungsmässig geregelt. Sämtliche Volksschulen müssen bis ins neunte Schuljahr pro Woche drei Lektionen Bewegung und Sport anbieten.. Als einziges Schulfach geniesst Bewegung und Sport diesen bundesgesetzlichen Support im sonst streng föderalistisch organisierten Bildungssystem der Schweiz. Trotz diesen drei verordneten Sportlektionen ist die physische Leistungsfähigkeit unserer Jugend einhergehend mit gesundheitlichen Parametern seit 1985 rückläufig und seit ein paar Jahren auf tiefem Niveau stagnierend. Zudem berichten Lehrpersonen über sinkende Konzentrationsfähigkeit in den letzten Jahren. Um eine flächendeckende Verbesserung der Situation zu bewirken, bietet sich die Schule als zentraler Ort der Einflussnahme an. Dies gilt im Besonderen für den Bereich Bewegung und Sport. Im Jahr 2005 wurde das Programm einer täglichen Bewegungs- und Sportstunde an der Primarschule in Luzern/Schweiz gestartet. Nach einem kontinuierlichen Ausbau kamen ab 2011 etwas über 1300 Kinder von der ersten bis zur sechsten Klasse in den Genuss dieser täglichen Bewegungslektion. Die wissenschaftlichen Untersuchungen in den drei gesellschaftlich hoch relevanten Bereichen der Konzentrationsfähigkeit, des Übergewichts und der Gleichgewichtsfähigkeit ergaben positive Resultate. So konnte die Konzentrationsfähigkeit – die Basis für erfolgreiches Lernen – signifikant gesteigert werden und teilweise signifikant war die Verbesserung des statischen Gleichgewichts. Ein positiver Trend zeigte sich auch bei der Senkung des Body-Mass-Indexes bei Knaben. Dies konnte bei den Mädchen nicht nachgewiesen werden. Auch wenn nicht alle Hypothesen vollumfänglich bestätigt werden konnten, gilt es festzuhalten, dass das Projekt der täglichen Sport- und Bewegungsstunde die Erwartungen in allen drei Messbereichen erfüllt hat und die Verbesserungen hinsichtlich der Konzentrationsfähigkeit, des Übergewichts und der Gleichgewichtsfähigkeit mehrheitlich ausgewiesen werden können. Es lohnt sich also, die tägliche Sport- und Bewegungsstunde an der Primarschule einzuführen und den Präventionsgedanken auch Taten folgen zu lassen.
Junge Menschen werden im Ordnungswidrigkeitenrecht in erster Linie wie Erwachsene behandelt. Begehen Sie eine Ordnungswidrigkeit, so erhalten sie einen Bußgeldbescheid und werden mit Geldbuße geahndet. Dies verwundert zunächst, denkt man an das ausdifferenzierte System der jugendstrafrechtlichen Sanktionen. Dahinter steckt jedoch die bewusste Entscheidung des Gesetzgebers, die Rechtsanwendung zu vereinfachen und zu vereinheitlichen. Bei näherem Hinsehen entdeckt man aber, dass der Gesetzgeber dem Rechtsanwender durch die Hintertür des Vollstreckungsrechts doch jugendgemäße Sanktionen an die Hand gibt. Ausgehend von diesen Eigentümlichkeiten des Ordnungswidrigkeitenrechts arbeitet die Untersuchung umfassend auf, mit welchen Sanktionen junge Menschen im Ordnungswidrigkeitenrecht konfrontiert werden und ob dies verfassungsrechtlich beanstandungsfrei ist. Die Arbeit plädiert schließlich dafür, das Ordnungswidrigkeitenrecht jugendgemäß weiterzuentwickeln und zeigt hierfür Ansätze auf.
Die Präsenz der Dinge
(2018)
Menschenähnliche Dinge fordern uns in besonderem Maße heraus. Sie lösen Gefühle und Imaginationen aus, sie beeinflussen unsere Körperhaltung und unsere Mimik. Woher rühren unsere bisweilen starken Reaktionen auf anthropomorphe Artefakte? Warum neigen wir dazu, sie wider besseres Wissen zu verlebendigen? Jana Scholz fragt erstmals gezielt nach der Agency künstlerischer Artefakte in menschlicher Gestalt. Anhand dreier Beispiele aus Fotografie, Mode und Literatur lotet sie das Verhältnis zwischen materiell-visueller Inszenierung und ästhetischer Wahrnehmung aus. Dabei werden neue Sichtweisen auf die Beziehungen von Dingen und Menschen eröffnet – in einer Zeit, in der diese zunehmend undurchdringlich scheinen.
Die Norminterdependenzen des Grunderwerbsteuergesetzes bei Umstrukturierungen inländischer Konzerne
(2018)
Im historischen Zentrum der mittelalterlichen Stadt Capua hat sich mit den drei Kirchen S. Salvatore „Maggiore“ a Corte, S. Giovanni a Corte und S. Michele a Corte eine Gruppe von Sakralbauten erhalten, die nicht nur durch ihre übereinstimmende namentliche Attribution einen Zusammenhang mit dem langobardischen Fürstenhof der Stadt offenbaren, sondern auch durch die räumliche Disposition im urbanistischen Gefüge. Im vorliegenden Buch wird die überkommene Bausubstanz einer grundlegenden Analyse unterzogen, um herauszuarbeiten, welche Bestandteile den ältesten Bauphasen zuzuordnen sind und somit als langobardenzeitlich angesprochen werden können. Eine ausführliche Untersuchung der zugehörigen Bauplastik ergänzt gleichwertig diesen ersten Teil. Die Kontextualisierung der Ergebnisse hilft dabei, ein Bild von der Kunst und Architektur des in Süditalien an Monumenten eher armen 10. Jahrhunderts zu generieren und erlaubt Rückschlüsse auf den geistigen Hintergrund, vor dem die drei Hofkirchen entstanden sind.
Wie stark eine Person in ihrer alltäglichen Umgebung auf Anzahlen achtet (Spontane Fokussierung auf Anzahligkeit, kurz SFON) ist individuell sehr unterschiedlich. Zwar liegen bereits hinreichende Belege für einen Zusammenhang zwischen SFON und Zählfertigkeiten, Subitizing und basalen sowie höheren arithmetischen Fertigkeiten im Kindergarten und der frühen Grundschulzeit vor, die Einordnung der relativen Bedeutsamkeit von SFON gegenüber bereits bekannten und gut belegten Prädiktoren fehlt jedoch. Daneben lag der bisherige Schwerpunkt vorrangig auf Zählfertigkeiten. Offen bleiben die Kompetenzen des Kindes in der Mengenerfassung und -verarbeitung sowie die bereits im Vorschulalter vorhandene Kenntnis arabischer Ziffern.
Die Daten dieser Arbeit wurden im Rahmen einer großen epidemiologischen Studie (SCHUES) erhoben. Eine Stichprobe von 1868 Kindergartenkindern (964 Jungen und 904 Mädchen) konnte zwölf Monate vor ihrem Schuleintritt erstmalig untersucht werden. Die Kinder waren hier im Mittel 63 Monate alt. 1704 Kinder konnten erneut rund neun Monate später (im Mittel drei Monate vor Schulbeginn) getestet werden. Das mittlere Alter der Kinder lag bei 72 Monaten. Die erfassten numerisch-mathematischen Fertigkeiten lassen sich in drei Teilbereiche gliedern: Zählfertigkeiten, Ziffernkenntnis und Rechnen/Mengenerfassung. Daneben wurden SFON, die nonverbale und verbale Intelligenz, die phonologische Schleife, der visuell-räumliche Notizblock sowie die zentrale Exekutive und die Aufmerksamkeit zu beiden Messzeitpunkten erhoben.
Die SFON-Tendenz zeigte eine mäßige, numerisch-mathematische Fertigkeiten eine mäßige bis hohe Stabilität über die Zeit. Der an bisher deutlich kleineren Stichproben gefundene Zusammenhang zwischen der SFON-Tendenz und den numerisch-mathematischen Fertigkeiten konnte in der vorliegenden Arbeit repliziert werden. Eine Vorhersage auffälliger als auch sehr guter numerisch-mathematischer Leistungen gelang jedoch weder quer- noch längsschnittlich mit ausreichend hoher Genauigkeit. Auch der bereits in der Literatur beschriebene reziproke Zusammenhang zwischen SFON und numerisch-mathematischen Fertigkeiten konnte durch die vorliegende Arbeit an einer großen Stichprobe repliziert werden. Darüber hinaus wurden Hinweise auf die kausale Struktur des Zusammenhangs gewonnen: Die Ergebnisse zeigten, dass numerisch-mathematische Fertigkeiten SFON besser vorhersagen konnten als andersherum. Die Ergebnisse der Pfadanalysen zeigten weiterhin, dass SFON neben den bedeutsamen Konstrukten des Arbeitsgedächtnisses, der Intelligenz und der Aufmerksamkeit einen eigenständigen Beitrag für die Entwicklung numerischer als auch mathematischer Fertigkeiten leistet. Auch auf die weitere numerische und mathematische Entwicklung bis kurz vor Schuleintritt hat SFON einen bedeutsamen Einfluss. Dieser vollzieht sich jedoch indirekt über das numerisch-mathematische Vorwissen.
Ausgangspunkt meiner Forschungsarbeit war der Umstand, dass Forschungsbezüge, die im subjektwissenschaftlichen Sinne dezidiert vom Standpunkt der Lernenden ausgehen, bis dato im Rahmen der Schulentwicklungsforschung erheblich unterrepräsentiert waren und sind. Im Wesentlichen waren es zu Beginn der Forschungstätigkeit Untersuchungen, die die Schülerperspektive im Rahmen eines vorbestimmten schulorganisatorischen Settings als erkenntnisleitendes Interesse verfolgten. Zinnecker (2005) sprach von einer Schulentwicklung "ohne Schüler". Forschungsanlagen, die gewählten Forschungsmethoden, Muster, mit denen die Forschenden die gewonnen Daten interpretierten, waren etwa weitgehend von Funktionalität mit Bezug auf die institutionellen Erwartungen bzw. Anforderungen geprägt.
Die hier vorgelegte Dissertation basiert auf 12 Texten, die ich aus meinen bisherigen Veröffentlichungen ausgewählt und im Rahmen eines einführenden Textes, als ein aufeinander aufbauendes Forschungsprogramm dargestellt habe. Im Kern ging und geht es mir darum, mit dem Subjektstandpunkt als Forschungsperspektive, die Schulentwicklungsforschung substantiell zu ergänzen. Mein Forschungsansatz zielt auf verschiedene Ebenen der Forschung: auf eine kategoriale Ebene, auf eine konzeptionelle Ebene und auf die Ebene praxisrelevanter Fragestellungen.
August Boeckh (1785–1867) verfügte über eine umfangreiche private Büchersammlung mit einem beeindruckenden Facettenreichtum. Diese spiegelt Boeckhs Philologiebegriff wider, der sämtliche Lebensbereiche umfasste, und ermöglicht durch die in seinen Büchern hinterlassenen Marginalien einen gut nachvollziehbaren Einblick in den wissenschaftlichen Arbeitsprozess des Philologen.
Aufbauend auf der rekonstruierten Boeckhschen Bibliothek blickt Julia Doborosky auf die Auseinandersetzung zwischen Boeckh und seinem Kritiker Gottfried Hermann um die Ausgestaltung der philologischen Disziplin, das wissenschaftliche Werk Boeckhs selbst und auf seine Interaktion innerhalb eines wissenschaftlich-institutionellen Netzwerks. Anhand dieser drei Säulen zeigt sie die unterschiedlichen Modalitäten auf, in denen Boeckh seinen Philologiebegriff entwickelte, darlegte und zur Anwendung brachte – und wie hierbei seine Büchersammlung als greifbares Zeugnis einer geisteswissenschaftlichen Ideen- und Disziplingeschichte stets präsent ist.
Der organisierte Fall
(2018)
Stefanie Büchner untersucht in ihrer qualitativ-explorativen Studie die Fallbearbeitung in drei Jugendämtern. Sie zeigt, dass sich die Bearbeitung von Fällen nur unzureichend verstehen lässt, wenn man Organisationen primär als Rahmen begreift oder auf ihre formale Logik reduziert. Vielmehr strukturieren Organisationen als soziale Systeme Fallbearbeitung modular. Fünf Module der Strukturierung stehen im Zentrum der Untersuchung: Wie werden Fälle arbeitsteilig bearbeitet und wie schlägt sich Organisation in der Zusammenarbeit mit Klientinnen und Klienten nieder? Wie lässt sich die unterschiedliche Relevanz von Standards beschreiben? Worin besteht die Herausforderung für Jugendämter, Hilfe und Eingriff zu verantworten und was dokumentiert sich in Dokumentation? Für die Beantwortung dieser Fragen plädiert die Autorin für ein komplexes, allgemeines und spezifisches Verständnis von Organisationen im Feld sozialer Hilfe.
Der neueste Geist des Kapitalismus beschreibt das heutige Mobilisierungs- und Rechtfertigungsregime, welches uns immer wieder dazu bringt, unsere Arbeitskraft zu verwerten und uns täglich ins kapitalistische Hamsterrad zu begeben. Der alte Geist des Kapitalismus, nach dem Fleiß, Disziplin und Sparsamkeit zum gesellschaftlichen Aufstieg führen, trägt längst nicht mehr. Auch reine Selbstverwirklichung, der Anspruch auf Flexibilität und flache Hierarchien reicht nicht mehr aus, um insbesondere gut qualifizierte Menschen zur Arbeit zu motivieren. Der neueste Geist des Kapitalismus hingegen ist das Produkt der tiefen Subjektivierung und Verinnerlichung des Neoliberalismus.
Es geht um beständige berufliche und private Optimierung sowie ein umfassendes Nutzendenken. Glücklich zu sein, ist nicht mehr nur eine Option, sondern es gibt den normativen Anspruch, glücklich sein zu sollen. Das Leistungsprinzip wird aktiv bejaht und Leistungsgerechtigkeit eingefordert. Die Bewältigung von Komplexität wird zum Metathema. Der Anspruch auf Distinktion, insbesondere auch gegenüber „Minderleisten“ nimmt zu. Die Welt wird zunehmend durch die Brille von Zahlen und Statistiken betrachtet, und Key Performance Indicators werden zu ständigen Wegbegleitern. Das Leben wird, verstärkt durch die sozialen Netzwerke, zunehmend zu einer performativen Bühne, die zugleich dem Networking dient. In der Konsequenz der beständigen Optimierung wird es jedoch immer schwerer, zur Ruhe zu kommen.
Dieser neueste Geist des Kapitalismus, dieser umfassende Optimierungsanspruch, hat jedoch gravierende Konsequenzen. Zu den manifesten Pathologien des neuesten Geistes gehören gestiegene Raten von Depressionen, Burn-out und Angststörungen. Gesellschaftlich spreizt sich die soziale Schere immer mehr anhand der Fähigkeit, Komplexität bewältigen zu können, was viele Verlierer und prekäre Gewinner produziert. Daher wird dieser neueste Geist des Kapitalismus sozialkritisch, künstlerkritisch und ideologiekritisch hinterfragt. Die Rolle der Gewerkschaften als der Zentralinstitution der Sozialkritik, die ein tatsächliches Gegengewicht zum neuesten Geist des Kapitalismus bieten kann, wird kontrovers diskutiert. Und es wird aufgezeigt: chillen ist die neue Subversion.
Die Republik Kosovo stellt einen Beitrittskandidaten sui generis in der Erweiterungsgeschichte der Europäischen Union dar. Die besonderen Beziehungen zwischen der EU und dem "potenziellen" Kandidaten resultieren aus dem ungelösten Territorialkonflikt mit Serbien, dem unvollendeten Staatsaufbau sowie der eingeschränkten Souveränität Kosovos. Diese Einzelfallstudie untersucht Kosovos Integrationsprozess in den Staatenverbund im Kontext der Spezifika des Beitrittsaspiranten, der stockenden EU-Südosterweiterung und der multiplen EU-Krise. Davon ausgehend werden vier Zukunftsszenarien für Kosovos Integrationsverlauf, auch mit Blick auf differenzierte Integrationsoptionen, entwickelt.
Obwohl der sozioökonomische Status (SES) eine in der Sozialepidemiologie häufig gebrauchte Variable darstellt, ist seine Verwendung mit methodischen Problemen verknüpft: Seine latente Struktur führt dazu, dass sich verschiedene Möglichkeiten der Operationalisierung eröffnen. Diese reichen von klassischen Ungleichheitsindikatoren wie Bildung, Einkommen oder Berufsposition, über multidimensionale oder über Nachbarschaftsmerkmale konstruierte Indizes, bis hin zu subjektiven Statuseinschätzungen. Problematisch ist dies insofern, als verschiedene Indikatoren auf unterschiedlichen theoretischen Konstrukten beruhen und unterschiedliche Schlussfolgerungen erlauben.
In dieser Arbeit wird deshalb in einem ersten Schritt anhand eines systematischen Reviews zum Zusammenhang von SES und Rückenschmerzen überprüft, welche Indikatoren in wissenschaftlichen Publikationen eingesetzt werden und wie die Auswahl begründet wird. Das Ergebnis zeigt eine klare Präferenz für klassische Indikatoren (Bildung, Einkommen und Berufsposition). Erläutert wurde die jeweilige Auswahl allerdings nur in einem geringen Prozentsatz der untersuchten Artikel, obwohl die unterschiedlichen Studienergebnisse nahelegen, dass der gewählte Indikator einen Einfluss auf den gefundenen Zusammenhang ausüben könnte.
Deshalb wurde in einem weiteren Schritt überprüft, wie unterschiedliche SES-Indikatoren mit der Verbesserung von Rückenschmerzen nach einer Rehabilitation (Studie 1) und der Neuentstehung von Rückenschmerzen (Studie 2) zusammenhängen. Außerdem wurde untersucht, ob ein einfaches Modell den Zusammenhang von SES und Gesundheit so darstellen kann, dass a priori abzuschätzen ist, wie hoch der Einfluss unterschiedlicher Indikatoren auf einen bestimmten Gesundheitsoutput sein könnte.
Es zeigt sich, dass sich der errechnete Zusammenhang zwischen den verschiedenen Indikatoren und chronischen Rückenschmerzen erheblich unterscheidet: Für Menschen, die bereits wegen Rückenschmerzen in Rehabilitation waren, erwiesen sich Bildung und Berufsposition als ähnlich einflussreiche Einflussfaktoren, während für das Einkommen kein bedeutender Zusammenhang festgestellt werden konnte. Für die Neuentstehung chronischer Rückenschmerzen zeigte sich die Berufsposition als wichtigster Indikator, gefolgt von Bildung, während für Einkommen kein signifikanter Zusammenhang gefunden werden konnte.
Folglich bestimmt die Wahl des Indikators die Höhe des festgestellten Zusammenhangs stark mit. Unterschiedliche Indikatoren dürfen deshalb nicht als austauschbar betrachtet werden und es muss bei jeder Forschungsfrage genau überlegt werden, welcher Indikator für die jeweilige Fragestellung am besten verwendet werden kann. Das vorgeschlagene theoretische Modell kann dabei als Unterstützung dienen.
Mit dieser Arbeit zeigt der Autor die vielfältigen Wege der politischen Willensbildung im Bundestag einschließlich außerparlamentarischer Einflussnahmen auf und misst sie speziell am Grundgesetz.
Aufgrund der Fülle der im Parlament behandelten Thematiken kann nicht jeder Abgeordnete auf jedem Gebiet über ausreichende Sachkenntnisse verfügen. Dies zieht eine Zusammenarbeit der Abgeordneten in Fraktionen und Ausschüssen sowie Kontakte zu außerparlamentarischen Dritten nach sich. Beides dient auch dazu, fremde Wissensressourcen zu erschließen. Wenngleich dies nicht die einzige Ursache für außerparlamentarische Zusammenarbeit ist, zeigt sich hieran, dass Praktiken der Kooperation nicht grundsätzlich unlauter sein können. Der Autor zeigt die Grenzen/Bedingungen der Zulässigkeit auf.
Dass sich die repräsentative Demokratie in Deutschland im Wandel befindet, ist nicht neu und kaum umstritten. Herausforderungen im Kontext der Partizipation und Repräsentation rufen ihrerseits Probleme auf Seiten der Input-Legitimation hervor. Demgemäß ist das grundlegende demokratiepolitische Anliegen dieser Arbeit, am Beispiel der Bundes- und Berliner Landesebene darzustellen, wie der repräsentative Politikprozess partizipativer und dennoch effektiv gestaltet werden kann. Basierend auf der philosophischen Strömung des Pragmatismus verfolgt und diskutiert die Arbeit die Synthese aus der pragmatistischen Demokratiekonzeption von Archon Fung und dem empirischen Forschungsprogramm der kriterienbasierten Evaluation demokratischer Innovationen. Dabei wird das analytische Vorgehen Archon Fungs kritisch erweitert, um dem dieser Arbeit zugrunde liegenden Konzept einer komplexen Bürgergesellschaft – als normativer und praktischer Bezugspunkt – gerecht zu werden. Fungs Konzept wird demnach um die liberale Sphäre der Öffentlichkeit, mithin um die zivilgesellschaftlichen Handlungszusammenhänge ergänzt. Auf Grundlage der Diskussion von demokratischen Innovationen werden schließlich demokratie- und engagementpolitische Handlungsempfehlungen in der Dimension der Partizipation und in der Dimension der Repräsentation formuliert. Mithin verfolgt die Arbeit eine problem- und lösungsorientierte Ergänzung der repräsentativen Demokratie. Gleichwohl ist die Arbeit als eine pragmatistisch angeleitete Konzeptstudie für die Entwicklung einer beteiligungsorientierten Praxis in der repräsentativen Demokratie zu verstehen, die trotz ihres theoretischen Charakters ganz im Sinne des Pragmatismus die notwendige empirische Orientierung aufweist. Damit wird das zuweilen problematische Verhältnis zwischen Politischer Theorie und empirischer Demokratieforschung überwunden.
Delay
(2018)
Das Sinnbild »Diabolisches Spiel mit den Zeitmaschinen« spiegelt eine Sicht auf den Musikeffekt »Delay« und seine wechselseitige Beziehung zwischen Technik, Musikproduktion und Rezeption wider. Der durch die beabsichtigte Verzögerung eines akustischen Signals erzeugte und häufig als »Echo« beschriebene Effekt kann nicht nur als echoähnliche Verzögerung, sondern auch in anderen Weisen eingesetzt und vernommen werden. Dies zeigt die Dub-Musik, in der das Delay von der ersten Stunde bis in seine gegenwärtige Ausprägung zum Stilmerkmal wurde. Lee »Scratch« Perry ist Zeitzeuge und Exponent dieser Entwicklung. Sein Schaffen bildet den geeigneten Anlass, den Zeitgeist des Delay und seine Wahrnehmung als psychoakustischen Effekt zu erforschen. Damit führt dieses Buch von einer allgemeinen Beschreibung und Neuverortung des Delays in den prominenten Verwendungskontext der Dub-Musik und die Erkundung eines vielschichtigen Bezugskosmos aus Natur, Technik, Religion, Okkultismus und (Musik-)Kultur.
In this thesis, deficits in theory of mind (ToM) and executive function (EF) were examined in tandem and separately as risk factors for conduct problems, including different forms and functions of aggressive behavior. All three reported studies and the additional analyses were based on a large community sample of N = 1,657 children, including three waves of a longitudinal study covering middle childhood and the transition to early adolescence (range 6 to 13 years) over a total of about three years. All data were analyzed with structural equation modeling.
Altogether, the results of all the conducted studies in this thesis extend previous research and confirm the propositions of the SIP model (Crick & Dodge, 1994) and of the amygdala theory of violent behavior (e.g., Blair et al., 2014) besides other accounts. Considering the three main research questions, the results of the thesis suggest first that deficits in ToM are a risk factor for relational and physical aggression from a mean age of 8 to 11 years under the control of stable between-person differences in aggression. In addition, earlier relationally aggressive behavior predicts later deficits in ToM in this age range, which confirms transactional relations between deficits in ToM and aggressive behavior in children (Crick & Dodge, 1994). Further, deficits in ToM seem to be a risk factor for parent-rated conduct problems cross-sectionally in an age range from 9 to 13 years. Second, deficits in cool EF are a risk factor for later physical, relational, and reactive aggression but not for proactive aggression over a course of three years from middle childhood to early adolescence. Habitual anger seems to mediate the relation between cool EF and physical, and as a trend also relational, aggression. Deficits in emotional and inhibitory control and planning have a direct effect on the individual level of conduct problems under the control of interindividual differences in conduct problems at a mean age of 8 years, but not on the trajectory of conduct problems over the course from age 8 to 11. Third, when deficits in cool EF and ToM are studied in tandem cross-sectionally at the transition from middle childhood to early adolescence, deficits in cool EF seem to play only an indirect role through deficits in ToM as a risk factor for conduct problems. Finally, all results hold equal for females and males in the conducted studies.
The results of this thesis emphasize the need to intervene in the transactional processes between deficits in ToM and in EF and conduct problems, including different forms and functions of aggression, particularly in the socially sensible period from middle and late childhood to early adolescence.
More than a billion people rely on water from rivers sourced in High Mountain Asia (HMA), a significant portion of which is derived from snow and glacier melt. Rural communities are heavily dependent on the consistency of runoff, and are highly vulnerable to shifts in their local environment brought on by climate change. Despite this dependence, the impacts of climate change in HMA remain poorly constrained due to poor process understanding, complex terrain, and insufficiently dense in-situ measurements.
HMA's glaciers contain more frozen water than any region outside of the poles. Their extensive retreat is a highly visible and much studied marker of regional and global climate change. However, in many catchments, snow and snowmelt represent a much larger fraction of the yearly water budget than glacial meltwaters. Despite their importance, climate-related changes in HMA's snow resources have not been well studied.
Changes in the volume and distribution of snowpack have complex and extensive impacts on both local and global climates. Eurasian snow cover has been shown to impact the strength and direction of the Indian Summer Monsoon -- which is responsible for much of the precipitation over the Indian Subcontinent -- by modulating earth-surface heating. Shifts in the timing of snowmelt have been shown to limit the productivity of major rangelands, reduce streamflow, modify sediment transport, and impact the spread of vector-borne diseases. However, a large-scale regional study of climate impacts on snow resources had yet to be undertaken.
Passive Microwave (PM) remote sensing is a well-established empirical method of studying snow resources over large areas. Since 1987, there have been consistent daily global PM measurements which can be used to derive an estimate of snow depth, and hence snow-water equivalent (SWE) -- the amount of water stored in snowpack. The SWE estimation algorithms were originally developed for flat and even terrain -- such as the Russian and Canadian Arctic -- and have rarely been used in complex terrain such as HMA.
This dissertation first examines factors present in HMA that could impact the reliability of SWE estimates. Forest cover, absolute snow depth, long-term average wind speeds, and hillslope angle were found to be the strongest controls on SWE measurement reliability. While forest density and snow depth are factors accounted for in modern SWE retrieval algorithms, wind speed and hillslope angle are not. Despite uncertainty in absolute SWE measurements and differences in the magnitude of SWE retrievals between sensors, single-instrument SWE time series were found to be internally consistent and suitable for trend analysis.
Building on this finding, this dissertation tracks changes in SWE across HMA using a statistical decomposition technique. An aggregate decrease in SWE was found (10.6 mm/yr), despite large spatial and seasonal heterogeneities. Winter SWE increased in almost half of HMA, despite general negative trends throughout the rest of the year. The elevation distribution of these negative trends indicates that while changes in SWE have likely impacted glaciers in the region, climate change impacts on these two pieces of the cryosphere are somewhat distinct.
Following the discussion of relative changes in SWE, this dissertation explores changes in the timing of the snowmelt season in HMA using a newly developed algorithm. The algorithm is shown to accurately track the onset and end of the snowmelt season (70% within 5 days of a control dataset, 89% within 10). Using a 29-year time series, changes in the onset, end, and duration of snowmelt are examined. While nearly the entirety of HMA has experienced an earlier end to the snowmelt season, large regions of HMA have seen a later start to the snowmelt season. Snowmelt periods have also decreased in almost all of HMA, indicating that the snowmelt season is generally shortening and ending earlier across HMA.
By examining shifts in both the spatio-temporal distribution of SWE and the timing of the snowmelt season across HMA, we provide a detailed accounting of changes in HMA's snow resources. The overall trend in HMA is towards less SWE storage and a shorter snowmelt season. However, long-term and regional trends conceal distinct seasonal, temporal, and spatial heterogeneity, indicating that changes in snow resources are strongly controlled by local climate and topography, and that inter-annual variability plays a significant role in HMA's snow regime.
Systems biology aims at investigating biological systems in its entirety by gathering and analyzing large-scale data sets about the underlying components. Computational systems biology approaches use these large-scale data sets to create models at different scales and cellular levels. In addition, it is concerned with generating and testing hypotheses about biological processes. However, such approaches are inevitably leading to computational challenges due to the high dimensionality of the data and the differences in the dimension of data from different cellular layers.
This thesis focuses on the investigation and development of computational approaches to analyze metabolite profiles in the context of cellular networks. This leads to determining what aspects of the network functionality are reflected in the metabolite levels. With these methods at hand, this thesis aims to answer three questions: (1) how observability of biological systems is manifested in metabolite profiles and if it can be used for phenotypical comparisons; (2) how to identify couplings of reaction rates from metabolic profiles alone; and (3) which regulatory mechanism that affect metabolite levels can be distinguished by integrating transcriptomics and metabolomics read-outs.
I showed that sensor metabolites, identified by an approach from observability theory, are more correlated to each other than non-sensors. The greater correlations between sensor metabolites were detected both with publicly available metabolite profiles and synthetic data simulated from a medium-scale kinetic model. I demonstrated through robustness analysis that correlation was due to the position of the sensor metabolites in the network and persisted irrespectively of the experimental conditions. Sensor metabolites are therefore potential candidates for phenotypical comparisons between conditions through targeted metabolic analysis.
Furthermore, I demonstrated that the coupling of metabolic reaction rates can be investigated from a purely data-driven perspective, assuming that metabolic reactions can be described by mass action kinetics. Employing metabolite profiles from domesticated and wild wheat and tomato species, I showed that the process of domestication is associated with a loss of regulatory control on the level of reaction rate coupling. I also found that the same metabolic pathways in Arabidopsis thaliana and Escherichia coli exhibit differences in the number of reaction rate couplings.
I designed a novel method for the identification and categorization of transcriptional effects on metabolism by combining data on gene expression and metabolite levels. The approach determines the partial correlation of metabolites with control by the principal components of the transcript levels. The principle components contain the majority of the transcriptomic information allowing to partial out the effect of the transcriptional layer from the metabolite profiles. Depending whether the correlation between metabolites persists upon controlling for the effect of the transcriptional layer, the approach allows us to group metabolite pairs into being associated due to post-transcriptional or transcriptional regulation, respectively. I showed that the classification of metabolite pairs into those that are associated due to transcriptional or post-transcriptional regulation are in agreement with existing literature and findings from a Bayesian inference approach.
The approaches developed, implemented, and investigated in this thesis open novel ways to jointly study metabolomics and transcriptomics data as well as to place metabolic profiles in the network context. The results from these approaches have the potential to provide further insights into the regulatory machinery in a biological system.
Studien zum Bildungserfolg in Deutschland weisen auf verschiedene Ungleichheitsdimensionen hin. So wurde wiederholt ein enger Zusammenhang zwischen der sozialen Herkunft und dem schulischen Bildungserfolg dokumentiert. Des Weiteren stellen auch Geschlechterunterschiede im Bildungserfolg einen vielfach berichteten und sowohl wissenschaftlich als auch gesellschaftlich diskutierten Befund dar. Der großen Anzahl an Studien, die sich jeweils einer dieser Ungleichheitsdimensionen widmen, steht jedoch ein Forschungsbedarf bezüglich des systematischen Wissens über die Wechselwirkung von Geschlecht und sozialer Herkunft im Bildungserfolg gegenüber. Vor diesem Hintergrund hat die vorliegende Arbeit zum Ziel, das Zusammenspiel von Geschlecht und sozialer Herkunft zu untersuchen, wobei sie von zwei übergeordneten Fragestellungen geleitet wird, die im Rahmen von vier Teilstudien untersucht werden.Erstens wurde das Zusammenspiel von Geschlecht und sozioökonomischem Status (SES) in unterschiedlichen Facetten des Bildungserfolges sowie in den Berufsaspirationen analysiert (Teilstudien 1-3). Zweitens wurde untersucht, inwiefern die elterlichen Geschlechterrollenvorstellungen mit den Schulleistungen ihres Kindes assoziiert sind. Vor diesem Hintergrund wurde ebenso der Zusammenhang zwischen den elterlichen Geschlechterrollenvorstellungen und Merkmalen des familiären Hintergrundes analysiert (Teilstudie 4). Zusammenfassend betrachtet weisen die Ergebnisse der Teilstudien auf eine Wechselwirkung von Geschlechtszugehörigkeit und sozialer Herkunft im Bildungserfolg sowie in den beruflichen Aspirationen hin, auch wenn die entsprechenden Effekte eher klein ausfallen. Entgegen der gesellschaftlichen Konnotation von Mathematik als „Jungenfach“ stellen die Befunde damit beispielsweise einen Hinweis darauf dar, dass die vielfach zitierten Geschlechterunterschiede in den mathematischen Kompetenzen nicht als „naturgegeben“ sondern beeinflussbar verstanden werden können. Damit untermauern die Ergebnisse die unter anderem im Rahmen verschiedener Theorien herausgestellte Bedeutsamkeit des Sozialisationskontextes für die Entwicklung der Fähigkeiten und Ziele von Jungen und Mädchen sowie die im internationalen Vergleich gezeigte Variabilität von Geschlechterunterschieden in Schulleistungen.
Die Arbeit beschäftigt sich mit den aktuellen Regelungen des deutschen Aufenthaltsrechts in Bezug auf die Möglichkeiten des Familiennachzuges. Es werden Schwachstellen der aktuellen Regelungen aufgezeigt, Ursachen, Rechtfertigungsgründe und mögliche Lösungsansätze betrachtet.
Schwerpunkt der Betrachtung sind die Konflikte, welche sich unter dem Begriff der Inländerdiskriminierung zusammenfassen lassen. Hierzu wird das Phänomen der Inländerdiskriminierung untersucht und die im Kontext des Familiennachzuges hierzu ergangene Rechtsprechung des EuGH betrachtet. Dabei gilt das Hauptaugenmerk der Figur des grenzüberschreitenden Bezuges, welche der EuGH im Ergebnis mittlerweile aufgelöst hat. Als Ergebnis dieses Abschnittes der Arbeit wird festgestellt, dass eine Unterscheidung von Nachzug zu Deutschen oder zu Unionsbürgern gegen Gleichheitssätze verstößt und aufzuheben ist.
Weiterhin betrachtet die Arbeit verschiedene alternative Lebensmodelle neben der klassischen verschiedengeschlechtlichen Ehe. In Bezug auf gleichgeschlechtliche Lebensgemeinschaften werden auch nach Einführung der „Ehe für alle“ weitere Schwachstellen verortet, die vor allem darauf fußen, dass Nachzugsrechte vom Bestehen eines Instituts abhängen, welches in großen Teilen der Welt nicht gibt. In Hinblick auf nichtehelichen Lebensgemeinschaften wird hingegen die geltende Rechtslage als ausreichend betrachtet. Zuletzt betrachtet die Arbeit Ehemodelle, welche im deutschen Recht nicht vorgesehen und anerkannt sind. Dies sind die Zwangs-, Kinder- und Mehrehe. Es wird beleuchtet, wie das deutsche Recht und insbesondere das Aufenthaltsrecht mit diesen Ehen umgeht und welcher Zweck mit den bestehenden Regelungen verfolgt wird. Während der Gesetzgeber den Schutz der Opfer solcher Eheschließungen vor Augen hatte, kommt die Untersuchung zu dem Ergebnis, dass vielmehr eine weitere Gefährdung eintritt, welche nur zu vermeiden wäre, wenn auch diese Ehemodelle zunächst anerkannt würden und den Opfern im Inland sodann Hilfe angeboten würde.
Insgesamt stellt die Arbeit gravierende Mängel in menschenrechtlicher Hinsicht im bestehenden Recht des Familiennachzugs fest und schlägt eine generelle Neuordnung vor.
Die betrachteten Regelungen entsprechen dem Regelungsstand im Juli 2018.
Das Nonaffektationsprinzip
(2018)
To reach its climate targets, the European Union has to implement a major sustainability transition in the coming decades. While the socio-technical change required for this transition is well discussed in the academic literature, the economics that go along with it are often reduced to a cost-benefit perspective of climate policy measures. By investigating climate change mitigation as a coordination problem, this thesis offers a novel perspective: It integrates the economic and the socio-technical dimension and thus allows to better understand the opportunities of a sustainability transition in Europe.
First, a game theoretic framework is developed to illustrate coordination on green or brown investment from an agent perspective. A model based on the coordination game "stag hunt" is used to discuss the influence of narratives and signals for green investment as a means to coordinate expectations towards green growth. Public and private green investment impulses – triggered by credible climate policy measures and targets – serve as an example for a green growth perspective for Europe in line with a sustainability transition. This perspective also embodies a critical view on classical analyses of climate policy measures.
Secondly, this analysis is enriched with empirical results derived from stakeholder involvement. In interviews and with a survey among European insurance companies, coordination mechanisms such as market and policy signals are identified and evaluated by their impact on investment strategies for green infrastructure. The latter, here defined as renewable energy, electricity distribution and transmission as well as energy efficiency improvements, is considered a central element of the transition to a low-carbon society.
Thirdly, this thesis identifies and analyzes major criticisms raised towards stakeholder involvement in sustainability science. On a conceptual level, different ways of conducting such qualitative research are classified. This conceptualization is then evaluated by scientists, thereby generating empirical evidence on ideals and practices of stakeholder involvement in sustainability science.
Through the combination of theoretical and empirical research on coordination problems, this thesis offers several contributions: On the one hand, it outlines an approach that allows to assess the economic opportunities of sustainability transitions. This is helpful for policy makers in Europe that are striving to implement climate policy measures addressing the targets of the Paris Agreement as well as to encourage a shift of investments towards green infrastructure. On the other hand, this thesis enhances the stabilization of the theoretical foundations in sustainability science. Therefore, it can aid researchers who involve stakeholders when studying sustainability transitions.
This project was focused on exploring the phase behavior of poly(styrene)187000-block-poly(2-vinylpyridine)203000 (SV390) with high molecular weight (390 kg/mol) in thin films, in which the self-assembly of block copolymers (BCPs) was realized via thermo-solvent annealing. The advanced processing technique of solvent vapor treatment provides controlled and stable conditions.
In Chapter 3, the factors to influence the annealing process and the swelling behavior of homopolymers are presented and discussed. The swelling behavior of BCP in films is controlled by the temperature of the vapor and of the substrate, on one hand, and variation of the saturation of the solvent vapor atmosphere (different solvents), on the other hand. Additional factors like the geometry and material of the chamber, the type of flow inside the chamber etc. also influence the reproducibility and stability of the processing. The slightly selective solvent vapor of chloroform gives 10% more swelling of P2VP than PS in films with thickness of ~40 nm.
The tunable morphology in ultrathin films of high molecular weight BCP (SV390) was investigated in Chapter 4. First, the swelling behavior can be precisely tuned by temperature and/or vapor flow separately, which provided information for exploring the multiple-parameter-influenced segmental chain mobility of polymer films. The equilibrium state of SV390 in thin films influenced by temperature was realized at various temperatures with the same degree of swelling. Various methods including characterization with SFM, metallization and RIE were used to identify the morphology of films as porous half-layer with PS dots and P2VP matrix. The kinetic investigations demonstrate that on substrates with either weak or strong interaction the original morphology of the BCP with high molecular weight is changed very fast within 5 min, and the further annealing serves for annihilation of defects.
The morphological development of symmetric BCP in films with thickness increasing from half-layer to one-layer influenced by confinement factors of gradient film thicknesses and various surface properties of substrates was studied in Chapter 5. SV390 and SV99 films show bulk lamella-forming morphology after slightly selective solvent vapor (chloroform) treatment. SV99 films show cylinder-forming morphology under strongly selective solvent vapor (toluene) treatment since the asymmetric structure (caused by toluene uptake in PS blocks only) of SV99 block copolymer during annealing. Both kinds of morphology (lamella and cylinder) are influenced by the film thickness. The annealed morphology of SV390 and SV99 influenced by the combination of confined film and substrate property is similar to the morphology on flat silicon wafers. In this chapter the gradients in the film thickness and surface properties of the substrates with regard to their influence on the morphological development in thin BCP films are presented. Directed self-assembly (graphoepitaxy) of this SV390 was also investigated to compare with systematically reported SV99.
In Chapter 6 an approach to induced oriented microphase separation in thick block copolymer films via treatment with the oriented vapor flow using mini-extruder is envisaged to be an alternative to existing methodologies, e.g. via non-solvent-induced phase separation. The preliminary tests performed in this study confirm potential perspective of this method, which alters the structure through the bulk of the film (as revealed by SAXS measurements), but more detailed studies have to be conducted in order to optimize the preparation.
Remote sensing technology, such as airborne, mobile, or terrestrial laser scanning, and photogrammetric techniques, are fundamental approaches for efficient, automatic creation of digital representations of spatial environments. For example, they allow us to generate 3D point clouds of landscapes, cities, infrastructure networks, and sites. As essential and universal category of geodata, 3D point clouds are used and processed by a growing number of applications, services, and systems such as in the domains of urban planning, landscape architecture, environmental monitoring, disaster management, virtual geographic environments as well as for spatial analysis and simulation.
While the acquisition processes for 3D point clouds become more and more reliable and widely-used, applications and systems are faced with more and more 3D point cloud data. In addition, 3D point clouds, by their very nature, are raw data, i.e., they do not contain any structural or semantics information. Many processing strategies common to GIS such as deriving polygon-based 3D models generally do not scale for billions of points. GIS typically reduce data density and precision of 3D point clouds to cope with the sheer amount of data, but that results in a significant loss of valuable information at the same time.
This thesis proposes concepts and techniques designed to efficiently store and process massive 3D point clouds. To this end, object-class segmentation approaches are presented to attribute semantics to 3D point clouds, used, for example, to identify building, vegetation, and ground structures and, thus, to enable processing, analyzing, and visualizing 3D point clouds in a more effective and efficient way. Similarly, change detection and updating strategies for 3D point clouds are introduced that allow for reducing storage requirements and incrementally updating 3D point cloud databases. In addition, this thesis presents out-of-core, real-time rendering techniques used to interactively explore 3D point clouds and related analysis results. All techniques have been implemented based on specialized spatial data structures, out-of-core algorithms, and GPU-based processing schemas to cope with massive 3D point clouds having billions of points.
All proposed techniques have been evaluated and demonstrated their applicability to the field of geospatial applications and systems, in particular for tasks such as classification, processing, and visualization. Case studies for 3D point clouds of entire cities with up to 80 billion points show that the presented approaches open up new ways to manage and apply large-scale, dense, and time-variant 3D point clouds as required by a rapidly growing number of applications and systems.