Filtern
Volltext vorhanden
- ja (294) (entfernen)
Erscheinungsjahr
- 2013 (294) (entfernen)
Dokumenttyp
- Dissertation (110)
- Postprint (63)
- Monographie/Sammelband (45)
- Wissenschaftlicher Artikel (19)
- Ausgabe (Heft) zu einer Zeitschrift (18)
- Preprint (12)
- Masterarbeit (10)
- Konferenzveröffentlichung (8)
- Rezension (5)
- Bachelorarbeit (2)
Sprache
- Englisch (165)
- Deutsch (126)
- Mehrsprachig (1)
- Rumänisch (1)
- Sorbisch (1)
Gehört zur Bibliographie
- ja (294) (entfernen)
Schlagworte
- Opposition (4)
- Autoritarismus (3)
- Brandenburger Antike-Denkwerk (3)
- E-Learning (3)
- Fachdidaktik Latein (3)
- Komparatistik (3)
- Latein (3)
- Modellierung (3)
- Potsdamer Lateintag (3)
- Wissenschaftsgeschichte (3)
Institut
- Hasso-Plattner-Institut für Digital Engineering gGmbH (31)
- Institut für Chemie (27)
- Institut für Geowissenschaften (25)
- Wirtschaftswissenschaften (18)
- Institut für Biochemie und Biologie (15)
- Mathematisch-Naturwissenschaftliche Fakultät (14)
- Institut für Physik und Astronomie (13)
- Department Linguistik (12)
- Institut für Umweltwissenschaften und Geographie (11)
- Department Psychologie (10)
Der israelische Autor und Journalist Noah Klieger ist in der deutschsprachigen Forschung zur Holocaustliteratur, in deren Kontext theoretische Konzepte und Interpretationen zahlreicher Autoren (u.a. Ruth Klüger, Primo Levi) dieser Gattung vorliegen, bisher kaum beachtet worden. In der vorliegenden Arbeit steht seine 2010 erschienene Autobiographie „Zwölf Brötchen zum Frühstück“ im Zentrum. Innerhalb der Textanalyse wird der Frage nachgegangen, welche Bedeutung das Schreiben für Klieger hat und inwieweit seine als Reportage angelegte Autobiographie, die den sehr faktenbezogenen und dokumentarischen Stil des Journalisten widerspiegelt, den Rezipienten in der Interpretation lenkt und Authentizität erzeugt. Ausgehend von dieser Fragestellung werden für die Arbeit geführte Interviews mit Noah Klieger (oral history) einbezogen und der Erlebnisbericht „Ich habe den Todesengel überlebt“ von Eva Mozes-Kor, die das Konzept des Erlebnisberichtes mit all seinen Eigenschaften konstant bewahrt, zum Vergleich hinzugezogen. Im Fokus der Arbeit steht die Analyse der Autobiographie Kliegers, wobei auf das Genre Reportage, relevante Stilmittel, zentrale Begrifflichkeiten und Veröffentlichungskontexte sowie auf die Gedächtnistheorie von Maurice Halbwachs eingegangen werden. Abschließend wird die Thematik des Vergebens bei Klieger und Mozes-Kor erörtert. Die Forschungsergebnisse stellen den israelischen Holocaustüberlebenden Noah Klieger als Autor vor und verdeutlichen, dass die innerhalb der Gattung Holocaustliteratur gewählten Darstellungsweisen unterschiedliche Formen von Authentizität evozieren.
Von einer kritischen Analyse des Artikels "Deutsche Literatur in der Entscheidung" (1947) von Alfred Andersch ausgehend, fragt die Untersuchung nach dem Spannungsverhältnis von literarischem Engagement im Sinne Sartres und konzeptuellen Leerstellen in der Auseinandersetzung mit der deutschen NS-Vergangenheit, welches sich in dem programmatischen Aufsatz und Anderschs Roman "Die Rote" (1972) nachweisen lässt.
The study of outcrop modeling is located at the interface between two fields of expertise, Sedimentology and Computing Geoscience, which respectively investigates and simulates geological heterogeneity observed in the sedimentary record. During the last past years, modeling tools and techniques were constantly improved. In parallel, the study of Phanerozoic carbonate deposits emphasized the common occurrence of a random facies distribution along single depositional domain. Although both fields of expertise are intrinsically linked during outcrop simulation, their respective advances have not been combined in literature to enhance carbonate modeling studies. The present study re-examines the modeling strategy adapted to the simulation of shallow-water carbonate systems, based on a close relationship between field sedimentology and modeling capabilities. In the present study, the evaluation of three commonly used algorithms Truncated Gaussian Simulation (TGSim), Sequential Indicator Simulation (SISim), and Indicator Kriging (IK), were performed for the first time using visual and quantitative comparisons on an ideally suited carbonate outcrop. The results show that the heterogeneity of carbonate rocks cannot be fully simulated using one single algorithm. The operating mode of each algorithm involves capabilities as well as drawbacks that are not capable to match all field observations carried out across the modeling area. Two end members in the spectrum of carbonate depositional settings, a low-angle Jurassic ramp (High Atlas, Morocco) and a Triassic isolated platform (Dolomites, Italy), were investigated to obtain a complete overview of the geological heterogeneity in shallow-water carbonate systems. Field sedimentology and statistical analysis performed on the type, morphology, distribution, and association of carbonate bodies and combined with palaeodepositional reconstructions, emphasize similar results. At the basin scale (x 1 km), facies association, composed of facies recording similar depositional conditions, displays linear and ordered transitions between depositional domains. Contrarily, at the bedding scale (x 0.1 km), individual lithofacies type shows a mosaic-like distribution consisting of an arrangement of spatially independent lithofacies bodies along the depositional profile. The increase of spatial disorder from the basin to bedding scale results from the influence of autocyclic factors on the transport and deposition of carbonate sediments. Scale-dependent types of carbonate heterogeneity are linked with the evaluation of algorithms in order to establish a modeling strategy that considers both the sedimentary characteristics of the outcrop and the modeling capabilities. A surface-based modeling approach was used to model depositional sequences. Facies associations were populated using TGSim to preserve ordered trends between depositional domains. At the lithofacies scale, a fully stochastic approach with SISim was applied to simulate a mosaic-like lithofacies distribution. This new workflow is designed to improve the simulation of carbonate rocks, based on the modeling of each scale of heterogeneity individually. Contrarily to simulation methods applied in literature, the present study considers that the use of one single simulation technique is unlikely to correctly model the natural patterns and variability of carbonate rocks. The implementation of different techniques customized for each level of the stratigraphic hierarchy provides the essential computing flexibility to model carbonate systems. Closer feedback between advances carried out in the field of Sedimentology and Computing Geoscience should be promoted during future outcrop simulations for the enhancement of 3-D geological models.
3D from 2D touch
(2013)
While interaction with computers used to be dominated by mice and keyboards, new types of sensors now allow users to interact through touch, speech, or using their whole body in 3D space. These new interaction modalities are often referred to as "natural user interfaces" or "NUIs." While 2D NUIs have experienced major success on billions of mobile touch devices sold, 3D NUI systems have so far been unable to deliver a mobile form factor, mainly due to their use of cameras. The fact that cameras require a certain distance from the capture volume has prevented 3D NUI systems from reaching the flat form factor mobile users expect. In this dissertation, we address this issue by sensing 3D input using flat 2D sensors. The systems we present observe the input from 3D objects as 2D imprints upon physical contact. By sampling these imprints at very high resolutions, we obtain the objects' textures. In some cases, a texture uniquely identifies a biometric feature, such as the user's fingerprint. In other cases, an imprint stems from the user's clothing, such as when walking on multitouch floors. By analyzing from which part of the 3D object the 2D imprint results, we reconstruct the object's pose in 3D space. While our main contribution is a general approach to sensing 3D input on 2D sensors upon physical contact, we also demonstrate three applications of our approach. (1) We present high-accuracy touch devices that allow users to reliably touch targets that are a third of the size of those on current touch devices. We show that different users and 3D finger poses systematically affect touch sensing, which current devices perceive as random input noise. We introduce a model for touch that compensates for this systematic effect by deriving the 3D finger pose and the user's identity from each touch imprint. We then investigate this systematic effect in detail and explore how users conceptually touch targets. Our findings indicate that users aim by aligning visual features of their fingers with the target. We present a visual model for touch input that eliminates virtually all systematic effects on touch accuracy. (2) From each touch, we identify users biometrically by analyzing their fingerprints. Our prototype Fiberio integrates fingerprint scanning and a display into the same flat surface, solving a long-standing problem in human-computer interaction: secure authentication on touchscreens. Sensing 3D input and authenticating users upon touch allows Fiberio to implement a variety of applications that traditionally require the bulky setups of current 3D NUI systems. (3) To demonstrate the versatility of 3D reconstruction on larger touch surfaces, we present a high-resolution pressure-sensitive floor that resolves the texture of objects upon touch. Using the same principles as before, our system GravitySpace analyzes all imprints and identifies users based on their shoe soles, detects furniture, and enables accurate touch input using feet. By classifying all imprints, GravitySpace detects the users' body parts that are in contact with the floor and then reconstructs their 3D body poses using inverse kinematics. GravitySpace thus enables a range of applications for future 3D NUI systems based on a flat sensor, such as smart rooms in future homes. We conclude this dissertation by projecting into the future of mobile devices. Focusing on the mobility aspect of our work, we explore how NUI devices may one day augment users directly in the form of implanted devices.
Background: With increasing age neuromuscular deficits (e.g., sarcopenia) may result in impaired physical performance and an increased risk for falls. Prominent intrinsic fall-risk factors are age-related decreases in balance and strength / power performance as well as cognitive decline. Additional studies are needed to develop specifically tailored exercise programs for older adults that can easily be implemented into clinical practice. Thus, the objective of the present trial is to assess the effects of a fall prevention program that was developed by an interdisciplinary expert panel on measures of balance, strength / power, body composition, cognition, psychosocial well-being, and falls self-efficacy in healthy older adults. Additionally, the time-related effects of detraining are tested.
Methods/Design: Healthy old people (n = 54) between the age of 65 to 80 years will participate in this trial. The testing protocol comprises tests for the assessment of static / dynamic steady-state balance (i.e., Sharpened Romberg Test, instrumented gait analysis), proactive balance (i.e., Functional Reach Test; Timed Up and Go Test), reactive balance (i.e., perturbation test during bipedal stance; Push and Release Test), strength (i.e., hand grip strength test; Chair Stand Test), and power (i.e., Stair Climb Power Test; countermovement jump). Further, body composition will be analysed using a bioelectrical impedance analysis system. In addition, questionnaires for the assessment of psychosocial (i.e., World Health Organisation Quality of Life Assessment-Bref), cognitive (i.e., Mini Mental State Examination), and fall risk determinants (i.e., Fall Efficacy Scale -International) will be included in the study protocol. Participants will be randomized into two intervention groups or the control / waiting group. After baseline measures, participants in the intervention groups will conduct a 12-week balance and strength / power exercise intervention 3 times per week, with each training session lasting 30 min. (actual training time). One intervention group will complete an extensive supervised training program, while the other intervention group will complete a short version (` 3 times 3') that is home-based and controlled by weekly phone calls. Post-tests will be conducted right after the intervention period. Additionally, detraining effects will be measured 12 weeks after program cessation. The control group / waiting group will not participate in any specific intervention during the experimental period, but will receive the extensive supervised program after the experimental period.
Discussion: It is expected that particularly the supervised combination of balance and strength / power training will improve performance in variables of balance, strength / power, body composition, cognitive function, psychosocial well-being, and falls self-efficacy of older adults. In addition, information regarding fall risk assessment, dose-response-relations, detraining effects, and supervision of training will be provided. Further, training-induced health-relevant changes, such as improved performance in activities of daily living, cognitive function, and quality of life, as well as a reduced risk for falls may help to lower costs in the health care system. Finally, practitioners, therapists, and instructors will be provided with a scientifically evaluated feasible, safe, and easy-to-administer exercise program for fall prevention.
In a recent paper with N. Tarkhanov, the Lefschetz number for endomorphisms (modulo trace class operators) of sequences of trace class curvature was introduced. We show that this is a well defined, canonical extension of the classical Lefschetz number and establish the homotopy invariance of this number. Moreover, we apply the results to show that the Lefschetz fixed point formula holds for geometric quasiendomorphisms of elliptic quasicomplexes.
In soils and sediments there is a strong coupling between local biogeochemical processes and the distribution of water, electron acceptors, acids and nutrients. Both sides are closely related and affect each other from small scale to larger scales. Soil structures such as aggregates, roots, layers or macropores enhance the patchiness of these distributions. At the same time it is difficult to access the spatial distribution and temporal dynamics of these parameter. Noninvasive imaging techniques with high spatial and temporal resolution overcome these limitations. And new non-invasive techniques are needed to study the dynamic interaction of plant roots with the surrounding soil, but also the complex physical and chemical processes in structured soils. In this study we developed an efficient non-destructive in-situ method to determine biogeochemical parameters relevant to plant roots growing in soil. This is a quantitative fluorescence imaging method suitable for visualizing the spatial and temporal pH changes around roots. We adapted the fluorescence imaging set-up and coupled it with neutron radiography to study simultaneously root growth, oxygen depletion by respiration activity and root water uptake. The combined set up was subsequently applied to a structured soil system to map the patchy structure of oxic and anoxic zones induced by a chemical oxygen consumption reaction for spatially varying water contents. Moreover, results from a similar fluorescence imaging technique for nitrate detection were complemented by a numerical modeling study where we used imaging data, aiming to simulate biodegradation under anaerobic, nitrate reducing conditions.
A polymer analogous reaction for the formation of imidazolium and NHC based porous polymer networks
(2013)
A polymer analogous reaction was carried out to generate a porous polymeric network with N-heterocyclic carbenes (NHC) in the polymer backbone. Using a stepwise approach, first a polyimine network is formed by polymerization of the tetrafunctional amine tetrakis(4-aminophenyl)methane. This polyimine network is converted in the second step into polyimidazolium chloride and finally to a polyNHC network. Furthermore a porous Cu(II)-coordinated polyNHC network can be generated. Supercritical drying generates polymer networks with high permanent surface areas and porosities which can be applied for different catalytic reactions. The catalytic properties were demonstrated for example in the activation of CO2 or in the deoxygenation of sulfoxides to the corresponding sulfides.
Transport Molecules play a crucial role for cell viability. Amongst others, linear motors transport cargos along rope-like structures from one location of the cell to another in a stochastic fashion. Thereby each step of the motor, either forwards or backwards, bridges a fixed distance. While moving along the rope the motor can also detach and is lost. We give here a mathematical formalization of such dynamics as a random process which is an extension of Random Walks, to which we add an absorbing state to model the detachment of the motor from the rope. We derive particular properties of such processes that have not been available before. Our results include description of the maximal distance reached from the starting point and the position from which detachment takes place. Finally, we apply our theoretical results to a concrete established model of the transport molecule Kinesin V.
A water soluble fluorescent polymer as a dual colour sensor for temperature and a specific protein
(2013)
We present two thermoresponsive water soluble copolymers prepared via free radical statistical copolymerization of N-isopropylacrylamide (NIPAm) and of oligo(ethylene glycol) methacrylates (OEGMAs), respectively, with a solvatochromic 7-(diethylamino)-3-carboxy-coumarin (DEAC)- functionalized monomer. In aqueous solutions, the NIPAm-based copolymer exhibits characteristic changes in its fluorescence profile in response to a change in solution temperature as well as to the presence of a specific protein, namely an anti-DEAC antibody. This polymer emits only weakly at low temperatures, but exhibits a marked fluorescence enhancement accompanied by a change in its emission colour when heated above its cloud point. Such drastic changes in the fluorescence and absorbance spectra are observed also upon injection of the anti-DEAC antibody, attributed to the specific binding of the antibody to DEAC moieties. Importantly, protein binding occurs exclusively when the polymer is in the well hydrated state below the cloud point, enabling a temperature control on the molecular recognition event. On the other hand, heating of the polymer–antibody complexes releases a fraction of the bound antibody. In the presence of the DEAC-functionalized monomer in this mixture, the released antibody competitively binds to the monomer and the antibody-free chains of the polymer undergo a more effective collapse and inter-aggregation. In contrast, the emission properties of the OEGMA-based analogous copolymer are rather insensitive to the thermally induced phase transition or to antibody binding. These opposite behaviours underline the need for a carefully tailored molecular design of responsive polymers aimed at specific applications, such as biosensing.
Adam Mickiewicz
(2013)
Die vorliegende Ausgabe der „Potsdamer Beiträge zur Sorabistik – Podstupimske pśinoski k Sorabistice“ Adam Mickiewicz, Gedichte in sorbischer Übersetzung, zusammengestellt von Alfred Měškank stellt den Jubiläumsband Nr. 10 unserer Serie dar. Wir sind sehr stolz darauf, die Serie herausgeben zu dürfen und vor allem darauf, das Jubiläum mit so einem würdigen Inhalt zu begehen. Adam Mickiewicz (1798-1855) gilt als der größte polnische Dichter, vergleichbar mit J. W. v. Goethe in Deutschland oder John Byron in England. Seine Werke sind in viele Sprachen übersetzt und dadurch in der ganzen Welt bekannt geworden. Bedeutende sorbische Dichter und Übersetzer, wie z.B. Jakub Bart-Ćišinski und Otto Lehmann-Wićaz haben seine Gedichte auch ins Sorbische übersetzt, doch diese Übersetzungen sind verstreut und dem heutigen Interessenten kaum zugänglich. Einige seiner bedeutsamsten Werke, besonders sein Versepos „Pan Tadeusz”, sowie Teile seines dramatischen Werkes „Dziady” fanden erst in neuerer Zeit einen Übersetzer. Die vorliegende Edition, die eine Zusammenstellung aller bisher ins Sorbische/Wendische übersetzten Werke des großen polnischen Dichters der Romantik darstellt, schließt diese Lücke nun.
Für die vorliegende Studie »Qualitative Untersuchung zur Akzeptanz des neuen Personalausweises und Erarbeitung von Vorschlägen zur Verbesserung der Usability der Software AusweisApp« arbeitete ein Innovationsteam mit Hilfe der Design Thinking Methode an der Aufgabenstellung »Wie können wir die AusweisApp für Nutzer intuitiv und verständlich gestalten?« Zunächst wurde die Akzeptanz des neuen Personalausweises getestet. Bürger wurden zu ihrem Wissensstand und ihren Erwartungen hinsichtlich des neuen Personalausweises befragt, darüber hinaus zur generellen Nutzung des neuen Personalausweises, der Nutzung der Online-Ausweisfunktion sowie der Usability der AusweisApp. Weiterhin wurden Nutzer bei der Verwendung der aktuellen AusweisApp beobachtet und anschließend befragt. Dies erlaubte einen tiefen Einblick in ihre Bedürfnisse. Die Ergebnisse aus der qualitativen Untersuchung wurden verwendet, um Verbesserungsvorschläge für die AusweisApp zu entwickeln, die den Bedürfnissen der Bürger entsprechen. Die Vorschläge zur Optimierung der AusweisApp wurden prototypisch umgesetzt und mit potentiellen Nutzern getestet. Die Tests haben gezeigt, dass die entwickelten Neuerungen den Bürgern den Zugang zur Nutzung der Online-Ausweisfunktion deutlich vereinfachen. Im Ergebnis konnte festgestellt werden, dass der Akzeptanzgrad des neuen Personalausweises stark divergiert. Die Einstellung der Befragten reichte von Skepsis bis hin zu Befürwortung. Der neue Personalausweis ist ein Thema, das den Bürger polarisiert. Im Rahmen der Nutzertests konnten zahlreiche Verbesserungspotenziale des bestehenden Service Designs sowohl rund um den neuen Personalausweis, als auch im Zusammenhang mit der verwendeten Software aufgedeckt werden. Während der Nutzertests, die sich an die Ideen- und Prototypenphase anschlossen, konnte das Innovtionsteam seine Vorschläge iterieren und auch verifizieren. Die ausgearbeiteten Vorschläge beziehen sich auf die AusweisApp. Die neuen Funktionen umfassen im Wesentlichen: · den direkten Zugang zu den Diensteanbietern, · umfangreiche Hilfestellungen (Tooltips, FAQ, Wizard, Video), · eine Verlaufsfunktion, · einen Beispieldienst, der die Online-Ausweisfunktion erfahrbar macht. Insbesondere gilt es, den Nutzern mit der neuen Version der AusweisApp Anwendungsfelder für ihren neuen Personalausweis und einen Mehrwert zu bieten. Die Ausarbeitung von weiteren Funktionen der AusweisApp kann dazu beitragen, dass der neue Personalausweis sein volles Potenzial entfalten kann.
As Albania is accelerating its preparations towards the European Union candidate status, numerous areas of public policy and practices undergo intensive development processes. Regional development policy is a very new area of public policy in Albania, and needs research and development. This study focuses on the process of sustainable development in Albania, by analyzing and comparing the regional development of regions of Tirana, Shkodra and Kukes. The methodology used consists of a literature/desk review; analytical and comparative approach; qualitative interviews; quantitative data collection; analysis. The research is organized in five chapters. First chapter provides an overview of the study framework. The second outlines the theory and scientific framework for sustainable and regional development in relation with geography. The third chapter presents the picture of the regional development in Albania, analyzing the disparities and regional development in the light of EU requirements and NUTS division. Chapter 4 continues by analyzing and comparing the regional development of the regions: Tirana – driver for change, Shkodra – the North in Development and Kukes – the “shrinking” region. Chapter 5 presents the conclusions and recommendations. This research comes to the conclusions that if growth in Albania is to be increased and sustained, a regional development policy needs to be established.
Derivatization of fullerene (C60) with branched aliphatic chains softens C60-based materials and enables the formation of thermotropic liquid crystals and room temperature nonvolatile liquids. This work demonstrates that by carefully tuning parameters such as type, number and substituent position of the branched chains, liquid crystalline C60 materials with mesophase temperatures suited for photovoltaic cell fabrication and room temperature nonvolatile liquid fullerenes with tunable viscosity can be obtained. In particular, compound 1, with branched chains, exhibits a smectic liquid crystalline phase extending from 84 °C to room temperature. Analysis of bulk heterojunction (BHJ) organic solar cells with a ca. 100 nm active layer of compound 1 and poly(3-hexylthiophene) (P3HT) as an electron acceptor and an electron donor, respectively, reveals an improved performance (power conversion efficiency, PCE: 1.6 ± 0.1%) in comparison with another compound, 10 (PCE: 0.5 ± 0.1%). The latter, in contrast to 1, carries linear aliphatic chains and thus forms a highly ordered solid lamellar phase at room temperature. The solar cell performance of 1 blended with P3HT approaches that of PCBM/P3HT for the same active layer thickness. This indicates that C60 derivatives bearing branched tails are a promising class of electron acceptors in soft (flexible) photovoltaic devices.
This study presents results from a cross-modal priming experiment investigating inflected verb forms of German. A group of late learners of German with Russian as their native language (L1) was compared to a control group of German L1 speakers. The experiment showed different priming patterns for the two participant groups. The L1 German data yielded a stem-priming effect for inflected forms involving regular affixation and a partial priming effect for irregular forms irrespective of stem allomorphy. By contrast, the data from the late bilinguals showed reduced priming effects for both regular and irregular forms. We argue that late learners rely more on lexically stored inflected word forms during word recognition and less on morphological parsing than native speakers.
Water management and environmental protection is vulnerable to extreme low flows during streamflow droughts. During the last decades, in most rivers of Central Europe summer runoff and low flows have decreased. Discharge projections agree that future decrease in runoff is likely for catchments in Brandenburg, Germany. Depending on the first-order controls on low flows, different adaption measures are expected to be appropriate. Small catchments were analyzed because they are expected to be more vulnerable to a changing climate than larger rivers. They are mainly headwater catchments with smaller ground water storage. Local characteristics are more important at this scale and can increase vulnerability. This thesis mutually evaluates potential adaption measures to sustain minimum runoff in small catchments of Brandenburg, Germany, and similarities of these catchments regarding low flows. The following guiding questions are addressed: (i) Which first-order controls on low flows and related time scales exist? (ii) Which are the differences between small catchments regarding low flow vulnerability? (iii) Which adaption measures to sustain minimum runoff in small catchments of Brandenburg are appropriate considering regional low flow patterns? Potential adaption measures to sustain minimum runoff during periods of low flows can be classified into three categories: (i) increase of groundwater recharge and subsequent baseflow by land use change, land management and artificial ground water recharge, (ii) increase of water storage with regulated outflow by reservoirs, lakes and wetland water management and (iii) regional low flow patterns have to be considered during planning of measures with multiple purposes (urban water management, waste water recycling and inter-basin water transfer). The question remained whether water management of areas with shallow groundwater tables can efficiently sustain minimum runoff. Exemplary, water management scenarios of a ditch irrigated area were evaluated using the model Hydrus-2D. Increasing antecedent water levels and stopping ditch irrigation during periods of low flows increased fluxes from the pasture to the stream, but storage was depleted faster during the summer months due to higher evapotranspiration. Fluxes from this approx. 1 km long pasture with an area of approx. 13 ha ranged from 0.3 to 0.7 l\s depending on scenario. This demonstrates that numerous of such small decentralized measures are necessary to sustain minimum runoff in meso-scale catchments. Differences in the low flow risk of catchments and meteorological low flow predictors were analyzed. A principal component analysis was applied on daily discharge of 37 catchments between 1991 and 2006. Flows decreased more in Southeast Brandenburg according to meteorological forcing. Low flow risk was highest in a region east of Berlin because of intersection of a more continental climate and the specific geohydrology. In these catchments, flows decreased faster during summer and the low flow period was prolonged. A non-linear support vector machine regression was applied to iteratively select meteorological predictors for annual 30-day minimum runoff in 16 catchments between 1965 and 2006. The potential evapotranspiration sum of the previous 48 months was the most important predictor (r²=0.28). The potential evapotranspiration of the previous 3 months and the precipitation of the previous 3 months and last year increased model performance (r²=0.49, including all four predictors). Model performance was higher for catchments with low yield and more damped runoff. In catchments with high low flow risk, explanatory power of long term potential evapotranspiration was high. Catchments with a high low flow risk as well as catchments with a considerable decrease in flows in southeast Brandenburg have the highest demand for adaption. Measures increasing groundwater recharge are to be preferred. Catchments with high low flow risk showed relatively deep and decreasing groundwater heads allowing increased groundwater recharge at recharge areas with higher altitude away from the streams. Low flows are expected to stay low or decrease even further because long term potential evapotranspiration was the most important low flow predictor and is projected to increase during climate change. Differences in low flow risk and runoff dynamics between catchments have to be considered for management and planning of measures which do not only have the task to sustain minimum runoff.
The course timetabling problem can be generally defined as the task of assigning a number of lectures to a limited set of timeslots and rooms, subject to a given set of hard and soft constraints. The modeling language for course timetabling is required to be expressive enough to specify a wide variety of soft constraints and objective functions. Furthermore, the resulting encoding is required to be extensible for capturing new constraints and for switching them between hard and soft, and to be flexible enough to deal with different formulations. In this paper, we propose to make effective use of ASP as a modeling language for course timetabling. We show that our ASP-based approach can naturally satisfy the above requirements, through an ASP encoding of the curriculum-based course timetabling problem proposed in the third track of the second international timetabling competition (ITC-2007). Our encoding is compact and human-readable, since each constraint is individually expressed by either one or two rules. Each hard constraint is expressed by using integrity constraints and aggregates of ASP. Each soft constraint S is expressed by rules in which the head is the form of penalty (S, V, C), and a violation V and its penalty cost C are detected and calculated respectively in the body. We carried out experiments on four different benchmark sets with five different formulations. We succeeded either in improving the bounds or producing the same bounds for many combinations of problem instances and formulations, compared with the previous best known bounds.
Even though quite different in occurrence and consequences, from a modeling perspective many natural hazards share similar properties and challenges. Their complex nature as well as lacking knowledge about their driving forces and potential effects make their analysis demanding: uncertainty about the modeling framework, inaccurate or incomplete event observations and the intrinsic randomness of the natural phenomenon add up to different interacting layers of uncertainty, which require a careful handling. Nevertheless deterministic approaches are still widely used in natural hazard assessments, holding the risk of underestimating the hazard with disastrous effects. The all-round probabilistic framework of Bayesian networks constitutes an attractive alternative. In contrast to deterministic proceedings, it treats response variables as well as explanatory variables as random variables making no difference between input and output variables. Using a graphical representation Bayesian networks encode the dependency relations between the variables in a directed acyclic graph: variables are represented as nodes and (in-)dependencies between variables as (missing) edges between the nodes. The joint distribution of all variables can thus be described by decomposing it, according to the depicted independences, into a product of local conditional probability distributions, which are defined by the parameters of the Bayesian network. In the framework of this thesis the Bayesian network approach is applied to different natural hazard domains (i.e. seismic hazard, flood damage and landslide assessments). Learning the network structure and parameters from data, Bayesian networks reveal relevant dependency relations between the included variables and help to gain knowledge about the underlying processes. The problem of Bayesian network learning is cast in a Bayesian framework, considering the network structure and parameters as random variables itself and searching for the most likely combination of both, which corresponds to the maximum a posteriori (MAP score) of their joint distribution given the observed data. Although well studied in theory the learning of Bayesian networks based on real-world data is usually not straight forward and requires an adoption of existing algorithms. Typically arising problems are the handling of continuous variables, incomplete observations and the interaction of both. Working with continuous distributions requires assumptions about the allowed families of distributions. To "let the data speak" and avoid wrong assumptions, continuous variables are instead discretized here, thus allowing for a completely data-driven and distribution-free learning. An extension of the MAP score, considering the discretization as random variable as well, is developed for an automatic multivariate discretization, that takes interactions between the variables into account. The discretization process is nested into the network learning and requires several iterations. Having to face incomplete observations on top, this may pose a computational burden. Iterative proceedings for missing value estimation become quickly infeasible. A more efficient albeit approximate method is used instead, estimating the missing values based only on the observations of variables directly interacting with the missing variable. Moreover natural hazard assessments often have a primary interest in a certain target variable. The discretization learned for this variable does not always have the required resolution for a good prediction performance. Finer resolutions for (conditional) continuous distributions are achieved with continuous approximations subsequent to the Bayesian network learning, using kernel density estimations or mixtures of truncated exponential functions. All our proceedings are completely data-driven. We thus avoid assumptions that require expert knowledge and instead provide domain independent solutions, that are applicable not only in other natural hazard assessments, but in a variety of domains struggling with uncertainties.
Systems of Systems (SoS) have received a lot of attention recently. In this thesis we will focus on SoS that are built atop the techniques of Service-Oriented Architectures and thus combine the benefits and challenges of both paradigms. For this thesis we will understand SoS as ensembles of single autonomous systems that are integrated to a larger system, the SoS. The interesting fact about these systems is that the previously isolated systems are still maintained, improved and developed on their own. Structural dynamics is an issue in SoS, as at every point in time systems can join and leave the ensemble. This and the fact that the cooperation among the constituent systems is not necessarily observable means that we will consider these systems as open systems. Of course, the system has a clear boundary at each point in time, but this can only be identified by halting the complete SoS. However, halting a system of that size is practically impossible. Often SoS are combinations of software systems and physical systems. Hence a failure in the software system can have a serious physical impact what makes an SoS of this kind easily a safety-critical system. The contribution of this thesis is a modelling approach that extends OMG's SoaML and basically relies on collaborations and roles as an abstraction layer above the components. This will allow us to describe SoS at an architectural level. We will also give a formal semantics for our modelling approach which employs hybrid graph-transformation systems. The modelling approach is accompanied by a modular verification scheme that will be able to cope with the complexity constraints implied by the SoS' structural dynamics and size. Building such autonomous systems as SoS without evolution at the architectural level --- i. e. adding and removing of components and services --- is inadequate. Therefore our approach directly supports the modelling and verification of evolution.
Die automatisierte Objektidentifikation stellt ein modernes Werkzeug in den Geoinformationswissenschaften dar (BLASCHKE et al., 2012). Um bei thematischen Kartierungen untereinander vergleichbare Ergebnisse zu erzielen, sollen aus Sicht der Geoinformatik Mittel für die Objektidentifikation eingesetzt werden. Anstelle von Feldarbeit werden deshalb in der vorliegenden Arbeit multispektrale Fernerkundungsdaten als Primärdaten verwendet. Konkrete natürliche Objekte werden GIS-gestützt und automatisiert über große Flächen und Objektdichten aus Primärdaten identifiziert und charakterisiert. Im Rahmen der vorliegenden Arbeit wird eine automatisierte Prozesskette zur Objektidentifikation konzipiert. Es werden neue Ansätze und Konzepte der objektbasierten Identifikation von natürlichen isolierten terrestrischen Oberflächenformen entwickelt und implementiert. Die Prozesskette basiert auf einem Konzept, das auf einem generischen Ansatz für automatisierte Objektidentifikation aufgebaut ist. Die Prozesskette kann anhand charakteristischer quantitativer Parameter angepasst und so umgesetzt werden, womit das Konzept der Objektidentifikation modular und skalierbar wird. Die modulbasierte Architektur ermöglicht den Einsatz sowohl einzelner Module als auch ihrer Kombination und möglicher Erweiterungen. Die eingesetzte Methodik der Objektidentifikation und die daran anschließende Charakteristik der (geo)morphometrischen und morphologischen Parameter wird durch statistische Verfahren gestützt. Diese ermöglichen die Vergleichbarkeit von Objektparametern aus unterschiedlichen Stichproben. Mit Hilfe der Regressionsund Varianzanalyse werden Verhältnisse zwischen Objektparametern untersucht. Es werden funktionale Abhängigkeiten der Parameter analysiert, um die Objekte qualitativ zu beschreiben. Damit ist es möglich, automatisiert berechnete Maße und Indizes der Objekte als quantitative Daten und Informationen zu erfassen und unterschiedliche Stichproben anzuwenden. Im Rahmen dieser Arbeit bilden Thermokarstseen die Grundlage für die Entwicklungen und als Beispiel sowie Datengrundlage für den Aufbau des Algorithmus und die Analyse. Die Geovisualisierung der multivariaten natürlichen Objekte wird für die Entwicklung eines besseren Verständnisses der räumlichen Relationen der Objekte eingesetzt. Kern der Geovisualisierung ist das Verknüpfen von Visualisierungsmethoden mit kartenähnlichen Darstellungen.
We consider an SDE driven by a Lévy noise on a foliated manifold, whose trajectories stay on compact leaves. We determine the effective behavior of the system subject to a small smooth transversal perturbation of positive order epsilon. More precisely, we show that the average of the transversal component of the SDE converges to the solution of a deterministic ODE, according to the average of the perturbing vector field with respect to the invariant measures on the leaves (of the unpertubed system) as epsilon goes to 0. In particular we give upper bounds for the rates of convergence. The main results which are proved for pure jump Lévy processes complement the result by Gargate and Ruffino for Stratonovich SDEs to Lévy driven SDEs of Marcus type.
Constraints allow developers to specify desired properties of systems in a number of domains, and have those properties be maintained automatically. This results in compact, declarative code, avoiding scattered code to check and imperatively re-satisfy invariants. Despite these advantages, constraint programming is not yet widespread, with standard imperative programming still the norm. There is a long history of research on integrating constraint programming with the imperative paradigm. However, this integration typically does not unify the constructs for encapsulation and abstraction from both paradigms. This impedes re-use of modules, as client code written in one paradigm can only use modules written to support that paradigm. Modules require redundant definitions if they are to be used in both paradigms. We present a language – Babelsberg – that unifies the constructs for en- capsulation and abstraction by using only object-oriented method definitions for both declarative and imperative code. Our prototype – Babelsberg/R – is an extension to Ruby, and continues to support Ruby’s object-oriented se- mantics. It allows programmers to add constraints to existing Ruby programs in incremental steps by placing them on the results of normal object-oriented message sends. It is implemented by modifying a state-of-the-art Ruby virtual machine. The performance of standard object-oriented code without con- straints is only modestly impacted, with typically less than 10% overhead compared with the unmodified virtual machine. Furthermore, our architec- ture for adding multiple constraint solvers allows Babelsberg to deal with constraints in a variety of domains. We argue that our approach provides a useful step toward making con- straint solving a generic tool for object-oriented programmers. We also provide example applications, written in our Ruby-based implementation, which use constraints in a variety of application domains, including interactive graphics, circuit simulations, data streaming with both hard and soft constraints on performance, and configuration file Management.
Antarctic glacier forfields are extreme environments and pioneer sites for ecological succession. The Antarctic continent shows microbial community development as a natural laboratory because of its special environment, geographic isolation and little anthropogenic influence. Increasing temperatures due to global warming lead to enhanced deglaciation processes in cold-affected habitats and new terrain is becoming exposed to soil formation and accessible for microbial colonisation. This study aims to understand the structure and development of glacier forefield bacterial communities, especially how soil parameters impact the microorganisms and how those are adapted to the extreme conditions of the habitat. To this effect, a combination of cultivation experiments, molecular, geophysical and geochemical analysis was applied to examine two glacier forfields of the Larsemann Hills, East Antarctica. Culture-independent molecular tools such as terminal restriction length polymorphism (T-RFLP), clone libraries and quantitative real-time PCR (qPCR) were used to determine bacterial diversity and distribution. Cultivation of yet unknown species was carried out to get insights in the physiology and adaptation of the microorganisms. Adaptation strategies of the microorganisms were studied by determining changes of the cell membrane phospholipid fatty acid (PLFA) inventory of an isolated bacterium in response to temperature and pH fluctuations and by measuring enzyme activity at low temperature in environmental soil samples. The two studied glacier forefields are extreme habitats characterised by low temperatures, low water availability and small oligotrophic nutrient pools and represent sites of different bacterial succession in relation to soil parameters. The investigated sites showed microbial succession at an early step of soil formation near the ice tongue in comparison to closely located but rather older and more developed soil from the forefield. At the early step the succession is influenced by a deglaciation-dependent areal shift of soil parameters followed by a variable and prevalently depth-related distribution of the soil parameters that is driven by the extreme Antarctic conditions. The dominant taxa in the glacier forefields are Actinobacteria, Acidobacteria, Proteobacteria, Bacteroidetes, Cyanobacteria and Chloroflexi. The connection of soil characteristics with bacterial community structure showed that soil parameter and soil formation along the glacier forefield influence the distribution of certain phyla. In the early step of succession the relative undifferentiated bacterial diversity reflects the undifferentiated soil development and has a high potential to shift according to past and present environmental conditions. With progressing development environmental constraints such as water or carbon limitation have a greater influence. Adapting the culturing conditions to the cold and oligotrophic environment, the number of culturable heterotrophic bacteria reached up to 108 colony forming units per gram soil and 148 isolates were obtained. Two new psychrotolerant bacteria, Herbaspirillum psychrotolerans PB1T and Chryseobacterium frigidisoli PB4T, were characterised in detail and described as novel species in the family of Oxalobacteraceae and Flavobacteriaceae, respectively. The isolates are able to grow at low temperatures tolerating temperature fluctuations and they are not specialised to a certain substrate, therefore they are well-adapted to the cold and oligotrophic environment. The adaptation strategies of the microorganisms were analysed in environmental samples and cultures focussing on extracellular enzyme activity at low temperature and PLFA analyses. Extracellular phosphatases (pH 11 and pH 6.5), β-glucosidase, invertase and urease activity were detected in the glacier forefield soils at low temperature (14°C) catalysing the conversion of various compounds providing necessary substrates and may further play a role in the soil formation and total carbon turnover of the habitat. The PLFA analysis of the newly isolated species C. frigidisoli showed that the cold-adapted strain develops different strategies to maintain the cell membrane function under changing environmental conditions by altering the PLFA inventory at different temperatures and pH values. A newly discovered fatty acid, which was not found in any other microorganism so far, significantly increased at decreasing temperature and low pH and thus plays an important role in the adaption of C. frigidisoli. This work gives insights into the diversity, distribution and adaptation mechanisms of microbial communities in oligotrophic cold-affected soils and shows that Antarctic glacier forefields are suitable model systems to study bacterial colonisation in connection to soil formation.
In the presence of a solid-liquid or liquid-air interface, bacteria can choose between a planktonic and a sessile lifestyle. Depending on environmental conditions, cells swimming in close proximity to the interface can irreversibly attach to the surface and grow into three-dimensional aggregates where the majority of cells is sessile and embedded in an extracellular polymer matrix (biofilm). We used microfluidic tools and time lapse microscopy to perform experiments with the polarly flagellated soil bacterium Pseudomonas putida (P. putida), a bacterial species that is able to form biofilms. We analyzed individual trajectories of swimming cells, both in the bulk fluid and in close proximity to a glass-liquid interface. Additionally, surface related growth during the early phase of biofilm formation was investigated. In the bulk fluid, P.putida shows a typical bacterial swimming pattern of alternating periods of persistent displacement along a line (runs) and fast reorientation events (turns) and cells swim with an average speed around 24 micrometer per second. We found that the distribution of turning angles is bimodal with a dominating peak around 180 degrees. In approximately six out of ten turning events, the cell reverses its swimming direction. In addition, our analysis revealed that upon a reversal, the cell systematically changes its swimming speed by a factor of two on average. Based on the experimentally observed values of mean runtime and rotational diffusion, we presented a model to describe the spreading of a population of cells by a run-reverse random walker with alternating speeds. We successfully recover the mean square displacement and, by an extended version of the model, also the negative dip in the directional autocorrelation function as observed in the experiments. The analytical solution of the model demonstrates that alternating speeds enhance a cells ability to explore its environment as compared to a bacterium moving at a constant intermediate speed. As compared to the bulk fluid, for cells swimming near a solid boundary we observed an increase in swimming speed at distances below d= 5 micrometer and an increase in average angular velocity at distances below d= 4 micrometer. While the average speed was maximal with an increase around 15% at a distance of d= 3 micrometer, the angular velocity was highest in closest proximity to the boundary at d=1 micrometer with an increase around 90% as compared to the bulk fluid. To investigate the swimming behavior in a confinement between two solid boundaries, we developed an experimental setup to acquire three-dimensional trajectories using a piezo driven objective mount coupled to a high speed camera. Results on speed and angular velocity were consistent with motility statistics in the presence of a single boundary. Additionally, an analysis of the probability density revealed that a majority of cells accumulated near the upper and lower boundaries of the microchannel. The increase in angular velocity is consistent with previous studies, where bacteria near a solid boundary were shown to swim on circular trajectories, an effect which can be attributed to a wall induced torque. The increase in speed at a distance of several times the size of the cell body, however, cannot be explained by existing theories which either consider the drag increase on cell body and flagellum near a boundary (resistive force theory) or model the swimming microorganism by a multipole expansion to account for the flow field interaction between cell and boundary. An accumulation of swimming bacteria near solid boundaries has been observed in similar experiments. Our results confirm that collisions with the surface play an important role and hydrodynamic interactions alone cannot explain the steady-state accumulation of cells near the channel walls. Furthermore, we monitored the number growth of cells in the microchannel under medium rich conditions. We observed that, after a lag time, initially isolated cells at the surface started to grow by division into colonies of increasing size, while coexisting with a comparable smaller number of swimming cells. After 5:50 hours, we observed a sudden jump in the number of swimming cells, which was accompanied by a breakup of bigger clusters on the surface. After approximately 30 minutes where planktonic cells dominated in the microchannel, individual swimming cells reattached to the surface. We interpret this process as an emigration and recolonization event. A number of complementary experiments were performed to investigate the influence of collective effects or a depletion of the growth medium on the transition. Similar to earlier observations on another bacterium from the same family we found that the release of cells to the swimming phase is most likely the result of an individual adaption process, where syntheses of proteins for flagellar motility are upregulated after a number of division cycles at the surface.
Die Automatisierung von Geschäftsprozessen unterstützt Unternehmen, die Ausführung ihrer Prozesse effizienter zu gestalten. In existierenden Business Process Management Systemen, werden die Instanzen eines Prozesses völlig unabhängig voneinander ausgeführt. Jedoch kann das Synchronisieren von Instanzen mit ähnlichen Charakteristiken wie z.B. den gleichen Daten zu reduzierten Ausführungskosten führen. Zum Beispiel, wenn ein Onlinehändler zwei Bestellungen vom selben Kunden mit der gleichen Lieferanschrift erhält, können diese zusammen verpackt und versendet werden, um Versandkosten zu sparen. In diesem Papier verwenden wir Konzepte aus dem Datenbankbereich und führen Datensichten für Geschäftsprozesse ein, um Instanzen zu identifizieren, welche synchronisiert werden können. Auf Grundlage der Datensichten führen wir das Konzept der Batch-Regionen ein. Eine Batch-Region ermöglicht eine kontext-bewusste Instanzen-Synchronisierung über mehrere verbundene Aktivitäten. Das eingeführte Konzept wird mit einer Fallstudie evaluiert, bei der ein Kostenvergleich zwischen der normalen Prozessausführung und der Batchverarbeitung durchgeführt wird.
Was veranlasste die an „Belcantare Brandenburg“ beteiligten Bildungsinstitutionen, dieses Projekt zu verwirklichen? Sind ländliche und städtische Singprojekte gleichermaßen zu planen? Wie wirksam war und ist „Belcantare Brandenburg“? Diesen u. a. Fragen widmet sich die repräsentative Dokumentation, die im Rahmen der wissenschaftlichen Begleitung des Projektes durch den Lehrstuhl Musikpädagogik und Musikdidaktik der Universität Potsdam entstanden ist. Vorderstes Anliegen war es hierbei, die erarbeiteten Fragestellungen aus unterschiedlichen Forschungsperspektiven zu beantworten. An dieser Forschungsarbeit wirkten Studierende mit und reflektierten in ihren wissenschaftlichen Qualifikationsarbeiten im Projekt erschlossene theoretische und praktische Erfahrungen zum Singen in der Grundschule. „Belcantare Brandenburg“ ist ein Singprojekt zur Fortbildung für Grundschullehrerinnen und Grundschullehrer, das mit freundlicher Unterstützung der Ostdeutschen Sparkassenstiftung und der Sparkasse Uckermark über einen Zeitraum von zwei Jahren die Qualität der Singarbeit von Lehrkräften aus der Uckermark zielgerichtet weiterentwickelte.
Die Arbeit leistet einen Beitrag zum Transformationsprozess von der schulischen beruflichen Bildung der DDR hin zu den Oberstufenzentren im Land Brandenburg in den 1990er Jahren. Es wird die Triade der Faktoren Institutionentransfer, Personen- und Knowhow-Transfer und Finanztransfer analysiert. Die vollständige Umstrukturierung ist das berufsschulpädagogisch herausragende Ergebnis der Transformation. Es wird herausgearbeitet welche Folgerungen aus dem Transformationsprozess für berufsschulpolitische Reformprozesse zu ziehen sind. Dabei wird der Frage nachgegangen, ob die Übernahme des bundesrepublikanischen beruflichen Schulsystems zwangsläufig der Nutzung einer Blaupause gleichkam oder ob es auch abweichende Wege gegeben hat bzw. generell hätte geben können. Der Transformationsprozess wird nicht auf der Ebene der Einzelschulen, der curricularen und konkreten Ausgestaltung der verschiedenen Bildungsgänge und des Lehrkräfteeinsatzes untersucht, sondern auf der Ebene der Entwicklung der Rahmenbedingungen und der Strukturen der Oberstufenzentren, also auf der Metaebene der Policy als inhaltlicher Dimension von Politik. Damit liegt der Fokus auf dem System „Oberstufenzentrum“. Die Untersuchung dieses Systems klammert die Untersuchung der Handelnden aus: Die untere Schulaufsicht, die OSZ-Leitungen, die Lehrkräfte und nicht zuletzt die Schülerinnen und Schüler. Die Analyse dient dem Verständnis und der Interpretation dessen, was sich sowohl durch die bundesstaatlichen Vorgaben – Einigungsvertrag u.a. – als auch durch das berufsbildungs- und berufsschulpolitische Handeln beteiligter Akteure herausbilden konnte. Die inhaltliche Dimension des berufsbildungs- und berufsschulpolitischen Feldes innerhalb des politisch-administrativen Systems im engeren Sinn wird überwiegend bezogen auf die KMK untersucht; ebenso die externen Akteure und ihre Rolle. Es wird herausgearbeitet welche Folgerungen aus dem Transformationsprozess für berufsbildungs- und berufsschulpolitische Reformprozesse gezogen werden können. Gegenstand der Untersuchung sind ausgewählte Beiträge zu verschiedenen Aspekten der Entwicklung der Oberstufenzentren im Land Brandenburg. Gegenstand sind deshalb ausgewählte Rechtsgrundlagen, Fachaufsätze etc. sowie durch Arbeitspapiere dokumentierte Aspekte der berufsschul- und berufsbildungspolitischen Diskussion in der Wendezeit und nachfolgenden nach der Gründung des Landes Brandenburg. Anhand von Vergleichen der rechtlichen Ausgangslagen in den fünf ostdeutschen Ländern wird analysiert, ob es verfassungs- respektive schulrechtliche Besonderheiten gab, die zu unterschiedlichem ministeriellen Handeln führten bzw. führen mussten. Die wiedergegebenen Beiträge zur Entwicklung der Oberstufenzentren werden bezüglich der Relevanz von KMK-Beschlüssen bzw. -Rahmenvereinbarungen untersucht und kommentiert. Der Institutionentransfer besteht aus dem Beitritt der ostdeutschen Länder zur Geschäftsordnung der KMK, der daraus resultierenden Übernahme der Schulformen und Bildungsgänge einschließlich der rechtlichen Folgen durch Schaffung des Schulrechts in den Ländern. Der Personen- und Knowhow-Transfer fand auf der Ebene der entsandten Verwaltungsmitarbeiterinnen und -mitarbeiter der Kultusministerien und der Mittelbehörden statt. Für den Transformationsprozess während des hier interessierenden Untersuchungszeitraums werden Berufsschul- und berufsbildungspolitische Aspekte, bzw. im umfassenderen Sinne die der Berufsbildungswissenschaft erstmalig mit der vorliegenden Untersuchung reflektiert. Insofern kann diese als Beitrag zur historisch-berufsbildungswissenschaftlichen Forschung betrachtet werden.
Der vorliegende 3. Band der „Schriften zum deutschen und russischen Strafrecht“ enthält die Vorträge, die an dem „Internationalen rechtsvergleichenden Runden Tisch zu aktuellen Themen des deutschen und russischen Strafrechts“, der am 18. Dezember 2012 an der Juristischen Fakultät der Universität Potsdam stattgefunden hat, gehalten wurden. Die Beiträge der Wissenschaftler und Praktiker aus Russland und Deutschland decken ein breites Spektrum an Themen ab, die in beiden Ländern von Interesse sind. In den Band aufgenommen wurden zudem der Festvortrag von Prof. Dr. Rarog zum Tag der Juristischen Fakultät der Universität Potsdam am 20. Juni 2012, ein Beitrag von Prof. Dr. Matskevich sowie ein weiterer Aufsatz von Prof. Dr. Rarog und Dr. Nagaeva. Die Publikation der Beiträge in deutscher und russischer Sprache ermöglicht den Lesern in beiden Ländern die Lektüre in der jeweiligen Muttersprache.
Der Einfluss von Bildung gewinnt gesellschaftlich und politisch an Bedeutung. Auch im wissenschaftlichen Bereich zeigt sich dies über eine vielseitige Diskussion zum Einfluss von Bildung auf das Einkommen. In dieser Arbeit werden nationale und regionale Disparitäten in der monetären Wertschätzung von allgemeinem Humankapital aufgedeckt und diskutiert. Dafür werden verschiedene Verfahren diskutiert und basierend darauf Intervalle für die mittleren Bildungsrenditen bestimmt. Im ersten Abschnitt wird die Thematik theoretisch über zwei verschiedene Modellansätze fundiert und kritisch diskutiert. Anschließend folgt die Darstellung des aktuellen empirischen Forschungsbestands. Der Hauptteil der Arbeit beginnt mit der Darstellung des verwendeten Datensatzes und seiner kritischen Repräsentativitätsprüfung. Eine nähere Variablenbeschreibung mit deskriptiver Analyse dient zur Erklärung der verwendeten Größen. Darauffolgend werden bestehende Verfahren zur Schätzung von Bildungsrenditen diskutiert. Unter ausschließlicher Berücksichtigung der Erwerbstätigen zeigt das 3SLS-Verfahren die besten Eigenschaften. Bezieht man jedoch alle Erwerbspersonen in die Analyse mit ein, so erweist sich das Heckman-Verfahren als sehr geeignet. Die Analyse - zunächst auf nationaler Ebene - bestätigt weitestgehend die bestehenden Erkenntnisse der Literatur. Eine Separierung des Datensatzes auf verschiedene Alterscluster, Voll- und Teilerwerbstätige sowie Erwerbstätige in der Privatwirtschaft und im öffentlichen Dienst zeigen keine signifikanten Unterschiede in der Höhe der gezahlten durchschnittlichen Bildungsrenditen. Anders verhält es sich bei der regionalen Analyse. Zunächst werden Ost- und Westdeutschland separat betrachtet. Für diese erste Analyse lassen sich über 95 %-Konfidenzintervalle deutliche Unterschiede in der Höhe der Bildungsrenditen ermitteln. Aufbauend auf diese Ergebnisse wird die Analyse vertieft. Eine Separierung auf Bundesländerebene und ein weiterer Vergleich der Konfidenzintervalle folgen. Zur besseren statistischen Vergleichbarkeit der Ergebnisse wird neben dem 3SLS-Verfahren, angewendet auf die separierten Datensätze, auch ein Modell ohne die Notwendigkeit der Separierung gewählt. Hierbei ist die Variation der Regionen über Interaktionsterme berücksichtigt. Dieses Regressionsmodell wird auf das OLS- und das Heckman-Verfahren angewendet. Der Vorteil hierbei ist, dass die Koeffizienten auf Gleichheit getestet werden können. Dabei kristallisieren sich deutlich unterschiedliche Bildungsrenditen für Mecklenburg-Vorpommern, aber auch für Sachsen-Anhalt und Thüringen im Vergleich zu den restlichen Bundesländern Deutschlands heraus. Diese Länder zeichnen sich durch eine besonders hohe jährliche Verzinsung von allgemeinem Humankapital aus. Es folgt eine Diskussion über mögliche Ursachen für die regional verschiedenen Bildungsrenditen. Dabei zeigt sich, dass in den Bundesländern mit hoher Rendite das mittlere Einkommensniveau und auch das durchschnittliche Preisniveau tendenziell geringer sind. Weiterhin wird deutlich, dass bei höheren relativen Abweichungen der durchschnittlichen Einkommen höhere Renditen zu verzeichnen sind. Auch die Wanderungsbewegungen je nach Qualifikation unterscheiden sich. Unter zusätzlicher Berücksichtigung der Arbeitslosenquoten zeigt sich in den Ländern mit hoher Rendite eine tendenziell höhere Arbeitslosigkeit. Im zusammenfassenden Fazit der Arbeit werden abschließend die Erkenntnisse gewürdigt. Dabei ist zu bemerken, dass der Beitrag einen Start in die bundesländerweite Analyse liefert, die eine Fortführung auf beispielsweise eine mehrperiodische Betrachtung anregt.
In children the way of life, nutrition and recreation changed in recent years and as a consequence body composition shifted as well. It is established that overweight belongs to a global problem. In addition, German children exhibit a less robust skeleton than ten years ago. These developments may elevate the risk of cardiovascular diseases and skeletal modifications. Heredity and environmental factors as nutrition, socioeconomic status, physical activity and inactivity influence fat accumulation and the skeletal system. Based on these negative developments associations between type of body shape, skeletal measures and physical activity; relations between external skeletal robustness, physical activity and inactivity, BMI and body fat and also the progress of body composition especially external skeletal robustness in comparison in Russian and German children were investigated. In a cross-sectional study 691 German boys and girls aged 6 to 10 years were examined. Anthropometric measurements were taken and questionnaires about physical activity and inactivity were answered by parents. Additionally, pedometers were worn to determinate the physical activity in children. To compare the body composition in Russian and German children data from the years 2000 and 2010 were used. The study has shown that pyknomorphic individuals exhibit the highest external skeletal robustness and leptomorphic ones the lowest. Leptomorphic children may have a higher risk for bone diseases in adulthood. Pyknomorphic boys are more physically active by tendency. This is assessed as positive because pyknomorphic types display the highest BMI and body fat. Results showed that physical activity may reduce BMI and body fat. In contrast physical inactivity may lead to an increase of BMI and body fat and may rise with increasing age. Physical activity encourages additionally a robust skeleton. Furthermore external skeletal robustness is associated with BMI in order that BMI as a measure of overweight should be consider critically. The international 10-year comparison has shown an increase of BMI in Russian children and German boys. Currently, Russian children exhibit a higher external skeletal robustness than the Germans. However, in Russian boys skeleton is less robust than ten years ago. This trend should be observed in the future as well in other countries. All in all, several measures should be used to describe health situation in children and adults. Furthermore, in children it is essential to support physical activity in order to reduce the risk of obesity and to maintain a robust skeleton. In this way diseases are able to prevent in adulthood.
Im September 2009 fand der 5. Potsdamer Lateintag statt. Er war Bestandteil des auf drei Jahre angelegten Brandenburger Antike-Denkwerks (BrAnD), das von der Robert Bosch Stiftung gefördert wurde. Thema war dieses Mal: Macht und Ohnmacht der Worte – Gesellschaft und Rhetorik. Aus der Antike stammen nicht nur die heute noch benutzten Rhetoriktheorien und -anweisungen. Auch das reziproke Verhältnis von Gesellschaft und Rhetorik wurde hier vorgelebt und vorgedacht. Es sollte mit antiken Rhetoriklehren vertraut gemacht werden, antike Reden auf deren Umsetzung und auf ihre Wirkung betrachtet und die Möglichkeit einer heutigen Umsetzung überprüft werden. Der Band versammelt die Vorträge des Lateintags von Herrn Prof. Dr. P. Riemer und Herrn Prof. A. Fritsch, die Darstellung zum Ablauf des gesamten Projekts sowie eine Auswahl der Berichte zu den Schulprojekten.
Im September 2010 fand der 6. Potsdamer Lateintag statt. Er war Bestandteil des um ein Jahr erweiterten Brandenburger Antike-Denkwerks (BrAnD), das von der Robert Bosch Stiftung gefördert wurde. Thema war dieses Mal das Römische Recht. Das Römische Recht ist ein faszinierender Forschungsbereich. Es hat die europäische Rechtsentwicklung geprägt und wirkt noch heute nach. Gleichzeitig gehört es zu den Themen, die uns bei der Lektüre lateinischer Texte immer wieder begegnen, die aber Fragen aufwerfen, da man mit der speziellen Thematik oft nicht vertraut ist. Das Projekt wollte die Lücke schließen. Es sollten nicht nur literarische Texte auf ihren rechtlichen Hintergrund hin befragt, sondern auch Fragen gestellt werden, wie der römische Alltag rechtlich geregelt war. Neben der wissenschaftlichen Beschäftigung mit diesen Fragen sollte immer auch der Vergleich mit heute gezogen werden. Der Band versammelt den Vortrag am Lateintag von Frau Prof. Dr. C. Möller, Materialsammlungen u.a. zu den Themen patria potestas, lex Aquilia, Geld bzw. Kauf-Tausch-Kontroverse, die Darstellung zum Ablauf des gesamten Projekts sowie eine Auswahl der Berichte zu den Schulprojekten.
Brandenburger Antike-Denkwerk : o tempora, o mores ; Relevanz und Relativierung von Wertbegriffen
(2013)
Im September 2008 fand der 4. Potsdamer Lateintag statt. Er war Bestandteil des auf drei Jahre angelegten Brandenburger Antike-Denkwerks (BrAnD), das von der Robert Bosch Stiftung gefördert wurde. Der Band versammelt die Vorträge des Lateintags von Frau Prof. Dr. Chr. Kunst und Herrn Prof. Dr. M. Janka sowie eine Auswahl der Berichte zu den Schulprojekten.
In various biological systems and small scale technological applications particles transiently bind to a cylindrical surface. Upon unbinding the particles diffuse in the vicinal bulk before rebinding to the surface. Such bulk-mediated excursions give rise to an effective surface translation, for which we here derive and discuss the dynamic equations, including additional surface diffusion. We discuss the time evolution of the number of surface-bound particles, the effective surface mean squared displacement, and the surface propagator. In particular, we observe sub- and superdiffusive regimes. A plateau of the surface mean-squared displacement reflects a stalling of the surface diffusion at longer times. Finally, the corresponding first passage problem for the cylindrical geometry is analysed.
Business processes are instrumental to manage work in organisations. To study the interdependencies between business processes, Business Process Architectures have been introduced. These express trigger and message ow relations between business processes. When we investigate real world Business Process Architectures, we find complex interdependencies, involving multiple process instances. These aspects have not been studied in detail so far, especially concerning correctness properties. In this paper, we propose a modular transformation of BPAs to open nets for the analysis of behavior involving multiple business processes with multiplicities. For this purpose we introduce intermediary nets to portray semantics of multiplicity specifications. We evaluate our approach on a use case from the public sector.
Cost models are an essential part of database systems, as they are the basis of query performance optimization. Based on predictions made by cost models, the fastest query execution plan can be chosen and executed or algorithms can be tuned and optimised. In-memory databases shifts the focus from disk to main memory accesses and CPU costs, compared to disk based systems where input and output costs dominate the overall costs and other processing costs are often neglected. However, modelling memory accesses is fundamentally different and common models do not apply anymore. This work presents a detailed parameter evaluation for the plan operators scan with equality selection, scan with range selection, positional lookup and insert in in-memory column stores. Based on this evaluation, a cost model based on cache misses for estimating the runtime of the considered plan operators using different data structures is developed. Considered are uncompressed columns, bit compressed and dictionary encoded columns with sorted and unsorted dictionaries. Furthermore, tree indices on the columns and dictionaries are discussed. Finally, partitioned columns consisting of one partition with a sorted and one with an unsorted dictionary are investigated. New values are inserted in the unsorted dictionary partition and moved periodically by a merge process to the sorted partition. An efficient attribute merge algorithm is described, supporting the update performance required to run enterprise applications on read-optimised databases. Further, a memory traffic based cost model for the merge process is provided.
Within a research project about future sustainable water management options in the Elbe River basin, quasi-natural discharge scenarios had to be provided. The semi-distributed eco-hydrological model SWIM was utilised for this task. According to scenario simulations driven by the stochastical climate model STAR, the region would get distinctly drier. However, this thesis focuses on the challenge of meeting the requirement of high model fidelity even for smaller sub-basins. Usually, the quality of the simulations is lower at inner points than at the outlet. Four research paper chapters and the discussion chapter deal with the reasons for local model deviations and the problem of optimal spatial calibration. Besides other assessments, the Markov Chain Monte Carlo method is applied to show whether evapotranspiration or precipitation should be corrected to minimise runoff deviations, principal component analysis is used in an unusual way to evaluate local precipitation alterations by land cover changes, and remotely sensed surface temperatures allow for an independent view on the evapotranspiration landscape. The overall insight is that spatially explicit hydrological modelling of such a large river basin requires a lot of local knowledge. It probably needs more time to obtain such knowledge as is usually provided for hydrological modelling studies.
Challenging Khmer citizenship : minorities, the state, and the international community in Cambodia
(2013)
The idea of a distinctly ‘liberal’ form of multiculturalism has emerged in the theory and practice of Western democracies and the international community has become actively engaged in its global dissemination via international norms and organizations. This thesis investigates the internationalization of minority rights, by exploring state-minority relations in Cambodia, in light of Will Kymlicka’s theory of multicultural citizenship. Based on extensive empirical research, the analysis explores the situation and aspirations of Cambodia’s ethnic Vietnamese, highland peoples, Muslim Cham, ethnic Chinese and Lao and the relationships between these groups and the state. All Cambodian regimes since independence have defined citizenship with reference to the ethnicity of the Khmer majority and have - often violently - enforced this conception through the assimilation of highland peoples and the Cham and the exclusion of ethnic Vietnamese and Chinese. Cambodia’s current constitution, too, defines citizenship ethnically. State-sponsored Khmerization systematically privileges members of the majority culture and marginalizes minority members politically, economically and socially. The thesis investigates various international initiatives aimed at promoting application of minority rights norms in Cambodia. It demonstrates that these initiatives have largely failed to accomplish a greater degree of compliance with international norms in practice. This failure can be explained by a number of factors, among them Cambodia’s neo-patrimonial political system, the geo-political fears of a ‘minoritized’ Khmer majority, the absence of effective regional security institutions, the lack of minority access to political decision-making, the significant differences between international and Cambodian conceptions of modern statehood and citizenship and the emergence of China as Cambodia’s most important bilateral donor and investor. Based on this analysis, the dissertation develops recommendations for a sequenced approach to minority rights promotion, with pragmatic, less ambitious shorter-term measures that work progressively towards achievement of international norms in the longer-term.
Die nichtproteinogene Aminosäure GABA (γ-Aminobuttersäure) gilt als der wichtigste inhibitorische Neurotransmitter im Zentralnervensystem von Vertebraten sowie Invertebraten und vermittelt ihre Wirkung u. a. über die metabotropen GABAB-Rezeptoren. Bisher sind diese Rezeptoren bei Insekten nur rudimentär untersucht. Für die Amerikanische Großschabe als etablierter Modellorganismus konnte pharmakologisch eine modulatorische Rolle der GABAB-Rezeptoren bei der Bildung von Primärspeichel nachgewiesen werden. Ziel dieser Arbeit war eine umfassende Charakterisierung der GABAB-Rezeptor-Subtypen 1 und 2 von Periplaneta americana. Unter Verwendung verschiedenster Klonierungsstrategien sowie der Kooperationsmöglichkeit mit der Arbeitsgruppe von Prof. Dr. T. Miura (Hokkaido, Japan) in Hinsicht auf eine dort etablierte P. americana EST-Datenbank gelang die Klonierung von zwei Rezeptor-cDNAs. Die Analyse der abgeleiteten Aminosäuresequenzen auf GB-spezifische Domänen und konservierte Aminosäure-Reste, sowie der Vergleich zu bekannten GB Sequenzen anderer Arten legen nahe, dass es sich bei den isolierten Sequenzen um die GABAB-Rezeptor-Subtypen 1 und 2 (PeaGB1 und PeaGB2) handelt. Für die funktionelle und pharmakologische Charakterisierung des Heteromers aus PeaGB1 und PeaGB2 wurden Expressionskonstrukte für die Transfektion in HEK-flpTM-Zellen hergestellt. Das Heteromer aus PeaGB1 und PeaGB2 hemmt bei steigenden GABA-Konzentrationen die cAMP-Produktion. Die Substanzen SKF97541 und 3-APPA konnten als Agonisten identifiziert werden. CGP55845 und CGP54626 wirken als vollwertige Antagonisten. Das in vitro ermittelte pharmakologische Profil im Vergleich zur Pharmakologie an der isolierten Drüse bestätigt, dass die GABA-Wirkung in der Speicheldrüse tatsächlich von GBs vermittelt wird. Für die immunhistochemische Charakterisierung konnte ein spezifischer polyklonaler Antikörper gegen die extrazelluläre Schleife 2 des PeaGB1 generiert werden. Ein weiterer Antikörper, welcher gegen den PeaGB2 gerichtet ist, erwies sich hingegen nicht als ausreichend spezifisch. Western-Blot-Analysen bestätigen das Vorkommen beider Subtypen im Zentralnervensystem von P. americana. Zudem wird der PeaGB1 in der Speicheldrüse und in den Geschlechtsdrüsen der Schabenmännchen exprimiert. Immunhistochemische Analysen zeigen eine PeaGB1-ähnliche Markierung in den GABAergen Fasern der Speicheldrüse auf. Demnach fungiert der PeaGB1 hier als Autorezeptor. Weiterhin konnte eine PeaGB1-ähnliche Markierung in nahezu allen Gehirnneuropilen festgestellt werden. Auch die akzessorischen Drüsen der Männchen, Pilzdrüse und Phallusdrüse, sind PeaGB1-immunreaktiv.
When playing violent video games, aggressive actions are performed against the background of an originally neutral environment, and associations are formed between cues related to violence and contextual features. This experiment examined the hypothesis that neutral contextual features of a virtual environment become associated with aggressive meaning and acquire the function of primes for aggressive cognitions. Seventy-six participants were assigned to one of two violent video game conditions that varied in context (ship vs. city environment) or a control condition. Afterwards, they completed a Lexical Decision Task to measure the accessibility of aggressive cognitions in which they were primed either with ship-related or city-related words. As predicted, participants who had played the violent game in the ship environment had shorter reaction times for aggressive words following the ship primes than the city primes, whereas participants in the city condition responded faster to the aggressive words following the city primes compared to the ship primes. No parallel effect was observed for the non-aggressive targets. The findings indicate that the associations between violent and neutral cognitions learned during violent game play facilitate the accessibility of aggressive cognitions.
Deep into the second half of the twentieth century the traditionalist definition of India as a country of villages remained dominant in official political rhetoric as well as cultural production. In the past two decades or so, this ruralist paradigm has been effectively superseded by a metropolitan imaginary in which the modern, globalised megacity increasingly functions as representative of India as a whole. Has the village, then, entirely vanished from the cultural imaginary in contemporary India? Addressing economic practices from upper-class consumerism to working-class family support strategies, this paper attempts to trace how ‘the village’ resurfaces or survives as a cultural reference point in the midst of the urban.
Der internationale Standard CityGML ist zu einer zentralen Schnittstelle für die geometrische wie semantische Beschreibung von 3D-Stadtmodellen geworden. Das Institut für Geodäsie und Geoinformationstechnik (IGG) der Technischen Universität Berlin leistet mit ihren Entwicklung der 3D City Database und der Importer/Exporter Software einen entscheidenden Beitrag die Komplexität von CityGML-Daten in einer Geodatenbank intuitiv und effizient nutzen zu können. Die Software des IGG ist Open Source, unterstützte mit Oracle Spatial (ab Version 10g) aber bisher nur ein proprietäres Datenbank Management System (DBMS). Im Rahmen dieser Masterarbeit wurde eine Portierung auf die freie Datenbank-Software PostgreSQL/PostGIS vorgenommen und mit der Performanz der Oracle-Version verglichen. PostGIS gilt als eine der ausgereiftesten Geodatenbanken und wurde in diesem Jahr mit dem Release der Version 2.0 nochmals um zahlreiche Funktionen und Features (u.a. auch 3D-Unterstützung) erweitert. Die Ergebnisse des Vergleiches sowie die umfangreiche Gegenüberstellung aller verwendeten Konzepte (SQL, PL, Java) geben Aufschluss auf die Charakteristika beider räumlicher DBMS und ermöglichen einen Erkenntnisgewinn über die Projektgrenzen hinaus.
Die Anpassung von Sektoren an veränderte klimatische Bedingungen erfordert ein Verständnis von regionalen Vulnerabilitäten. Vulnerabilität ist als Funktion von Sensitivität und Exposition, welche potentielle Auswirkungen des Klimawandels darstellen, und der Anpassungsfähigkeit von Systemen definiert. Vulnerabilitätsstudien, die diese Komponenten quantifizieren, sind zu einem wichtigen Werkzeug in der Klimawissenschaft geworden. Allerdings besteht von der wissenschaftlichen Perspektive aus gesehen Uneinigkeit darüber, wie diese Definition in Studien umgesetzt werden soll. Ausdiesem Konflikt ergeben sich viele Herausforderungen, vor allem bezüglich der Quantifizierung und Aggregierung der einzelnen Komponenten und deren angemessenen Komplexitätsniveaus. Die vorliegende Dissertation hat daher zum Ziel die Anwendbarkeit des Vulnerabilitätskonzepts voranzubringen, indem es in eine systematische Struktur übersetzt wird. Dies beinhaltet alle Komponenten und schlägt für jede Klimaauswirkung (z.B. Sturzfluten) eine Beschreibung des vulnerablen Systems vor (z.B. Siedlungen), welches direkt mit einer bestimmten Richtung eines relevanten klimatischen Stimulus in Verbindung gebracht wird (z.B. stärkere Auswirkungen bei Zunahme der Starkregentage). Bezüglich der herausfordernden Prozedur der Aggregierung werden zwei alternative Methoden, die einen sektorübergreifenden Überblick ermöglichen, vorgestellt und deren Vor- und Nachteile diskutiert. Anschließend wird die entwickelte Struktur einer Vulnerabilitätsstudie mittels eines indikatorbasierten und deduktiven Ansatzes beispielhaft für Gemeinden in Nordrhein-Westfalen in Deutschland angewandt. Eine Übertragbarkeit auf andere Regionen ist dennoch möglich. Die Quantifizierung für die Gemeinden stützt sich dabei auf Informationen aus der Literatur. Da für viele Sektoren keine geeigneten Indikatoren vorhanden waren, werden in dieser Arbeit neue Indikatoren entwickelt und angewandt, beispielsweise für den Forst- oder Gesundheitssektor. Allerdings stellen fehlende empirische Daten bezüglich relevanter Schwellenwerte eine Lücke dar, beispielsweise welche Stärke von Klimaänderungen eine signifikante Auswirkung hervorruft. Dies führt dazu, dass die Studie nur relative Aussagen zum Grad der Vulnerabilität jeder Gemeinde im Vergleich zum Rest des Bundeslandes machen kann. Um diese Lücke zu füllen, wird für den Forstsektor beispielhaft die heutige und zukünftige Sturmwurfgefahr von Wäldern berechnet. Zu diesem Zweck werden die Eigenschaften der Wälder mit empirischen Schadensdaten eines vergangenen Sturmereignisses in Verbindung gebracht. Der sich daraus ergebende Sensitivitätswert wird anschließend mit den Windverhältnissen verknüpft. Sektorübergreifende Vulnerabilitätsstudien erfordern beträchtliche Ressourcen, was oft deren Anwendbarkeit erschwert. In einem nächsten Schritt wird daher das Potential einer Vereinfachung der Komplexität anhand zweier sektoraler Beispiele untersucht. Um das Auftreten von Waldbränden vorherzusagen, stehen zahlreiche meteorologische Indices zur Verfügung, welche eine Spannbreite unterschiedlicher Komplexitäten aufweisen. Bezüglich der Anzahl monatlicher Waldbrände weist die relative Luftfeuchtigkeit für die meisten deutschen Bundesländer eine bessere Vorhersagekraft als komplexere Indices auf. Dies ist er Fall, obgleich sie selbst als Eingangsvariable für die komplexeren Indices verwendet wird. Mit Hilfe dieses einzelnen meteorologischen Faktors kann also die Waldbrandgefahr in deutschen Region ausreichend genau ausgedrückt werden, was die Ressourceneffizienz von Studien erhöht. Die Methodenkomplexität wird auf ähnliche Weise hinsichtlich der Anwendung des ökohydrologischen Modells SWIM für die Region Brandenburg untersucht. Die interannuellen Bodenwasserwerte, welche durch dieses Modell simuliert werden, können nur unzureichend durch ein einfacheres statistisches Modell, welches auf denselben Eingangsdaten aufbaut, abgebildet werden. Innerhalb eines Zeithorizonts von Jahrzehnten, kann der statistische Ansatz jedoch das Bodenwasser zufriedenstellend abbilden und zeigt eine Dominanz der Bodeneigenschaft Feldkapazität. Dies deutet darauf hin, dass die Komplexität im Hinblick auf die Anzahl der Eingangsvariablen für langfristige Berechnungen reduziert werden kann. Allerdings sind die Aussagen durch fehlende beobachtete Bodenwasserwerte zur Validierung beschränkt. Die vorliegenden Studien zur Vulnerabilität und ihren Komponenten haben gezeigt, dass eine Anwendung noch immer wissenschaftlich herausfordernd ist. Folgt man der hier verwendeten Vulnerabilitätsdefinition, treten zahlreiche Probleme bei der Implementierung in regionalen Studien auf. Mit dieser Dissertation wurden Fortschritte bezüglich der aufgezeigten Lücken bisheriger Studien erzielt, indem eine systematische Struktur für die Beschreibung und Aggregierung von Vulnerabilitätskomponenten erarbeitet wurde. Hierfür wurden mehrere Ansätze diskutiert, die jedoch Vor- und Nachteile besitzen. Diese sollten vor der Anwendung von zukünftigen Studien daher ebenfalls sorgfältig abgewogen werden. Darüber hinaus hat sich gezeigt, dass ein Potential besteht einige Ansätze zu vereinfachen, jedoch sind hierfür weitere Untersuchungen nötig. Insgesamt konnte die Dissertation die Anwendung von Vulnerabilitätsstudien als Werkzeug zur Unterstützung von Anpassungsmaßnahmen stärken.
Black shales are sedimentary rocks with a high content of organic carbon, which leads to a dark grayish to black color. Due to their potential to contain oil or gas, black shales are of great interest for the support of the worldwide energy supply. An integrated seismic investigation of the Lower Palaeozoic black shales was carried out at the Danish island Bornholm to locate the shallow-lying Alum Shale layer and its surrounding formations and to characterize its potential as a source rock. Therefore, two seismic experiments at a total of three crossing profiles were carried out in October 2010 and in June 2012 in the southern part of the island. Two different active measurements were conducted with either a weight drop source or a minivibrator. Additionally, the ambient noise field was recorded at the study location over a time interval of about one day, and also a laboratory analysis of borehole samples was carried out. The seismic profiles were positioned as close as possible to two scientific boreholes which were used for comparative purposes. The seismic field data was analyzed with traveltime tomography, surface wave inversion and seismic interferometry to obtain the P-wave and S-wave velocity models of the subsurface. The P-wave velocity models which were determined for all three profiles clearly locate the Alum Shale layer between the Komstad Limestone layer on top and the Læså Sandstone Formation at the base of the models. The black shale layer has P-wave velocities around 3 km/s which are lower compared to the adjacent formations. Due to a very good agreement of the sonic log and the vertical velocity profiles of the two seismic lines, which are directly crossing the borehole where the sonic log was conducted, the reliability of the traveltime tomography is proven. A correlation of the seismic velocities with the content of organic carbon is an important task for the characterization of the reservoir properties of a black shale formation. It is not possible without calibration but in combination with a full 2D tomographic image of the subsurface it gives the subsurface distribution of the organic material. The S-wave model obtained with surface wave inversion of the vibroseis data of one of the profiles images the Alum Shale layer also very well with S-wave velocities around 2 km/s. Although individual 1D velocity models for each of the source positions were determined, the subsurface S-wave velocity distribution is very uniform with a good match between the single models. A really new approach described here is the application of seismic interferometry to a really small study area and a quite short time interval. Also new is the selective procedure of only using time windows with the best crosscorrelation signals to achieve the final interferograms. Due to the small scale of the interferometry even P-wave signals can be observed in the final crosscorrelations. In the laboratory measurements the seismic body waves were recorded for different pressure and temperature stages. Therefore, samples of different depths of the Alum Shale were available from one of the scientific boreholes at the study location. The measured velocities have a high variance with changing pressure or temperature. Recordings with wave propagation both parallel and perpendicular to the bedding of the samples reveal a great amount of anisotropy for the P-wave velocity, whereas the S-wave velocity is almost independent of the wave direction. The calculated velocity ratio is also highly anisotropic with very low values for the perpendicular samples and very high values for the parallel ones. Interestingly, the laboratory velocities of the perpendicular samples are comparable to the velocities of the field experiments indicating that the field measurements are sensitive to wave propagation in vertical direction. The velocity ratio is also calculated with the P-wave and S-wave velocity models of the field experiments. Again, the Alum Shale can be clearly separated from the adjacent formations because it shows overall very low vP/vS ratios around 1.4. The very low velocity ratio indicates the content of gas in the black shale formation. With the combination of all the different methods described here, a comprehensive interpretation of the seismic response of the black shale layer can be made and the hydrocarbon source rock potential can be estimated.
Continuous synthesis of pyridocarbazoles and initial photophysical and bioprobe characterization
(2013)
Pyridocarbazoles when ligated to transition metals yield high affinity kinase inhibitors. While batch photocyclizations enable the synthesis of these heterocycles, the non-oxidative Mallory reaction only provides modest yields and difficult to purify mixtures. We demonstrate here that a flow-based Mallory cyclization provides superior results and enables observation of a clear isobestic point. The flow method allowed us to rapidly synthesize ten pyridocarbazoles and for the first time to document their interesting photophysical attributes. Preliminary characterization reveals that these molecules might be a new class of fluorescent bioprobe.
African states are often called corrupt indicating that the political system in Africa differs from the one prevalent in the economically advanced democracies. This however does not give us any insight into what makes corruption the ruling norm of African statehood. Thus we must turn to the overly neglected theoretical work on the political economy of Africa in order to determine how the poverty of governance in Africa is firmly anchored both in Africa’s domestic socioeconomic reality, as well as in the region’s role in the international economic order. Instead of focusing on increased monitoring, enforcement and formal democratic procedures, this book integrates economic analysis with political theory in order to arrive at a better understanding of the political-economic roots of corruption in Sub-Saharan Africa.
This cumulative dissertation explored the use of the detection of natural background of fast neutrons, the so-called cosmic-ray neutron sensing (CRS) approach to measure field-scale soil moisture in cropped fields. Primary cosmic rays penetrate the top atmosphere and interact with atmospheric particles. Such interaction results on a cascade of high-energy neutrons, which continue traveling through the atmospheric column. Finally, neutrons penetrate the soil surface and a second cascade is produced with the so-called secondary cosmic-ray neutrons (fast neutrons). Partly, fast neutrons are absorbed by hydrogen (soil moisture). Remaining neutrons scatter back to the atmosphere, where its flux is inversely correlated to the soil moisture content, therefore allowing a non-invasive indirect measurement of soil moisture. The CRS methodology is mainly evaluated based on a field study carried out on a farmland in Potsdam (Brandenburg, Germany) along three crop seasons with corn, sunflower and winter rye; a bare soil period; and two winter periods. Also, field monitoring was carried out in the Schaefertal catchment (Harz, Germany) for long-term testing of CRS against ancillary data. In the first experimental site, the CRS method was calibrated and validated using different approaches of soil moisture measurements. In a period with corn, soil moisture measurement at the local scale was performed at near-surface only, and in subsequent periods (sunflower and winter rye) sensors were placed in three depths (5 cm, 20 cm and 40 cm). The direct transfer of CRS calibration parameters between two vegetation periods led to a large overestimation of soil moisture by the CRS. Part of this soil moisture overestimation was attributed to an underestimation of the CRS observation depth during the corn period ( 5-10 cm), which was later recalculated to values between 20-40 cm in other crop periods (sunflower and winter rye). According to results from these monitoring periods with different crops, vegetation played an important role on the CRS measurements. Water contained also in crop biomass, above and below ground, produces important neutron moderation. This effect was accounted for by a simple model for neutron corrections due to vegetation. It followed crop development and reduced overall CRS soil moisture error for periods of sunflower and winter rye. In Potsdam farmland also inversely-estimated soil hydraulic parameters were determined at the field scale, using CRS soil moisture from the sunflower period. A modelling framework coupling HYDRUS-1D and PEST was applied. Subsequently, field-scale soil hydraulic properties were compared against local scale soil properties (modelling and measurements). Successful results were obtained here, despite large difference in support volume. Simple modelling framework emphasizes future research directions with CRS soil moisture to parameterize field scale models. In Schaefertal catchment, CRS measurements were verified using precipitation and evapotranspiration data. At the monthly resolution, CRS soil water storage was well correlated to these two weather variables. Also clearly, water balance could not be closed due to missing information from other compartments such as groundwater, catchment discharge, etc. In the catchment, the snow influence to natural neutrons was also evaluated. As also observed in Potsdam farmland, CRS signal was strongly influenced by snow fall and snow accumulation. A simple strategy to measure snow was presented for Schaefertal case. Concluding remarks of this dissertation showed that (a) the cosmic-ray neutron sensing (CRS) has a strong potential to provide feasible measurement of mean soil moisture at the field scale in cropped fields; (b) CRS soil moisture is strongly influenced by other environmental water pools such as vegetation and snow, therefore these should be considered in analysis; (c) CRS water storage can be used for soil hydrology modelling for determination of soil hydraulic parameters; and (d) CRS approach has strong potential for long term monitoring of soil moisture and for addressing studies of water balance.
Background: Recent studies have demonstrated a superior diagnostic accuracy of cardiovascular magnetic resonance (CMR) for the detection of coronary artery disease (CAD). We aimed to determine the comparative cost-effectiveness of CMR versus single-photon emission computed tomography (SPECT).
Methods: Based on Bayes' theorem, a mathematical model was developed to compare the cost-effectiveness and utility of CMR with SPECT in patients with suspected CAD. Invasive coronary angiography served as the standard of reference. Effectiveness was defined as the accurate detection of CAD, and utility as the number of quality-adjusted life-years (QALYs) gained. Model input parameters were derived from the literature, and the cost analysis was conducted from a German health care payer's perspective. Extensive sensitivity analyses were performed.
Results: Reimbursement fees represented only a minor fraction of the total costs incurred by a diagnostic strategy. Increases in the prevalence of CAD were generally associated with improved cost-effectiveness and decreased costs per utility unit (Delta QALY). By comparison, CMR was consistently more cost-effective than SPECT, and showed lower costs per QALY gained. Given a CAD prevalence of 0.50, CMR was associated with total costs of (sic)6,120 for one patient correctly diagnosed as having CAD and with (sic)2,246 per Delta QALY gained versus (sic)7,065 and (sic)2,931 for SPECT, respectively. Above a threshold value of CAD prevalence of 0.60, proceeding directly to invasive angiography was the most cost-effective approach.
Conclusions: In patients with low to intermediate CAD probabilities, CMR is more cost-effective than SPECT. Moreover, lower costs per utility unit indicate a superior clinical utility of CMR.
We introduce the notion of coupling distances on the space of Lévy measures in order to quantify rates of convergence towards a limiting Lévy jump diffusion in terms of its characteristic triplet, in particular in terms of the tail of the Lévy measure. The main result yields an estimate of the Wasserstein-Kantorovich-Rubinstein distance on path space between two Lévy diffusions in terms of the couping distances. We want to apply this to obtain precise rates of convergence for Markov chain approximations and a statistical goodness-of-fit test for low-dimensional conceptual climate models with paleoclimatic data.
Under standard conditions the cross metathesis of allyl alcohols and methyl acrylate is accompanied by the formation of ketones, resulting from uncontrolled and undesired double bond isomerization. By conducting the CM in the presence of phenol, the catalyst loading and the reaction time required for quantiative conversion can be reduced, and isomerization can be suppressed. On the other hand, consecutive isomerization can be deliberately promoted by evaporating excess methyl acrylate after completing cross metathesis and by adding a base or silane as chemical triggers.
Crowded field spectroscopy and the search for intermediate-mass black holes in globular clusters
(2013)
Globular clusters are dense and massive star clusters that are an integral part of any major galaxy. Careful studies of their stars, a single cluster may contain several millions of them, have revealed that the ages of many globular clusters are comparable to the age of the Universe. These remarkable ages make them valuable probes for the exploration of structure formation in the early universe or the assembly of our own galaxy, the Milky Way. A topic of current research relates to the question whether globular clusters harbour massive black holes in their centres. These black holes would bridge the gap from stellar mass black holes, that represent the final stage in the evolution of massive stars, to supermassive ones that reside in the centres of galaxies. For this reason, they are referred to as intermediate-mass black holes. The most reliable method to detect and to weigh a black hole is to study the motion of stars inside its sphere of influence. The measurement of Doppler shifts via spectroscopy allows one to carry out such dynamical studies. However, spectroscopic observations in dense stellar fields such as Galactic globular clusters are challenging. As a consequence of diffraction processes in the atmosphere and the finite resolution of a telescope, observed stars have a finite width characterized by the point spread function (PSF), hence they appear blended in crowded stellar fields. Classical spectroscopy does not preserve any spatial information, therefore it is impossible to separate the spectra of blended stars and to measure their velocities. Yet methods have been developed to perform imaging spectroscopy. One of those methods is integral field spectroscopy. In the course of this work, the first systematic study on the potential of integral field spectroscopy in the analysis of dense stellar fields is carried out. To this aim, a method is developed to reconstruct the PSF from the observed data and to use this information to extract the stellar spectra. Based on dedicated simulations, predictions are made on the number of stellar spectra that can be extracted from a given data set and the quality of those spectra. Furthermore, the influence of uncertainties in the recovered PSF on the extracted spectra are quantified. The results clearly show that compared to traditional approaches, this method makes a significantly larger number of stars accessible to a spectroscopic analysis. This systematic study goes hand in hand with the development of a software package to automatize the individual steps of the data analysis. It is applied to data of three Galactic globular clusters, M3, M13, and M92. The data have been observed with the PMAS integral field spectrograph at the Calar Alto observatory with the aim to constrain the presence of intermediate-mass black holes in the centres of the clusters. The application of the new analysis method yields samples of about 80 stars per cluster. These are by far the largest spectroscopic samples that have so far been obtained in the centre of any of the three clusters. In the course of the further analysis, Jeans models are calculated for each cluster that predict the velocity dispersion based on an assumed mass distribution inside the cluster. The comparison to the observed velocities of the stars shows that in none of the three clusters, a massive black hole is required to explain the observed kinematics. Instead, the observations rule out any black hole in M13 with a mass higher than 13000 solar masses at the 99.7% level. For the other two clusters, this limit is at significantly lower masses, namely 2500 solar masses in M3 and 2000 solar masses in M92. In M92, it is possible to lower this limit even further by a combined analysis of the extracted stars and the unresolved stellar component. This component consists of the numerous stars in the cluster that appear unresolved in the integral field data. The final limit of 1300 solar masses is the lowest limit obtained so far for a massive globular cluster.
Calcium phosphate nanofibers with a diameter of only a few nanometers and a cotton-ball-like aggregate morphology have been reported several times in the literature. Although fiber formation seems reproducible in a variety of conditions, the crystal structure and chemical composition of the fibers have been elusive. Using scanning transmission electron microscopy, low dose electron (nano)diffraction, energy-dispersive X-ray spectroscopy, and energy-filtered transmission electron microscopy, we have assigned crystal structures and chemical compositions to the fibers. Moreover, we demonstrate that the mineralization process yields true polymer/calcium phosphate hybrid materials where the block copolymer template is closely associated with the calcium phosphate.
Der Aufsatz rekonstruiert Daniel Heinsius’ Verachtung der Philologie, wie sie in seinen „Orationes” zum Ausdruck kommt. Die These lautet, dass diese Verachtung in Heinsius’ neuplatonischer Poetik mit ihrer Sakralisierung der Dichtung begründet ist. In seinem Kommentar zur aristotelischen „Poetik“, der „Constitutio tragoediae“, ordnet Heinsius das technische Wissen der aristotelischen „Poetik“ der neuplatonischen Inspirationstheorie unter. Dadurch transformiert er den traditionellen, historisch-philologischen Kommentar in eine neue Form des technischen Handbuchs, wie es die „Constitutio tragoediae“ darstellt.
Data integration aims to combine data of different sources and to provide users with a unified view on these data. This task is as challenging as valuable. In this thesis we propose algorithms for dependency discovery to provide necessary information for data integration. We focus on inclusion dependencies (INDs) in general and a special form named conditional inclusion dependencies (CINDs): (i) INDs enable the discovery of structure in a given schema. (ii) INDs and CINDs support the discovery of cross-references or links between schemas. An IND “A in B” simply states that all values of attribute A are included in the set of values of attribute B. We propose an algorithm that discovers all inclusion dependencies in a relational data source. The challenge of this task is the complexity of testing all attribute pairs and further of comparing all of each attribute pair's values. The complexity of existing approaches depends on the number of attribute pairs, while ours depends only on the number of attributes. Thus, our algorithm enables to profile entirely unknown data sources with large schemas by discovering all INDs. Further, we provide an approach to extract foreign keys from the identified INDs. We extend our IND discovery algorithm to also find three special types of INDs: (i) Composite INDs, such as “AB in CD”, (ii) approximate INDs that allow a certain amount of values of A to be not included in B, and (iii) prefix and suffix INDs that represent special cross-references between schemas. Conditional inclusion dependencies are inclusion dependencies with a limited scope defined by conditions over several attributes. Only the matching part of the instance must adhere the dependency. We generalize the definition of CINDs distinguishing covering and completeness conditions and define quality measures for conditions. We propose efficient algorithms that identify covering and completeness conditions conforming to given quality thresholds. The challenge for this task is twofold: (i) Which (and how many) attributes should be used for the conditions? (ii) Which attribute values should be chosen for the conditions? Previous approaches rely on pre-selected condition attributes or can only discover conditions applying to quality thresholds of 100%. Our approaches were motivated by two application domains: data integration in the life sciences and link discovery for linked open data. We show the efficiency and the benefits of our approaches for use cases in these domains.
Der Europäische Automobilsektor : Besteuerung, Marktliberalisierung und Beitrag zur CO₂-Reduktion
(2013)
Der Automobilsektor ist derzeit einer der wichtigsten Industriezweige in Europa. Ca. 2,2 Millionen Mitarbeiter sind direkt, weitere 9,8 Millionen indirekt darin beschäftigt (sechs Prozent aller Beschäftigten in Europa) und erwirtschaften mit einem Umsatz von ca. € 780 Milliarden im Jahr einen bedeutenden Teil des europäischen Bruttoinlandprodukts (BIP). Auch aus Sicht der Konsumenten ist das Auto für 80 % der Europäischen Haushalte, die ein Auto besitzen, aus dem täglichen Leben nicht mehr weg zu denken. Die europäischen Staaten beziehen ca. € 380 Milliarden ihrer Steuereinnahmen aus der Automobilindustrie. Damit haben sowohl Staaten, Konsumenten als auch die Automobilindustrie ein gewichtiges Interesse am Florieren der Branche. Die Schattenseite der Automobilindustrie sind die CO2-Emissionen, die mit 20 % (der Anteil lag 1970 bei 12 %) aller CO2-Emissionen in Europa einen wesentlichen Teil zum Klimawandel beitragen, Tendenz steigend. So haben im Lauf der vergangenen Jahre mehr und mehr Staaten ihre Besteuerung der Pkw explizit oder implizit nach Umweltstandards ausgerichtet. Damit soll das Autofahren verteuert oder eingeschränkt und / oder die Nutzung von schadstoffarmen Pkw gefördert werden. Neben den Klimaschutz verfolgt die Europäische Union (EU) das Ziel, einen einheitlichen europäischen Binnenmarkt zu schaffen. Durch den Mangel an verbindlichen EU-Richtlinien im Bezug auf Abgaben, haben die Gesetze, Steuern und Abgaben auf einzelstaatlicher und regionaler Ebene ein kaum mehr zu überschauendes Maß angenommen, da Im Rahmen des Subsidiaritätsprinzips die Mitgliedsländer weiterhin ihr Steuersystem überwiegend autonom gestalten, sofern dies im Einklang mit bestimmten europaweiten Vorgaben steht. Dies führt zu einem sehr heterogenen Steuersystem, das gerade im Bereich des Verkehrs bedeutende Markteffekte (z. B. höhere Zulassungszahlen für Diesel betriebene Pkw oder kürzere Haltedauern) nach sich zieht. Europaweit einheitlich sind lediglich Regelungen zu Wettbewerbsbeschränkungen. Es lassen sich nach wie vor viele Beispiele für Marktverzerrungen und die Heterogenität der Steuersysteme in Europa finden: Marktverzerrungen und Wettbewerbsbeschränkungen zeigen sich bei Fahrzeugpreisen, die in Europa stark variieren. Beispielsweise kosten in Dänemark Pkw bis zu 37 % weniger als in Deutschland. Diese Arbeit untersucht und vergleicht die Abgaben auf den Erwerb, den Besitz und die Nutzung von Pkw in den EU-Ländern sowie Norwegen und der Schweiz sowohl systematisch als auch quantitativ. Zur quantitativen Analyse wurde eine Datenbank mit den zur Steuerberechnung notwendigen Informationen erstellt. Darunter sind beispielswiese: Steuersätze und –tarife, Fahrzeugdaten, Kraftstoffpreise, Instandhaltungskosten, Versicherungsbeitrage, Wechselkurse und der durchschnittliche Wertverlust der Fahrzeuge. Darauf und auf bestimmten Annahmen basierend wurden die absoluten Abgaben für repräsentative Fahrzeuge in den verschiedenen Ländern berechnet. Besonderes Augenmerk gilt der CO2-orientierten Besteuerung, die in 17 Ländern (zumindest teilweise) eingeführt wurde. Diese Arbeit betrachtet auch andere, d. h. nicht fiskalische Maßnahmen der Europäischen Union zur CO2-Reduzierung, vergleicht diese mit alternativen Instrumenten, und analysiert die Wirkung unterschiedlicher Besteuerung auf den Pkw-Binnenmarkt, z. B. den Einfluss von Abgaben auf die europäischen Automobilpreise und damit auf Arbitrageeffekte. Es zeigt sich, dass die Besteuerung in Europa sowohl in der Abgabenhöhe als auch konzeptionell in der Vielzahl der Bemessungsgrundlagen und Steuertarife sehr heterogen ist und maßgeblich zu den sehr unterschiedlichen Gesamtkosten der Pkw-Nutzung beiträgt. Die relative Abgabenlast ist in einkommensstarken Ländern Westeuropas nicht hoch genug, um den Kraftstoffverbrauch spürbar zu reduzieren. Aus dem gleichen Grund ist von der CO2-orientierten Novellierung der deutschen Kfz-Steuer kein ausreichender Kaufanreiz zugunsten effizienterer Fahrzeuge zu erwarten. Die in der Vergangenheit von der Europäischen Union eingeführten Instrumente zur Reduzierung von CO2-Emissionen aus dem Straßenverkehr führten nicht zu den erwünschten Emissionsverringerungen. Die jüngste Maßnahme der Europäischen Union, den Automobilherstellern Emissionsgrenzen vorzuschreiben, ist weder effektiv noch effizient. Im letzten Jahrzehnt haben sich die Automobilpreise in Europa zwar etwas angeglichen. Dies liegt weniger an einer Angleichung in der Besteuerung als an der schrittweisen Liberalisierung des europäischen Automobilmarktes und den Novellierungen der Gruppenfreistellungsverordnung.
Der Untersuchungsgegenstand der vorliegenden Arbeit ist, die mit dem Begriff „Design Thinking“ verbundenen Diskurse zu bestimmen und deren Themen, Konzepte und Bezüge herauszuarbeiten. Diese Zielstellung ergibt sich aus den mehrfachen Widersprüchen und Vieldeutigkeiten, die die gegenwärtigen Verwendungen des Design-Thinking-Begriffs charakterisieren und den kohärenten Gebrauch in Wissenschaft und Wirtschaft erschweren. Diese Arbeit soll einen Beitrag dazu leisten, „Design Thinking“ in den unterschiedlichen Diskurszusammenhängen grundlegend zu verstehen und für zukünftige Verwendungen des Design-Thinking-Begriffs eine solide Argumentationsbasis zu schaffen.
Nur langsam scheinen jene Schockwellen abzuebben, die ausgelöst durch die Ergebnisse der PISA-Erhebungen seit mehr als einem Jahrzehnt die Bildungsrepublik Deutschland durchqueren und weite Teile der Gesellschaft in den Zustand regelrechter Bildungspanik versetzten. An der Schwelle zum 21. Jahrhundert belegte eine Reihe von Studien für das wiedervereinte Deutschland eine im OECD-Vergleich besonders ausgeprägte Abhängigkeit des Bildungserfolges von der sozialen Herkunft. Als eine Konsequenz ist der Zugang zu tertiärer Bildung bis dato deutlich durch soziale Ungleichheit gekennzeichnet. Vor diesem Hintergrund leistet die vorliegende Dissertationsschrift einen wesentlichen Beitrag zur ursächlichen Erklärung von Mustern sozialer Selektivität, die an den Gelenkstellen zwischen sekundären und postsekundären Bildungsangeboten sichtbar werden. Auf innovative Weise verbindet die Arbeit ein zeitgemäßes handlungstheoretisches Modell mit einer komplexen Lebensstilanalyse. Die Analyse stützt sich auf Erhebungsdaten, die zwischen Januar und April 2010 an mehr als 30 weiterführenden Schulen des Bundeslandes Brandenburg erhoben wurden. Im Mittelpunkt des Forschungsinteresses steht einerseits die Identifikation von sozial-kognitiven Determinanten, die das Niveau und die Richtung postsekundärer Bildungsaspirationen maßgeblich vorstrukturieren sowie andererseits deren Verortung im Kontext jugendlicher Lebensstile. Das komplexe Analysedesign erweist sich als empirisch fruchtbar: So erbringt die Arbeit den empirischen Nachweis, dass die spezifischen Konfigurationen der bestätigten psychosozialen Prädiktoren nicht nur statistisch bedeutsam zwischen jugendlichen Stilmustern variieren, sondern sich diesbezüglich erfolgreiche von weniger erfolgreichen Typen unterscheiden lassen.
SEE THE REAL INDIA – nicht erst seit Slumdog Millionaire versteht sich der mitten im Mumbai gelegene Slum Dharavi als Geheimtipp für Ausflüge abseits des touristischen Mainstreams. Er reiht sich somit in die Reihe der weltweit touristifizierten Armenviertel ein, wie die Favelas von Rio oder die Townships von Kapstadt. Die Entwicklung des globalen Slumtourismus ist zunächst verwunderlich. Favelas Townships und Slums gelten gemeinhin als Orte des Elends und stehen im Kontrast zu den herkömmlichen Sehenswürdigkeiten der besuchten Städte. Von Medien und anderen Touristen wird die touristische Vermarktung der Armenviertel daher oftmals als Voyeurismus und Ausbeutung kritisiert. Anbieter von Slumtouren erklären jedoch, im Mittelpunkt der Touren stände nicht die Zurschaustellung von Armut und Elend, sondern vielmehr das Hervorheben kultureller Aspekte und positiver Entwicklungsimpulse. Vor diesem Hintergrund geht die Arbeit der Frage nach, ob sich die Besichtigung von Armut als zentrales Charakteristikum des Slumtourismus bestimmen lässt. Anhand einer empirischen Fallstudie wird untersucht, wie der indische Slum Dharavi als touristischer Ort (re-)produziert wird. Mit welchen wahrnehmungsleitenden Schemata beobachten teilnehmende Touristen und Tour-Anbieter den Slum und welche je verschiedenen Vorstellungen und Bilder von Dharavi bzw. von Armut werden dadurch bewusst und unbewusst konstruiert?
Die Arbeit beleuchtet die Beziehungen zwischen der DDR und der Volksrepublik China in den Jahren 1978 bis 1990. Dabei werden sowohl die innen-, wie auch die außenpolitischen Bedingungen dieser Beziehungen in der DDR und China beleuchtet. Besonderes Augenmerk wird auch auf die Sowjetunion gelegt. Die Beziehungen Moskaus gegenüber Beijing und Ostberlin werden dargestellt und mit den daraus resultierenden Folgen für die DDR-Führung in Bezug gesetzt.
In dieser Dissertation erfolgt eine Analyse des Schutzes von Biodiversität durch Payments for Environmental Services (PES) und, insbesondere im empirischen Teil, innerhalb des Ansatzes Reducing Emissions from Deforestation and Forest Degradation plus (REDDplus). Die Anwendung von PES-Programmen zum Schutz von Biodiversität gewinnt im umweltpolitischen Bereich immer mehr an Bedeutung. Gleichzeitig ist die Umsetzung solcher Schutzprogramme jedoch mit erheblichen Transaktionskosten und damit der Gefahr von Ineffizienzen verbunden. Die Möglichkeit der Bündelung von Biodiversität mit einer weiteren Ökosystemleistung, hier der Speicherung von Kohlenstoffdioxid, wird hinsichtlich der Wirkungen auf die Schutzniveaus beider Ökosystemleistungen und der Veränderung der Produktionsweise des landwirtschaftlichen Sektors in einem monopsonistischen Modelansatz analysiert. Durch die formale Analyse zeigt sich, dass für einen effizienteren Schutz der beiden Ökosystemleistungen economies of scope bei den Transaktionskosten mit der Bündelung von PES-Programmen realisiert werden müssen. Ein Beispiel für die praktische Umsetzung von Payments for Environmental Services ist der REDDplus-Ansatz. Das Ziel ist die Reduzierung von Treibhausgasemissionen durch den Erhalt und die nachhaltige Bewirtschaftung von tropischen Wäldern, aber auch der Schutz von Biodiversität. Innerhalb des empirischen Teiles der Dissertation wird untersucht, inwiefern es durch die Verfolgung beider Ziele zur Realisierung von economies of scope bei den Transaktionskosten kommt. In die Analyse werden sechs Länder (Costa-Rica, Indonesien, Mexiko, Kambodscha, Peru und Vietnam) einbezogen. Die Analyse erfolgt auf der Grundlage von Szenarien, welche mit Hilfe der Readiness Proposals der Länder für den Zeitraum von 2008 bis 2030 erstellt wurden. Anhand der Ergebnisse kann gezeigt werden, dass es nicht automatisch durch die Zusammenlegung von PES-Programmen zu einer Realisierung von economies of scope kommt. Eine Bündelung solcher Programme ist daher nicht in allen Phasen ihrer Umsetzung ratsam.
Die Dissertation beschreibt die Herstellung von ringförmigen Verbindungen (Naphthalenophanen) mit Hilfe der Dehydro-Diels-Alder-Reaktion, wobei immer Enantiomerenpaare auftreten. Es wird der diastereoselektive Aufbau von Naphthalenophanen und der enantiomeren reine Aufbau von Biarylen untersucht. Desweiteren werden die physikalischen Eigenschaften der erhaltenen Verbindungen, wie die Phosphoreszenz, Trennbarkeit der entstehenden Enantiomere und die Ringspannung beschrieben.
Zur Versorgung ausländischer Märkte bedienen sich Unternehmen unterschiedlicher Versorgungsformen. Die proximity-concentration trade-off-Literatur betrachtet die Wahl zwischen Export und Auslandsproduktion und erklärt die Entstehung von internationalem Handel und horizontalen ausländischen Direktinvestitionen. Das Standardmodell von Brainard (1993) integriert die Auslandsproduktion als alternative Versorgungsform zum Handel in ein allgemeines Gleichgewichtsmodell mit zwei Ländern, monopolistischer Konkurrenz, steigenden Skalenerträgen und Transportkosten. Im Gleichgewicht versorgen Unternehmen ausländische Märkte entweder durch Exporte oder eine Auslandsproduktion. Die real zu beobachtende Ko-Existenz von internationalem Handel und ausländischen Direktinvestitionen auf der Unternehmensebene kann mit diesem Modell nicht erklärt werden. Im Rahmen dieser Arbeit wird die Exportplattform (EP) als mögliche Antwort auf dieses Phänomen herangezogen. Eine Exportplattform ist eine Auslandsproduktion, durch die nicht nur der lokale Auslandsmarkt, sondern auch Drittländer versorgt werden. Im modelltheoretischen Teil dieser Arbeit wird ein partialanalytisches EP-Modell formuliert, dass auf Brainard (1993) aufbaut. Dabei wird ihr Modell um eine Mehr-Länder-Welt mit heterogener Verteilungsstruktur erweitert und die Versorgungsalternative der EP-Exporte nach dem Beispiel von Neary (2002) integriert. Durch die analytische Lösung des partiellen Gleichgewichts lässt sich die substitutive Beziehung zwischen Heimatexporten, Auslandsproduktion und EP-Exporten aufzeigen. Ferner kann die Wirkung der Versorgungskosten auf die Versorgungswahl analysiert werden. Dabei wird neben der analytischen Modellbeschreibung besonders auf die Gleichgewichtsbestimmung und die Existenz der Gleichgewichte eingegangen. Aufbauend auf den analytisch abzuleitenden Hypothesen wird das EP-Modell ferner einem empirischen Signifikanztest unterzogen. Unter Anwendung von nicht-linearen Regressionsverfahren wird die Wahl zwischen EP-Exporten und Auslandsproduktion, zwischen EP- und Heimatexporten sowie zwischen EP-Exporten und der EP-Produktion separat geschätzt. Hierfür wird auf Daten der Automobilindustrie zurückgegriffen, welche die regionalen PKW-Produktions- und -Absatzdaten sämtlicher Automobilhersteller in Osteuropa, Asien und Ozeanien umfassen.
Im Rahmen der aktuellen Debatte über Veränderungen im Schulsystem rückt auch die Lehramtsausbildung stärker in den Fokus universitärer und öffentlicher Diskussionen. Um Unterricht und Schule weiterzuentwickeln, bedarf es, nach Ansicht des Autors, kompetenter Lehrkräfte, welche reflexiv und forschungsgeleitet ihre Arbeit als einen permanenten Entwicklungsprozess betrachten. Das „Praxisforschen“ ist eine Form des Lehrens und Lernens, mittels dessen die Hochschullehre verbessert werden kann und Lehramtsstudierende gut auf die zukünftigen Anforderungen als Lehrende vorbereitet werden. „Praxisforschen“ bedeutet, anhand konkreter Forschungsfragen Schule und/oder die eigene Unterrichtstätigkeit weiterzuentwickeln. Studierende durchlaufen hierzu einen typischen Forschungsprozess, vom Entwickeln einer Fragestellung bis zur Auswertung und Darstellung der Ergebnisse. Der Artikel beschreibt die Umsetzung des Praxisforschens, wie es momentan in den Begleitseminaren zum Praxissemester an der Universität Potsdam durchgeführt wird und gibt praktische Hinweise für das forschende Lernen mit Studierenden.
Das Selenoprotein Glutathionperoxidase 2 (GPx2) ist ein epithelzellspezifisches, Hydroperoxide-reduzierendes Enzym, welches im Darmepithel, vor allem in den proliferierenden Zellen des Kryptengrundes, exprimiert wird. Die Aufrechterhaltung der GPx2-Expression im Kryptengrund auch bei subadäquatem Selenstatus könnte darauf hinweisen, dass sie hier besonders wichtige Funktionen wahrnimmt. Tatsächlich weisen GPx2 knockout (KO)-Mäuse eine erhöhte Apoptoserate im Kryptengrund auf. Ein Ziel dieser Arbeit war es deshalb, die physiologische Funktion der GPx2 näher zu untersuchen. In Kryptengrundepithelzellen aus dem Colon selenarmer GPx2 KO-Mäuse wurde eine erhöhte Caspase 3/7-Aktivität im Vergleich zum Wildtyp (WT) festgestellt. Zudem wiesen diese Zellen eine erhöhte Suszeptibilität für oxidativen Stress auf. Die GPx2 gewährleistet also den Schutz der proliferierenden Zellen des Kryptengrundes auch bei subadäquater Selenversorgung. Des Weiteren wurde im Colon selenarmer (-Se) und -adäquater (+Se) GPx2 KO-Mäuse im Vergleich zum WT eine erhöhte Tumornekrosefaktor α-Expression und eine erhöhte Infiltration von Makrophagen festgestellt. Durch Fütterung einer selensupplementierten Diät (++Se) konnte dies verhindert werden. In GPx2 KO-Mäusen liegt demnach bereits basal eine niedriggradige Entzündung vor. Dies unterstreicht, dass GPx2 vor allem eine wichtige antiinflammatorische Funktion im Darmepithel besitzt. Dem Mikronährstoff Selen werden protektive Funktionen in der Colonkanzerogenese zugeschrieben. In einem Mausmodell der Colitis-assoziierten Colonkanzerogenese wirkte GPx2 antiinflammatorisch und hemmte so die Tumorentstehung. Auf der anderen Seite wurden jedoch auch prokanzerogene Eigenschaften der GPx2 aufgedeckt. Deshalb sollte in dieser Arbeit untersucht werden, welchen Effekt ein GPx2 knockout in einem Modell der sporadischen, durch Azoxymethan (AOM) induzierten, Colonkanzerogenese hat. Im WT kam es in präneoplastischen Läsionen häufig zu einer erhöhten GPx2-Expression im Vergleich zur normalen Darmmucosa. Eine derartige Steigerung der GPx2-Expression wurde auch in der humanen Colonkanzerogenese beschrieben. Das Fehlen der GPx2 resultierte in einer verminderten Entstehung von Tumoren (-Se und ++Se) und präneoplastischen Läsionen (-Se und +Se). Somit förderte GPx2 die Tumorentstehung im AOM-Modell. Acht Stunden nach AOM-Gabe war im GPx2 KO-Colon im Vergleich zum WT eine erhöhte Apoptoserate in der Kryptenmitte (-Se, +Se), nicht jedoch im Kryptengrund oder in der ++Se-Gruppe zu beobachten. Möglicherweise wirkte GPx2 prokanzerogen, indem sie die effiziente Elimination geschädigter Zellen in der Tumorinitiationsphase verhinderte. Eine ähnliche Wirkung wäre auch durch die erhöhte GPx2-Expression in der Promotionsphase denkbar. So könnte GPx2 proliferierende präneoplastische Zellen vor oxidativem Stress, Apoptosen, oder auch der Antitumorimmunität schützen. Dies könnte durch ein Zusammenwirken mit anderen Selenoproteinen wie GPx1 und Thioredoxinreduktasen, für die ebenfalls auch prokanzerogene Funktionen beschrieben wurden, verstärkt werden. Eine wichtige Rolle könnte hier die Modulation des Redoxstatus in Tumorzellen spielen. Die Variation des Selengehalts der Diät hatte im WT einen eher U-förmigen Effekt. So traten in der –Se und ++Se-Gruppe tendenziell mehr und größere Tumore auf, als in der +Se Gruppe. Zusammenfassend schützt GPx2 also die proliferierenden Zellen des Kryptengrundes. Sie könnte jedoch auch proliferierende transformierte Zellen schützen und so die sporadische, AOM-induzierte Colonkanzerogenese fördern. In einem Modell der Colitis-assoziierten Colonkanzerogenese hatte GPx2 auf Grund ihrer antiinflammatorischen Wirkung einen gegenteiligen Effekt und hemmte die Tumorentstehung. Die Rolle der GPx2 in der Colonkanzerogenese ist also abhängig vom zugrunde liegenden Mechanismus und wird maßgeblich von der Beteiligung einer Entzündung bestimmt.
Die MfS-Untersuchungshaftanstalt in Berlin-Pankow, Kissingenstraße (heutige JVA für Frauen Berlin-Pankow in der Arkonastraße 56, 13189 Berlin) war mit über 58 Zellen und zahlreichen Vernehmungszimmern für etwa 120 Untersuchungshäftlinge vorgesehen. Die Häftlinge waren von der Außenwelt völlig isoliert und wurden meistens nach ihrer mehrmonatigen Untersuchungshaft zu Freiheitsstrafen in DDR-Zuchthäusern verurteilt. Im Rahmen einer wissenschaftlichen Abschlussarbeit wurde dieser Ort politischer Repression als Beispiel ausgesucht, um Haftbedingungen, strukturelle Begebenheiten sowie den alltäglichen Ablauf sowohl für Inhaftierte als auch für MfS-Mitarbeiter im letzten Jahrzehnt der DDR zu untersuchen. Insbesondere die Funktionsmechanismen einer derartigen Haftanstalt und deren möglicher Wandel im Verlauf der politischen Ereignisse stehen im Fokus der Untersuchung. Es wurde versucht, die Maßnahmen der Staatssicherheit anhand des MfS-Aktenbestandes zu rekonstruieren und diese in Verbindung mit den Wahrnehmungen und Handlungen der betreffenden Personen zu bringen. Geostrategische Besonderheiten der Haftanstalt sowie mentalitäts- bzw. alltagshistorische Perspektiven anhand ausgewählter Fallbeispiele vervollkommen das Bild der Untersuchungshaftanstalt als Seismograph der gesellschaftlichen Verhältnisse in der DDR der achtziger Jahre. Außen- sowie innenpolitische Ereignisse in den achtziger Jahren versinnbildlichen dabei die Erbebenwellen. Deren Wirkungskraft auf den MfS-Untersuchungshaftvollzug in Berlin-Pankow wurden in dieser Studie der historischen Analyse unterzogen. So stellt diese Studie nicht nur eine reine Bestandsaufnahme der Untersuchungshaft dar. Vielmehr wurde sowohl der Blick auf den DDR-Alltag in den achtziger Jahren gerichtet als auch ansatzweise eine vergleichende Analyse zu den heute bekannten Berliner Erinnerungsorten Hohenschönhausen und Lichtenberg dargelegt.
Körperliche Attraktivität und gutes Aussehen spielen in der heutigen Gesellschaft eine entscheidende Rolle, was bereits frühzeitig auch Kinder und Jugendliche in ihren Einstellungen und der Wahrnehmung ihres Körpers prägt. Sorgen um den eigenen Körper gelten als normatives Problem unter Jugendlichen und bergen nicht selten das Risiko für gesundheitsgefährdendes Verhalten und psychische Erkrankungen. In der Suche nach den Ursachen gerieten in den letzten Jahren insbesondere soziokulturelle Faktoren, insbesondere der Einfluss von medial vermittelten Schönheitsidealen, in den Fokus der Forschung. Es ist jedoch fraglich, warum nicht alle Jugendlichen in gleicher Weise auf den allgegenwärtigen Mediendruck reagieren. Naheliegend ist, dass die Jugendlichen besonders gefährdet sind, deren unmittelbares soziales Umfeld das geltende Schönheitsideal direkt oder indirekt vermittelt und verstärkt. Das Verständnis der Rolle sozialen Drucks ist jedoch bislang noch durch zahlreiche inhaltliche und methodische Aspekte beschränkt (z.B. Einschränkungen in der Operationalisierung, ungenügende Berücksichtigung geschlechtsspezifischer Mechanismen, fehlende längsschnittliche Belege). Daher widmet sich die vorliegende Arbeit der Bedeutung aussehensbezogenen sozialen Drucks in der Entstehung von Körperunzufriedenheit im Jugendalter in drei aufeinander aufbauenden Untersuchungsschritten. Ausgehend von der Entwicklung eines umfassenden und zuverlässigen Erhebungsinstruments zielt die Arbeit darauf ab, unterschiedliche Aspekte sozialen Drucks gegenüberzustellen und hinsichtlich ihrer Verbreitung und Risikowirkung zu vergleichen. Die Umsetzung des Forschungsvorhabens erfolgte in unterschiedlichen Schülerstichproben der Klassen 7 bis 9 unterschiedlicher Gymnasien und Gesamtschulen (Hauptstichprobe N = 1112, im Mittel = 13.4 ± 0.8 Jahre). Dabei wurden sowohl quer- als auch längsschnittliche Analysen durchgeführt. Zusätzlich wurden zur Erprobung des Fragebogenverfahrens klinische Stichproben mit Ess- und Gewichtsstörungen herangezogen. Zur detaillierten Erfassung unterschiedlicher Formen aussehensbezogenen sozialen Drucks erfolgte im ersten Schritt die Entwicklung des Fragebogen zum aussehensbezogen sozialen Druck (FASD), welcher acht unterschiedliche Formen aussehensbezogene sozialen Drucks ausgehend von Eltern und Gleichaltrigen reliabel und valide erfasst. Dabei erwies sich das Verfahren gleichermaßen für Jungen und Mädchen, wie für Jugendliche mit unterschiedlichem Gewichtsstatus geeignet. Die psychometrische Güte des Verfahrens konnte sowohl für populationsbasierte als auch für klinische Stichproben mit Ess- und Gewichtsstörung belegt werden, wodurch eine breite Einsatzmöglichkeit in Forschung und Praxis denkbar ist. Im zweiten Schritt erfolgte die Untersuchung der Verbreitung aussehensbezogenen sozialen Drucks unter besonderer Berücksichtigung von Geschlechts-, Alters- und Gewichtsgruppenunterschieden. Dabei erwiesen sich Mädchen als stärker von aussehensbezogenem Druck durch Gleichaltrige betroffen als Jungen. Darüberhinaus legen die Ergebnisse nahe, dass Übergewicht ungeachtet des Geschlechts mit verstärkten aussehensbezogenen Abwertungen und Ausgrenzungserfahrungen verbunden ist. Zudem deuten die Alterseffekte der Studie darauf hin, dass der Übergang von früher zu mittlerer Adoleszenz aber auch Schulwechsel besonderes kritische Zeitpunkte für die Etablierung aussehensbezogener Einflüsse darstellen. Abschließend widmete sich die Arbeit der längsschnittlichen Risikowirkung unterschiedlicher Aspekte aussehensbezogenen sozialen Drucks in der Entstehung von Körperunzufriedenheit. Aussehensbezogene Einflüsse von Freunden verstärkten längsschnittlich Körpersorgen sowohl bei Mädchen als auch bei Jungen. Zudem ergab sich das Erleben von Ausgrenzung durch Gleichaltrige als entscheidender Risikofaktor für gewichtsbezogene Körpersorgen unter Jungen. Als bedeutsamster elterlicher Einfluss erwiesen sich Aufforderungen auf die Figur zu achten. Diese Aufforderungen verstärkten gleichermaßen für Mädchen und Jungen gewichtsbezogene Körpersorgen. Die vorliegende Arbeit widmete sich dem Ziel, die Rolle aussehensbezogener sozialer Einflüsse weiter aufzuklären. Das dazu vorgelegte umfassende Instrument ermöglichte eine differenzierte Betrachtung der Verbreitung und Wirkung unterschiedlicher Formen sozialen Drucks. Hierdurch weisen die Ergebnisse nicht nur auf wichtige geschlechtsspezifische Mechanismen hin, sondern leisten ebenso einen Beitrag zum vertieften Verständnis der Risikowirkung sozialen Drucks. Diese Erkenntnisse liefern somit einerseits konkrete Ansatzpunkte für Prävention und Intervention und ermöglichen andererseits auch eine weitere Konkretisierung bereits etablierter soziokultureller Wirkmodelle.
Am Beginn dieser Magisterarbeit steht das Scheunenviertelpogrom, das am 05. und 06. November 1923 im Berliner Scheunenviertel stattfand. Ausgehend von einer Charakterisierung der verschiedenen Gruppen, die während des Scheunenviertelpogroms am 05. und 06. November 1923 entweder als Täter oder Opfer, als Ordnungshüter oder Beschützer der Opfer in die Ereignisse involviert waren, soll diese Arbeit dazu dienen, die Rolle des Reichsbundes jüdischer Frontsoldaten dabei näher zu beleuchten. Der Reichsbund jüdischer Frontsoldaten war 1919 zum Zweck der Abwehr des Antisemitismus gegründet worden. Eine Intention für die Gründung war der „antisemitische Stachel im Fleisch“ der jüdischen Veteranen, die bereits während des Ersten Weltkrieges als „Drückeberger“ verunglimpft worden waren. Während der gesamten Zeit seines Bestehens war der Reichsbund bemüht, Beweise dafür zu erbringen, dass diese Anschuldigungen ungerechtfertigt waren. In seinem Selbstverständnis sah sich der RjF als Abwehrverein, der mit verbalen und publizistischen Mitteln versuchte, gegen eine Bedrohung vorzugehen. Da diese Mittel in einigen Fällen, wie dem Scheunenviertelpogrom nicht ausreichten, wurde auch ein gewaltsames Vorgehen in Betracht gezogen. Ehemalige, oft hochdekorierte Soldaten, versuchten den bedrohten Glaubensgenossen zu helfen und einzugreifen, als diese von einem antisemitischen Mob angegriffen wurden. Dieses Eingreifen brachte dem Reichsbund einen Zugewinn an Selbstbewusstsein in seinem Abwehrkampf. Der Scheunenviertelpogrom war für den Bund eine Zäsur und leitete eine zweite Phase der Entwicklung ein. Als kleiner Verein mit einem geringen Bekanntheitsgrad hatte er nur gediente Frontsoldaten in seinen Reihen. Nach dem Pogrom stiegen die Mitgliederzahlen sprunghaft an. Vor allem junge Menschen wollten im Abwehrkampf gegen den Antisemitismus mitkämpfen. Diese Tatsache bewog die Leitung des Reichsbundes zur Erweiterung des Aufgabengebietes. Die sportliche Ertüchtigung wurde als erster Schritt in eine neue Richtung gewertet, die Jugend als Hoffnungsträger für die Fortsetzung des eigenen Kampfes zu gewinnen. Die Aufnahme eines Sportprogrammes in den Aufgabenbereich war einerseits dem starken Antisemitismus geschuldet, andererseits diente er zur Bekräftigung eines positiven jüdischen Selbstbildes, indem das Stigma des „krummen, schwächlichen Juden“ bekämpft werden sollte. Im gleichen Kontext ist auch die neu ins Programm aufgenommene Siedlungspolitik des Reichsbundes zu sehen. Diese wendet sich gegen das Stigma einer ungesunden Berufsstruktur unter der jüdischen Bevölkerung. Der Reichbund wollte beweisen, dass auch ein Jude in der Lage war, Landbau zu betreiben. In der Folge des Pogroms und den damit in Verbindung stehenden Erfolgen intensivierte der Reichsbund seine Gegenwehr gegen antisemitische Propaganda. Dabei wurde er bestärkt durch die Zusammenarbeit mit anderen jüdischen Organisationen, wie dem Centralverein deutscher Staatsbürger jüdischen Glaubens oder der Zionistischen Vereinigung für Deutschland. Auch die Unterstützung durch Vertreter linker, liberaler Parteien, durch örtliche Honoratioren oder durch das Justizsystem trug zu einem erstarkten Selbstbewusstsein bei. Diese gesteigerte Selbstbewusstsein, genährt durch die vermeintlichen Erfolge im Kampf gegen den Antisemitismus, war es auch, dass den Reichsbund ab 1933 nach einer Vormachtstellung unter den deutschen Juden streben lies. In dieser dritten Phase der Geschichte des RjF wurde die über die Jahre streng „gehütete“ Neutralität in innerjüdischen und politischen Belangen beseitigt und der Bund so umgebaut, dass er einer politischen Partei ähnelte. Die Beseitigung der demokratischen Prinzipien innerhalb des RjF durch die einseitige Ausrichtung auf seinen Vorsitzenden Leo Löwenstein rundete dieses Bild ab. Bei seiner Tätigkeit versuchten die Mitglieder des Reichsbundes sich zu entscheiden zwischen einer Identität als Deutscher und Jude. Den Weg der Assimilation zu verlassen und an einer Perspektive in einem anderen Land zu arbeiten, war erst nach der Machtübertragung an die Nationalsozialisten eine denkbare, wenn auch zunächst nicht wünschenswerte Option für den RjF. So rückte schließlich die Identitätsbestimmung als Jude vor die als Deutscher, obwohl der RjF sich in erster Linie als nationaler Verband, der sich aus Soldaten jüdischer „Abstammung“ rekrutierte, und weniger als jüdische Interessenvertretung betrachtet hatte.
Inhalt: Günther Unser: UN-Profile kleiner und mittlerer Staaten am Beispiel der Schweiz, Österreichs und Liechtensteins Johannes Varwick: Deutschland und die UNO: eine abgekühlte Freundschaft? Dominik Steiger: Deutschland im System kollektiver Sicherheit Lilly Sucharipa-Behrmann: „UN Women“ – die United Nations Entity for Gender Equality and the Empowerment of Women: eine erste Bilanz Theodor Rathgeber: Der UN-Menschenrechtsrat: Was kann er leisten, was nicht?
Die Arbeit thematisiert die Veränderungen im deutschen Wissenschafts- und Hochschulsystem. Im Mittelpunkt steht die "unternehmerische Mission" von Universitäten. Der Blick wird auf das Aufgabenfeld Wissens- und Technologietransfer (WTT) gerichtet. Anhand dessen werden die Veränderungen, die innerhalb des deutschen Universitätssystems in den vergangenen Jahren erfolgten, nachgezeichnet. Die Erwartungshaltungen an Universitäten haben sich verändert. Ökonomische Sichtweisen nehmen einen immer größeren Stellenwert ein. Die Arbeit baut auf den Prämissen der neoinstitutionalistischen Organisationstheorie auf. Anhand dieser wird gezeigt, wie Erwartungen externer Stakeholder Eingang in Hochschulen finden und sich auf ihre organisatorische Ausgestaltung auswirken. Der Arbeit liegt ein exploratives, qualitatives Untersuchungsdesign zugrunde. In einer Fallstudie werden zwei Universitäten als Fallbeispiele untersucht. Die Untersuchung liefert Antworten auf die Fragen, wie der WTT als Aufgabenbereich an deutschen Universitäten umgesetzt wird, welche Strukturen sich herausgebildet haben und inwieweit eine Institutionalisierung des WTTs an Universitäten erfolgt ist. In der Arbeit werden verschiedene Erhebungsinstrumente im Rahmen einer Triangulation genutzt. Experteninterviews bilden das Hauptanalyseinstrument. Ziel der Untersuchung ist neben der Beantwortung der Forschungsfragen, Hypothesen zu bilden, die für weiterführende Untersuchungen genutzt werden können. Darüber hinaus werden Handlungsempfehlungen für die Umsetzung des WTTs an deutschen Hochschulen gegeben. Die Arbeit richtet sich sowohl an Wissenschaftler als auch Praktiker aus dem Bereich Wissens- und Technologietransfer.
Background: Adaptive behavioural strategies promoting co-occurrence of competing species are known to result from a sympatric evolutionary past. Strategies should be different for indirect resource competition (exploitation, e.g., foraging and avoidance behaviour) than for direct interspecific interference (e.g., aggression, vigilance, and nest guarding). We studied the effects of resource competition and nest predation in sympatric small mammal species using semi-fossorial voles and shrews, which prey on vole offspring during their sensitive nestling phase. Experiments were conducted in caged outdoor enclosures. Focus common vole mothers (Microtus arvalis) were either caged with a greater white-toothed shrew (Crocidura russula) as a potential nest predator, with an herbivorous field vole (Microtus agrestis) as a heterospecific resource competitor, or with a conspecific resource competitor.
Results: We studied behavioural adaptations of vole mothers during pregnancy, parturition, and early lactation, specifically modifications of the burrow architecture and activity at burrow entrances. Further, we measured pre- and postpartum faecal corticosterone metabolites (FCMs) of mothers to test for elevated stress hormone levels. Only in the presence of the nest predator were prepartum FCMs elevated, but we found no loss of vole nestlings and no differences in nestling body weight in the presence of the nest predator or the heterospecific resource competitor. Although the presence of both the shrew and the field vole induced prepartum modifications to the burrow architecture, only nest predators caused an increase in vigilance time at burrow entrances during the sensitive nestling phase.
Conclusion: Voles displayed an adequate behavioural response for both resource competitors and nest predators. They modified burrow architecture to improve nest guarding and increased their vigilance at burrow entrances to enhance offspring survival chances. Our study revealed differential behavioural adaptations to resource competitors and nest predators.
We consider systems of Euler-Lagrange equations with two degrees of freedom and with Lagrangian being quadratic in velocities. For this class of equations the generic case of the equivalence problem is solved with respect to point transformations. Using Lie's infinitesimal method we construct a basis of differential invariants and invariant differentiation operators for such systems. We describe certain types of Lagrangian systems in terms of their invariants. The results are illustrated by several examples.
Background: DNA fragments carrying internal recognition sites for the restriction endonucleases intended for cloning into a target plasmid pose a challenge for conventional cloning.
Results: A method for directional insertion of DNA fragments into plasmid vectors has been developed. The target sequence is amplified from a template DNA sample by PCR using two oligonucleotides each containing a single deoxyinosine base at the third position from the 5' end. Treatment of such PCR products with endonuclease V generates 3' protruding ends suitable for ligation with vector fragments created by conventional restriction endonuclease reactions.
Conclusions: The developed approach generates terminal cohesive ends without the use of Type II restriction endonucleases, and is thus independent from the DNA sequence. Due to PCR amplification, minimal amounts of template DNA are required. Using the robust Taq enzyme or a proofreading Pfu DNA polymerase mutant, the method is applicable to a broad range of insert sequences. Appropriate primer design enables direct incorporation of terminal DNA sequence modifications such as tag addition, insertions, deletions and mutations into the cloning strategy. Further, the restriction sites of the target plasmid can be either retained or removed.
In many biological and environmental applications spatially resolved sensing of molecular oxygen is desirable. A powerful tool for distributed measurements is optical time domain reflectometry (OTDR) which is often used in the field of telecommunications. We combine this technique with a novel optical oxygen sensor dye, triangular-[4] phenylene (TP), immobilized in a polymer matrix. The TP luminescence decay time is 86 ns. The short decay time of the sensor dye is suitable to achieve a spatial resolution of some meters. In this paper we present the development and characterization of a reflectometer in the UV range of the electromagnetic spectrum as well as optical oxygen sensing with different fiber arrangements.
This article expands our current knowledge about ministerial selection in coalition governments and analyses why ministerial candidates succeed in acquiring a cabinet position after general elections. It argues that political parties bargain over potential office-holders during government-formation processes, selecting future cabinet ministers from an emerging bargaining pool'. The article draws upon a new dataset comprising all ministrable candidates discussed by political parties during eight government-formation processes in Germany between 1983 and 2009. The conditional logit regression analysis reveals that temporal dynamics, such as the day she enters the pool, have a significant effect on her success in achieving a cabinet position. Other determinants of ministerial selection discussed in the existing literature, such as party and parliamentary expertise, are less relevant for achieving ministerial office. The article concludes that scholarship on ministerial selection requires a stronger emphasis for its endogenous nature in government-formation as well as the relevance of temporal dynamics in such processes.
E-Learning Symposium 2012
(2013)
Dieser Tagungsband beinhaltet die auf dem E-Learning Symposium 2012 an der Universität Potsdam vorgestellten Beiträge zu aktuellen Anwendungen, innovativen Prozesse und neuesten Ergebnissen im Themenbereich E-Learning. Lehrende, E-Learning-Praktiker und -Entscheider tauschten ihr Wissen über etablierte und geplante Konzepte im Zusammenhang mit dem Student-Life-Cycle aus. Der Schwerpunkt lag hierbei auf der unmittelbaren Unterstützung von Lehr- und Lernprozessen, auf Präsentation, Aktivierung und Kooperation durch Verwendung von neuen und etablierten Technologien.
Given a large set of records in a database and a query record, similarity search aims to find all records sufficiently similar to the query record. To solve this problem, two main aspects need to be considered: First, to perform effective search, the set of relevant records is defined using a similarity measure. Second, an efficient access method is to be found that performs only few database accesses and comparisons using the similarity measure. This thesis solves both aspects with an emphasis on the latter. In the first part of this thesis, a frequency-aware similarity measure is introduced. Compared record pairs are partitioned according to frequencies of attribute values. For each partition, a different similarity measure is created: machine learning techniques combine a set of base similarity measures into an overall similarity measure. After that, a similarity index for string attributes is proposed, the State Set Index (SSI), which is based on a trie (prefix tree) that is interpreted as a nondeterministic finite automaton. For processing range queries, the notion of query plans is introduced in this thesis to describe which similarity indexes to access and which thresholds to apply. The query result should be as complete as possible under some cost threshold. Two query planning variants are introduced: (1) Static planning selects a plan at compile time that is used for all queries. (2) Query-specific planning selects a different plan for each query. For answering top-k queries, the Bulk Sorted Access Algorithm (BSA) is introduced, which retrieves large chunks of records from the similarity indexes using fixed thresholds, and which focuses its efforts on records that are ranked high in more than one attribute and thus promising candidates. The described components form a complete similarity search system. Based on prototypical implementations, this thesis shows comparative evaluation results for all proposed approaches on different real-world data sets, one of which is a large person data set from a German credit rating agency.
The genetic code is degenerate; thus, protein evolution does not uniquely determine the coding sequence. One of the puzzles in evolutionary genetics is therefore to uncover evolutionary driving forces that result in specific codon choice. In many bacteria, the first 5-10 codons of protein-coding genes are often codons that are less frequently used in the rest of the genome, an effect that has been argued to arise from selection for slowed early elongation to reduce ribosome traffic jams. However, genome analysis across many species has demonstrated that the region shows reduced mRNA folding consistent with pressure for efficient translation initiation. This raises the possibility that unusual codon usage is a side effect of selection for reduced mRNA structure. Here we discriminate between these two competing hypotheses, and show that in bacteria selection favours codons that reduce mRNA folding around the translation start, regardless of whether these codons are frequent or rare. Experiments confirm that primarily mRNA structure, and not codon usage, at the beginning of genes determines the translation rate.
Hintergrund: Gestillte Kinder haben im Vergleich zu nicht gestillten Kindern eine geringere Inzidenz von gastrointestinalen Infektionen und atopischen Erkrankungen. Man geht davon aus, dass der gesundheitsfördernde Effekt der Muttermilch teilweise über die intestinale Mikrobiota vermittelt wird. Diese ist in Stillkindern durch eine geringe Diversität und einen hohen Anteil an Bifidobakterien charakterisiert. Neueste Ansätze in der Weiterentwicklung industriell hergestellter Säuglingsnahrung zielen darauf ab, eine intestinale Mikrobiota zu fördern, die der von gestillten Kindern ähnelt. Die Supplementation von Säuglingsnahrung mit Probiotika (lebende Mikroorganismen) oder Präbiotika (unverdauliche Kohlenhydrate, die als Energiesubstrat für probiotische Bakterien dienen) könnte die bifidogene und antipathogene, aber auch immunmodulierende Wirkung der Muttermilch nachahmen. Aufgrund unterschiedlicher Interaktionen mit der Darmmikrobiota und dem Immunsystem fokussiert man mit der gleichzeitigen Gabe von Pro- und Präbiotika (Synbiotika) eine synergistische Wirkung an. Zielstellung und Studiendesign: In einer randomisiert-kontrollierten, klinischen Studie wurde untersucht, ob sich in den ersten drei Lebensmonaten von gesunden und termingerecht geborenen Kindern mit einer Synbiotikum-haltigen Säuglingsnahrung eine intestinale Mikrobiota etabliert, die der von gestillten Kindern gleicht. Das Synbiotikum setzte sich aus Bifidobacterium animalis ssp. lactis CNCM I 3446 (ältere Bezeichnung B. lactis BB-12) und Kuhmilcholigosacchariden zusammen. Die Studie umfasste zwei Gruppen von Kindern, die eine Säuglingsnahrung mit (SYN-Gruppe, n=21) oder ohne Supplement (KON-Gruppe, n=18) erhielten. Gestillte Kinder dienten als Referenz (REF-Gruppe, n=23). Um die Diversität der Bifidobakterien auf Speziesebene umfassend zu charakterisieren, wurden quantitative Real-Time PCR (qPCR)-Verfahren, basierend auf dem single-copy groEL als phylogenetisches Zielgen, zur spezifischen Quantifizierung von zwölf Bifidobakterienspezies in humanen Fäzes entwickelt und validiert. Ergebnisse: Die supplementierte Säuglingsnahrung war gut verträglich und unterstützte eine gesunde Entwicklung; vergleichbare anthropometrische Daten von SYN- und REF-Gruppe. Das Synbiotikum stimulierte selektiv das Wachstum von Laktobazillen und Bifidobakterien. Die Zellzahl für Laktobazillen der SYN-Gruppe war zur REF-Gruppe äquivalent (9,07±0,32 versus 9,90±0,27 log10 Zellen/g Fäzes TM [MW±SEM]; p<0,0019; Äquivalenzdifferenz von 1 log10 Zellen/g Fäzes TM) und höher als in der KON-Gruppe (8,27±0,31 log10 Zellen/g Fäzes TM [MW±SEM]). Die Zellzahl für Bifidobakterien war in der SYN-Gruppe am höchsten (11,54±0,05 versus 11,00±0,17 [REF-Gruppe] und 10,54±0,24 [KON-Gruppe] log10 Zellen/g Fäzes TM [MW±SEM]). In der SYN-Gruppe wurde die höchste Anzahl an Bifidobakterienspezies erfasst (167 mit [128 ohne] B. animalis in 56 Fäzesproben versus 98 und 93 in jeweils 51 Fäzesproben der REF- und KON-Gruppe). Neben Kinder-typischen Spezies wie B. bifidum und B. breve wurden auch Spezies, die für Erwachsene charakteristisch sind (B. adolescentis), häufiger in der SYN-Gruppe als in den Vergleichsgruppen nachgewiesen. Der pH-Wert in Fäzes von Kindern aus der SYN-Gruppe war niedriger als der aus der KON-Gruppe (6,07±0,20 versus 6,45±0,17 [MW±SEM]) und näher an dem von gestillten Kindern mit 5,29±0,12 (MW±SEM). Schlussfolgerung: Die Supplementation einer Säuglingsnahrung mit dem Synbiotikum aus CNCM I-3446 und Kuhmilcholigosacchariden führte zu einer Angleichung in der Zusammensetzung der intestinalen Mikrobiota und des fäkalen pH-Wertes an gestillte Kinder. Die in dieser Arbeit entwickelten groEL-basierten qPCR-Verfahren erlaubten eine spezifische und genaue Analyse der Bifidobakterienpopulation unter dem Einfluss eines Synbiotikums.
Die Modelle der räumlichen Preistheorie sind über einen langen Zeitraum entwickelt worden und mit bekannten Namen wie Wilhelm Launhardt und August Lösch verbunden. Diese Ansätze versuchen der räumlichen Dimension des Preisbildungsprozesses auf Märkten in partialanalytischen Modellen Rechnung zu tragen. Im Buch werden Monopole, monopolistische Konkurrenz und internationaler Handel diskutiert. Dabei hat der Leser die Möglichkeit, sich über die Standardmodell hinaus mit komplexeren Strukturen vertraut zu machen.
Deutsche Universitäten erweitern ihre E-Learning-Angebote als Service für die Studierenden und Lehrenden. Diese sind je nach Fakultät unterschiedlich ausgeprägt. Dieser Artikel zeigt, wie durch technische Erweiterung der Infrastruktur, einer Anpassung der Organisationsstruktur und einer gezielten Inhaltsentwicklung eine durchgängige und personalisierbare Lehr- und Lernumgebung (Personal Learning Environment, PLE) geschaffen und damit die Akzeptanz bei den Lehrenden und Studierenden für E-Learning erhöht werden kann. Aus der vorausgehenden, systematischen Anforderungsanalyse können Kennzahlen für die Qualitätssicherung von E-Learning-Angeboten abgeleitet werden.
Die wertschöpfenden Tätigkeiten in Unternehmen folgen definierten Geschäftsprozessen und werden entsprechend ausgeführt. Dabei werden wertvolle Daten über die Prozessausführung erzeugt. Die Menge und Qualität dieser Daten ist sehr stark von der Prozessausführungsumgebung abhängig, welche überwiegend manuell als auch vollautomatisiert sein kann. Die stetige Verbesserung von Prozessen ist einer der Hauptpfeiler des Business Process Managements, mit der Aufgabe die Wettbewerbsfähigkeit von Unternehmen zu sichern und zu steigern. Um Prozesse zu verbessern muss man diese analysieren und ist auf Daten der Prozessausführung angewiesen. Speziell bei manueller Prozessausführung sind die Daten nur selten direkt zur konkreten Prozessausführung verknüpft. In dieser Arbeit präsentieren wir einen Ansatz zur Verwendung und Anreicherung von Prozessausführungsdaten mit Kontextdaten – Daten die unabhängig zu den Prozessdaten existieren – und Wissen aus den dazugehörigen Prozessmodellen, um ein hochwertige Event- Datenbasis für Process Intelligence Anwendungen, wie zum Beispiel Prozessmonitoring, Prozessanalyse und Process Mining, sicherstellen zu können. Des Weiteren zeigen wir offene Fragestellungen und Herausforderungen auf, welche in Zukunft Gegenstand unserer Forschung sein werden.
This thesis presents novel ideas and research findings for the Web of Data – a global data space spanning many so-called Linked Open Data sources. Linked Open Data adheres to a set of simple principles to allow easy access and reuse for data published on the Web. Linked Open Data is by now an established concept and many (mostly academic) publishers adopted the principles building a powerful web of structured knowledge available to everybody. However, so far, Linked Open Data does not yet play a significant role among common web technologies that currently facilitate a high-standard Web experience. In this work, we thoroughly discuss the state-of-the-art for Linked Open Data and highlight several shortcomings – some of them we tackle in the main part of this work. First, we propose a novel type of data source meta-information, namely the topics of a dataset. This information could be published with dataset descriptions and support a variety of use cases, such as data source exploration and selection. For the topic retrieval, we present an approach coined Annotated Pattern Percolation (APP), which we evaluate with respect to topics extracted from Wikipedia portals. Second, we contribute to entity linking research by presenting an optimization model for joint entity linking, showing its hardness, and proposing three heuristics implemented in the LINked Data Alignment (LINDA) system. Our first solution can exploit multi-core machines, whereas the second and third approach are designed to run in a distributed shared-nothing environment. We discuss and evaluate the properties of our approaches leading to recommendations which algorithm to use in a specific scenario. The distributed algorithms are among the first of their kind, i.e., approaches for joint entity linking in a distributed fashion. Also, we illustrate that we can tackle the entity linking problem on the very large scale with data comprising more than 100 millions of entity representations from very many sources. Finally, we approach a sub-problem of entity linking, namely the alignment of concepts. We again target a method that looks at the data in its entirety and does not neglect existing relations. Also, this concept alignment method shall execute very fast to serve as a preprocessing for further computations. Our approach, called Holistic Concept Matching (HCM), achieves the required speed through grouping the input by comparing so-called knowledge representations. Within the groups, we perform complex similarity computations, relation conclusions, and detect semantic contradictions. The quality of our result is again evaluated on a large and heterogeneous dataset from the real Web. In summary, this work contributes a set of techniques for enhancing the current state of the Web of Data. All approaches have been tested on large and heterogeneous real-world input.
Diese Arbeit befasst sich mit der Synthese und der Charakterisierung von thermoresponsiven Polymeren und ihrer Immobilisierung auf festen Oberflächen als nanoskalige dünne Schichten. Dabei wurden thermoresponsive Polymere vom Typ der unteren kritischen Entmischungstemperatur (engl.: lower critical solution temperature, LCST) verwendet. Sie sind bei niedrigeren Temperaturen im Lösungsmittel gut und nach Erwärmen oberhalb einer bestimmten kritischen Temperatur nicht mehr löslich; d. h. sie weisen bei einer bestimmten Temperatur einen Phasenübergang auf. Als Basismaterial wurden verschiedene thermoresponsive und biokompatible Polymere basierend auf Diethylenglykolmethylethermethacrylat (MEO2MA) und Oligo(ethylenglykol)methylethermethacrylat (OEGMA475, Mn = 475 g/ mol) über frei radikalische Copolymerisation synthetisiert. Der thermoresponsive Phasenübergang der Copolymere wurde in wässriger Lösung und in gequollenen vernetzten dünnen Schichten beobachtet. Außerdem wurde untersucht, inwiefern eine selektive Proteinbindung an geeignete funktionalisierte Copolymere die Phasenübergangstemperatur beeinflusst. Die thermoresponsiven Copolymere wurden über photovernetzbare Gruppen auf festen Oberflächen immobilisiert. Die nötigen lichtempfindlichen Vernetzereinheiten wurden mittels des polymerisierbaren Benzophenonderivates 2 (4 Benzoylphenoxy)ethylmethacrylat (BPEM) in das Copolymer integriert. Dünne Filme der Copolymere mit ca. 100 nm Schichtdicke wurden über Rotationsbeschichtung auf Siliziumwafer aufgeschleudert und anschließend durch Bestrahlung mit UV Licht vernetzt und auf der Oberfläche immobilisiert. Die Filme sind stabiler je größer der Vernetzeranteil und je größer die Molmasse der Copolymere ist. Bei einem Waschprozess nach der Vernetzung wird beispielsweise aus einem Film mit moderater Molmasse und geringem Vernetzeranteil mehr unvernetztes Copolymer ausgewaschen als bei einem höhermolekularen Copolymer mit hohem Vernetzeranteil. Die Quellbarkeit der Polymerschichten wurde mit Ellipsometrie untersucht. Sie ist größer je geringer der Vernetzeranteil in den Copolymeren ist. Schichten aus thermoresponsiven OEG Copolymeren zeigen einen Volumenphasenübergang vom Typ der LCST. Der thermoresponsive Kollaps der Schichten ist komplett reversibel, die Kollapstemperatur kann über die Zusammensetzung der Copolymere eingestellt werden. Für einen Vergleich dieser Eigenschaften mit dem gut charakterisierten und derzeit wohl am häufigsten untersuchten thermoresponsiven Polymer Poly(N-isopropylacrylamid) (PNIPAM) wurden zusätzlich photovernetzte Schichten aus PNIPAM hergestellt und ebenfalls ellipsometrisch vermessen. Im Vergleich zu PNIPAM verläuft der Phasenübergang der Schichten aus den Copolymeren mit Oligo(ethylenglykol)-seitenketten (OEG Copolymere) über einen größeren Temperaturbereich. Mit Licht einer Wellenlänge > 300 nm wurden die photosensitiven Benzophenongruppen selektiv angeregt. Bei der Verwendung kleinerer Wellenlängen vernetzten die Copolymerschichten auch ohne die Anwesenheit der lichtempfindlichen Benzophenongruppen. Dieser Effekt ließ sich zur kontrollierten Immobilisierung und Vernetzung der OEG Copolymere einsetzen. Als weitere Methode zur Immobilisierung der Copolymere wurde die Anbindung über Amidbindungen untersucht. Dazu wurden OEG Copolymere mit dem carboxylgruppenhaltigen 2 Succinyloxyethylmethacrylat (MES) auf mit 3 Aminopropyldimethylethoxysilan (APDMSi) silanisierte Siliziumwafer rotationsbeschichtet, und mit dem oligomeren α, ω Diamin Jeffamin® ED 900 vernetzt. Die Vernetzungsreaktion erfolgte ohne weitere Zusätze durch Erhitzen der Proben. Die Hydrogelschichten waren anschließend stabil und zeigten neben thermoresponsivem auch pH responsives Verhalten. Um zu untersuchen, ob die Phasenübergangstemperatur durch eine Proteinbindung beeinflusst werden kann, wurde ein polymerisierbares Biotinderivat 2 Biotinyl-aminoethylmethacrylat (BAEMA) in das thermoresponsive Copolymer eingebaut. Der Einfluss des biotinbindenen Proteins Avidin auf das thermoresponsive Verhalten des Copolymers in Lösung wurde untersucht. Die spezifische Bindung von Avidin an das biotinylierte Copolymer verschob die Übergangstemperatur deutlich zu höheren Temperaturen. Kontrollversuche zeigten, dass dieses Verhalten auf eine selektive Proteinbindung zurückzuführen ist. Thermoresponsive OEG Copolymere mit photovernetzbaren Gruppen aus BPEM und Biotingruppen aus BAEMA wurden über Rotationsbeschichtung auf Gold- und auf Siliziumoberflächen aufgetragen und durch UV Strahlung vernetzt. Die spezifische Bindung von Avidin an die Copolymerschicht wurde mit Oberflächenplasmonenresonanz und Ellipsometrie untersucht. Die Bindungskapazität der Schichten war umso größer, je kleiner der Vernetzeranteil, d. h. je größer die Maschenweite des Netzwerkes war. Die Quellbarkeit der Schichten wurde durch die Avidinbindung erhöht. Bei hochgequollenen Systemen verursachte eine Mehrfachbindung des tetravalenten Avidins allerdings eine zusätzliche Quervernetzung des Polymernetzwerkes. Dieser Effekt wirkt der erhöhten Quellbarkeit durch die Avidinbindung entgegen und lässt die Polymernetzwerke schrumpfen.
In diesem Band „Essays zur Didaktik der Geographie“ werden in 8 Beiträgen ausgewählte Methoden für den Geographieunterricht behandelt. Praxiserfahrenen Geographiedidaktiker(inne)n und Geographielehrer(inne)n haben die Themen Croquis/Chorèmes und Schemata, Einstiege, Planspiele, Rollenspiele, Scaffolding, Schulbücher, Spiele und Umweltbildung in pointierter Form aufbereitet. Die Inhalte dieses Buches richten sich an Studierende, Referendarinnen und Referendare sowie Lehrer(inn)en, die sich kompakt über einzelne Themen oder Stichworte informieren wollen. Die acht Beiträge ergänzen die 65 Beiträge im „Metzler Handbuch 2.0 Geographieunterricht“. Sie sind durch wechselseitige Querverweise systematisch miteinander verbunden.
Public debate about energy relations between the EU and Russia is distorted. These distortions present considerable obstacles to the development of true partnership. At the core of the conflict is a struggle for resource rents between energy producing, energy consuming and transit countries. Supposed secondary aspects, however, are also of great importance. They comprise of geopolitics, market access, economic development and state sovereignty. The European Union, having engaged in energy market liberalisation, faces a widening gap between declining domestic resources and continuously growing energy demand. Diverse interests inside the EU prevent the definition of a coherent and respected energy policy. Russia, for its part, is no longer willing to subsidise its neighbouring economies by cheap energy exports. The Russian government engages in assertive policies pursuing Russian interests. In so far, it opts for a different globalisation approach, refusing the role of mere energy exporter. In view of the intensifying struggle for global resources, Russia, with its large energy potential, appears to be a very favourable option for European energy supplies, if not the best one. However, several outcomes of the strategic game between the two partners can be imagined. Engaging in non-cooperative strategies will in the end leave all stakeholders worse-off. The European Union should therefore concentrate on securing its partnership with Russia instead of damaging it. Stable cooperation would need the acceptance that the partner may pursue his own goals, which might be different from one’s own interests. The question is, how can a sustainable compromise be found? This thesis finds that a mix of continued dialogue, a tit for tat approach bolstered by an international institutional framework and increased integration efforts appears as a preferable solution.