Refine
Has Fulltext
- yes (595) (remove)
Year of publication
- 2011 (595) (remove)
Document Type
- Article (282)
- Doctoral Thesis (110)
- Postprint (67)
- Monograph/Edited Volume (60)
- Review (23)
- Master's Thesis (15)
- Part of Periodical (13)
- Working Paper (7)
- Part of a Book (6)
- Habilitation Thesis (3)
Language
- German (419)
- English (161)
- Multiple languages (8)
- Russian (5)
- French (2)
Keywords
- Bürgerschaft (16)
- Deutschland (16)
- Integration (16)
- Migration (16)
- Afghanistan (15)
- Germany (15)
- International Politics (15)
- Internationale Politik (15)
- Politische Theorie (15)
- Friedens- und Konfliktforschung (14)
Institute
- MenschenRechtsZentrum (70)
- WeltTrends e.V. Potsdam (61)
- Institut für Slavistik (49)
- Wirtschaftswissenschaften (49)
- Institut für Romanistik (33)
- Institut für Jüdische Studien und Religionswissenschaft (32)
- Vereinigung für Jüdische Studien e. V. (32)
- Extern (30)
- Institut für Physik und Astronomie (23)
- Institut für Biochemie und Biologie (22)
Stadtstruktur und Umwelt
(2011)
Public debate about energy relations between the EU and Russia is distorted. These distortions present considerable obstacles to the development of true partnership. At the core of the conflict is a struggle for resource rents between energy producing, energy consuming and transit countries. Supposed secondary aspects, however, are also of great importance. They comprise of geopolitics, market access, economic development and state sovereignty. The European Union, having engaged in energy market liberalisation, faces a widening gap between declining domestic resources and continuously growing energy demand. Diverse interests inside the EU prevent the definition of a coherent and respected energy policy. Russia, for its part, is no longer willing to subsidise its neighbouring economies by cheap energy exports. The Russian government engages in assertive policies pursuing Russian interests. In so far, it opts for a different globalisation approach, refusing the role of mere energy exporter. In view of the intensifying struggle for global resources, Russia, with its large energy potential, appears to be a very favourable option for European energy supplies, if not the best one. However, several outcomes of the strategic game between the two partners can be imagined. Engaging in non-cooperative strategies will in the end leave all stakeholders worse-off. The European Union should therefore concentrate on securing its partnership with Russia instead of damaging it. Stable cooperation would need the acceptance that the partner may pursue his own goals, which might be different from one’s own interests. The question is, how can a sustainable compromise be found? This thesis finds that a mix of continued dialogue, a tit for tat approach bolstered by an international institutional framework and increased integration efforts appears as a preferable solution.
Complete protection against flood risks by structural measures is impossible. Therefore flood prediction is important for flood risk management. Good explanatory power of flood models requires a meaningful representation of bio-physical processes. Therefore great interest exists to improve the process representation. Progress in hydrological process understanding is achieved through a learning cycle including critical assessment of an existing model for a given catchment as a first step. The assessment will highlight deficiencies of the model, from which useful additional data requirements are derived, giving a guideline for new measurements. These new measurements may in turn lead to improved process concepts. The improved process concepts are finally summarized in an updated hydrological model. In this thesis I demonstrate such a learning cycle, focusing on the advancement of model evaluation methods and more cost effective measurements. For a successful model evaluation, I propose that three questions should be answered: 1) when is a model reproducing observations in a satisfactory way? 2) If model results deviate, of what nature is the difference? And 3) what are most likely the relevant model components affecting these differences? To answer the first two questions, I developed a new method to assess the temporal dynamics of model performance (or TIGER - TIme series of Grouped Errors). This method is powerful in highlighting recurrent patterns of insufficient model behaviour for long simulation periods. I answered the third question with the analysis of the temporal dynamics of parameter sensitivity (TEDPAS). For calculating TEDPAS, an efficient method for sensitivity analysis is necessary. I used such an efficient method called Fourier Amplitude Sensitivity Test, which has a smart sampling scheme. Combining the two methods TIGER and TEDPAS provided a powerful tool for model assessment. With WaSiM-ETH applied to the Weisseritz catchment as a case study, I found insufficient process descriptions for the snow dynamics and for the recession during dry periods in late summer and fall. Focusing on snow dynamics, reasons for poor model performance can either be a poor representation of snow processes in the model, or poor data on snow cover, or both. To obtain an improved data set on snow cover, time series of snow height and temperatures were collected with a cost efficient method based on temperature measurements on multiple levels at each location. An algorithm was developed to simultaneously estimate snow height and cold content from these measurements. Both, snow height and cold content are relevant quantities for spring flood forecasting. Spatial variability was observed at the local and the catchment scale with an adjusted sampling design. At the local scale, samples were collected on two perpendicular transects of 60 m length and analysed with geostatistical methods. The range determined from fitted theoretical variograms was within the range of the sampling design for 80% of the plots. No patterns were found, that would explain the random variability and spatial correlation at the local scale. At the watershed scale, locations of the extensive field campaign were selected according to a stratified sample design to capture the combined effects of elevation, aspect and land use. The snow height is mainly affected by the plot elevation. The expected influence of aspect and land use was not observed. To better understand the deficiencies of the snow module in WaSiM-ETH, the same approach, a simple degree day model was checked for its capability to reproduce the data. The degree day model was capable to explain the temporal variability for plots with a continuous snow pack over the entire snow season, if parameters were estimated for single plots. However, processes described in the simple model are not sufficient to represent multiple accumulation-melt-cycles, as observed for the lower catchment. Thus, the combined spatio-temporal variability at the watershed scale is not captured by the model. Further tests on improved concepts for the representation of snow dynamics at the Weißeritz are required. From the data I suggest to include at least rain on snow and redistribution by wind as additional processes to better describe spatio-temporal variability. Alternatively an energy balance snow model could be tested. Overall, the proposed learning cycle is a useful framework for targeted model improvement. The advanced model diagnostics is valuable to identify model deficiencies and to guide field measurements. The additional data collected throughout this work helps to get a deepened understanding of the processes in the Weisseritz catchment.
In diesem Beitrag wird "fallbasierte Lernberatung" als ein zentrales Moment der Weiterentwicklung der Studierfähigkeit der Studierenden vor- und dargestellt. Fallbasierte Lernberatung wird darin als reflexive Praktik verstanden, die in Lehrveranstaltungen oder begleitend zu Lehrveranstaltungen angeboten werden kann. Mit der Bereitstellung eines solchen Lernberatungsangebots wird zweierlei erreicht. Studierende erhalten die professionell begleitete Gelegenheit, ihre Lernfähigkeiten weiter zu entwickeln und Lehrende Aufschluss über die konkreten Lernprobleme der Studierenden. Dieser kann wiederum auf das Lehrangebot rückwirken und so die Qualität der Lehre verbessern helfen.
Polen regiert Europa
(2011)
Am 1. Juli übernimmt Polen die EU-Ratspräsidentschaft. Es ist eine Chance, sich als europapolitischer Akteur zu profilieren. Im Thema werden Prioritäten und Herausforderungen der polnischen Ratspräsidentschaft - das künftige EU-Budget, die Östliche Partnerschaft und die Beziehungen zu Russland - klar benannt und analysiert. Japan nach der Atomkatastrophe, die panarabische Revolution und die Lage in Israel sind weitere Schwerpunkte dieser Ausgabe.
Suez 2.0?
(2011)
Kaum hatte die deutsche Bundesregierung den Beschluss gefasst, den Beschluss im UN-Sicherheitsrat über eine Flugverbotszone über Libyen nicht zu fassen, ging eine Welle des Geschimpfes durch die politische Kaste dieses Landes. Diejenigen, die sich wahlweise so schön eingeschaukelt haben in das Bett der transatlantischen Subordination oder sich bereitwillig hinter Großsprüche französischer Ambition ducken, wenn sie gerade mal nicht den Vorgaben aus den USA folgen wollen, waren aufgeschreckt.
Neues deutsches Gedenken?
(2011)
Bedarf es eines neuen Gedenktages der Vertriebenen in Deutschland? Die deutsche Regierung meint Ja. Auf ihre Initiative hin wurde die Entschließung "60 Jahre Charta der deutschen Heimatvertriebenen – Aussöhnung vollenden" im Februar 2011 angenommen. Dieser Gedenktag soll der 5. August sein, also jener Tag, an dem 1950 die "Charta der deutschen Heimatvertriebenen" in Stuttgart angenommen wurde. Der Entschluss traf im Bundestag auf den Widerstand der Opposition – aber auch auf scharfe Kritik in Polen.
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
Human-induced alterations of the environment are causing biotic changes worldwide, including the extinction of species and a mixing of once disparate floras and faunas. One type of biological communities that is expected to be particularly affected by environmental alterations are herb layer plant communities of fragmented forests such as those in the west European lowlands. However, our knowledge about current changes in species diversity and composition in these communities is limited due to a lack of adequate long-term studies. In this thesis, I resurveyed the herb layer communities of ancient forest patches in the Weser-Elbe region (NW Germany) after two decades using 175 semi-permanent plots. The general objectives were (i) to quantify changes in plant species diversity considering also between-community (β) and functional diversity, (ii) to determine shifts in species composition in terms of species’ niche breadth and functional traits and (iii) to find indications on the most likely environmental drivers for the observed changes. These objectives were pursued with four independent research papers (Chapters 1-4) whose results were brought together in a General Discussion. Alpha diversity (species richness) increased by almost four species on average, whereas β diversity tended to decrease (Chapter 1). The latter is interpreted as a beginning floristic homogenization. The observed changes were primarily the result of a spread of native habitat generalists that are able to tolerate broad pH and moisture ranges. The changes in α and β diversity were only significant when species abundances were neglected (Chapters 1 and 2), demonstrating that the diversity changes resulted mainly from gains and losses of low-abundance species. This study is one of the first studies in temperate Europe that demonstrates floristic homogenization of forest plant communities at a larger than local scale. The diversity changes found at the taxonomic level did not result in similar changes at the functional level (Chapter 2). The likely reason is that these communities are functionally “buffered”. Single communities involve most of the functional diversity of the regional pool, i.e., they are already functionally rich, while they are functionally redundant among each other, i.e., they are already homogeneous. Independent of taxonomic homogenization, the abundance of 30 species decreased significantly (Chapter 4). These species included 12 ancient forest species (i.e., species closely tied to forest patches with a habitat continuity > 200 years) and seven species listed on the Red List of endangered plant species in NW Germany. If these decreases continue over the next decades, local extinctions may result. This biotic impoverishment would seriously conflict with regional conservation goals. Community assembly mechanisms changed at the local level particularly at sites that experienced disturbance by forest management activities between the sampling periods (Chapter 3). Disturbance altered community assembly mechanisms in two ways: (i) it relaxed environmental filters and allowed the coexistence of different reproduction strategies, as reflected by a higher diversity of reproductive traits at the time of the resurvey, and (ii) it enhanced light availability and tightened competitive filters. These limited the functional diversity with respect to canopy height and selected for taller species. Thirty-one winner and 30 loser species, which had significantly increased or decreased in abundance, respectively, were characterized by various functional traits and ecological performances to find indications on the most likely environmental drivers for the observed floristic changes (Chapter 4). Winner species had higher seed longevity, flowered later in the season and had more often an oceanic distribution compared to loser species. Loser species tended to have a higher specific leaf area, to be more susceptible to deer browsing and to have a performance optimum at higher soil pH values compared to winner species. Multiple logistic regression analyses indicated that disturbances due to forest management interventions were the primary cause of the species shifts. As one of the first European resurvey studies, this study provides indications that an enhanced browsing pressure due to increased deer densities and increasingly warmer winters are important drivers. The study failed to demonstrate that eutrophication and acidification due to atmospheric deposition substantially drive herb layer changes. The restriction of the sample to the most base-rich sites in the region is discussed as a likely reason. Furthermore, the decline of several ancient forest species is discussed as an indication that the forest patches are still paying off their “extinction debt”, i.e., exhibit a delayed response to forest fragmentation.
Vorliegender Leitfaden ist eines der Ergebnisse des Forschungsprojekts „Open Innovation in Life Sciences“ (OIL), das von Mai 2008 bis April 2011 an der Universität Potsdam durchgeführt wurde. Er nimmt für sich in Anspruch, gerade Innovationsmanager in kleinen und mittleren Unternehmen (KMU) der Pharmaindustrie bei der Einführung des Open Innovation Managements zu unterstützen. Zielsetzung des Forschungsprojekts war es, (1) die Chancen und Risiken von Open Innovation unter besonderer Berücksichtigung der Anforderungen von Pharma-KMU zu analysieren und (2) daraus abgeleitet ein Konzept zur Implementierung von Open Innovation bei Pharma-KMU zu entwickeln. Der Ausgangspunkt des Projektes war die Erkenntnis, dass die Life Sciences-Branche im Allgemeinen und die Pharmaindustrie im Besonderen durch eine steigende Komplexität der Innovationsprozesse und eine zunehmende Tendenz zu Kooperationen gekennzeichnet ist. Vor diesem Hintergrund eröffnet gerade der Open Innovation-Ansatz für die Pharmabranche neue Gestaltungs- und damit Wachstumsmöglichkeiten. Open Innovation – definiert als die planvolle Öffnung der Innovationsprozesse und die strategische Einbindung des Unternehmensumfelds – wird dabei als zentraler Erfolgsfaktor für die Innovationsfähigkeit beschrieben.
Das Hauptziel dieser Arbeit ist das Verständnis der molekularen Kristallisation, sowohl mit als auch ohne polymere Additive, als einen mehrstufigen Prozess. Dieser beinhaltet eine transiente flüssig-flüssig Phasentrennung, die Nukleation von Nanokristallen in der dichten flüssigen Precursor-Phase so wie eine anschließende nanokristalline Selbstorganisation. Die Arbeit beginnt mit Untersuchungen an einem quaternären Modelsystem bestehend aus DL-Glutamat (Glu), Polyethylenimin (PEI), Wasser und Ethanol. Das Phasendiagramm dieses quaternären Systems wird durch Variation der Glu/PEI w/w und Wasser/EtOH v/v Verhältnisse bestimmt, wobei Präzpitat aus polymerinduzierten flüssigen Precursor, Koazervate oder homogene Mischungen erhalten werden Das thermodynamisch stabile Koazervat kann als Referenz für das Verständnis von flüssigen Precursorn angesehen werden, welche in der Natur metastabil und transient sind. Der mehrstufige Mechanismus der Glu-Präzipitation mit PEI als Additiv wird dann mittels Neutronen Kleinwinkelstreuung untersucht. Dies zeigt, dass die ursprünglich gebildeten flüssigen Precursor noch vor der Nukleation von Nanokristallen einen Wechsel von Wachstum und Koaleszenz durchlaufen. Die Ergebnisse aus optischer- und Eletronenmikroskopie zeigen, dass sowohl die flüssigen Precursor Superstrukturen ausbilden als auch, dass die Nukleation von Nanoplättchen in jedem einzelnen Precursor Tropfen von statten geht. Dies geschieht noch bevor sich die Nanoplättchen selbst in einer radialen Orientierung ausrichten. Diese Studie liefert die Kinetik der Präzipitation von organischen Stoffen in Gegenwart von polymeren Additiven. Eine ähnliche Vorgehensweise wie für die Herstellung von Mikrokügelchen kann für die Darstellung von gemusterten Filmen angewandt werden. Die homogene Nukleation von Nanopartikeln (NPs) findet während der Verdampfung einer quarternären DL-Lys·HCl-Polyacrylsäure-Wasser-Ethanol Dispersion auf einer hydrophilen Oberfläche statt. Die darauffolgende vollständige Verdampfung löst die Mesokristallisation eines kontinuierlichen sphärolithischen dünnen Films aus, welcher sich wiederum in einen mesokristallinen dünnen Film umwandelt. Mesokristalline Filme mit 4 Hierarchiestufen bzw. auch periodische Filme werden durch die Verdampfung der Mikrokügelchen-Dispersion erhalten. Die Ergebnisse zeigen, dass die Verdampfung eine einfache aber effektive Methode zur Herstellung von verschieden gemusterten hierarchischen Filmen darstellt. Nicht-klassische Kristallisation wird auch in der Abwesenheit von polymeren Additiven beobachtet. Wir verfolgen mittels Rasterkraftmikroskop (AFM) die Nukleation und das Wachstum einer neuen molekularen Schicht auf wachsenden DL-Glu·H2O Kristallen aus übersättigter Mutterlauge. Die Bildung einer neuen molekularen Schicht verläuft durch die Anlagerung von amorphen Nanopartikeln. Das Schrumpfen der NPs zusammen mit der strukturellen Änderung von dreidimensionalen NPs zu 2D Schichten wird während dieses Relaxationsprozesses beobachtet. Schließlich kommt es zu der Ausbildung einer neuen molekularen Schicht. Die Bildung einer molekularen Schicht durch die Anlagerung von Nanopartikeln aus der Lösung und die darauffolgende Relaxation liefert ein abweichendes Bild zu der bisher gängigen klassischen Theorie des Kristallwachstums.
What is visualization?
(2011)
Over the last 20 years, information visualization became a common tool in science and also a growing presence in the arts and culture at large. However, the use of visualization in cultural research is still in its infancy. Based on the work in the analysis of video games, cinema, TV, animation, Manga and other media carried out in Software Studies Initiative at University of California, San Diego over last two years, a number of visualization techniques and methods particularly useful for cultural and media research are presented.
This co-authored paper is based on research that originated in 2003 when our team started a series of extensive field studies into the character of gameplay experiences. Originally within the Children as the Actors of Game Cultures research project, our aim was to better understand why particularly young people enjoy playing games, while also asking their parents how they perceive gaming as playing partners or as close observers. Gradually our in-depth interviews started to reveal a complex picture of more general relevance, where personal experiences, social contexts and cultural practices all came together to frame gameplay within something we called game cultures. Culture was the keyword, since we were not interested in studying games and play experiences in isolation, but rather as part of the rich meaning- making practices of lived reality.
This paper addresses a theoretical reconfiguration of experience, a repositioning of the techno-social within the domains of mobility, games, and play, and embodiment. The ideas aim to counter the notion that our experience with videogames (and digital media more generally), is largely “virtual” and disembodied – or at most exclusively audiovisual. Notions of the virtual and disembodied support an often-tacit belief that technologically mediated experiences count for nothing if not perceived and valued as human. It is here where play in particular can be put to work, be made to highlight and clarify, for it is in play that we find this value of humanity most wholly embodied. Further, it is in considering the design of the metagame that questions regarding the play experience can be most powerfully engaged. While most of any given game’s metagame emerges from play communities and their larger social worlds (putting it out of reach of game design proper), mobile platforms have the potential to enable a stitching together of these experiences: experiences held across time, space, communities, and bodies. This coming together thus represents a convergence not only of media, participants, contexts, and technologies, but of human experience itself. This coming together is hardly neat, nor fully realized. It is, if nothing else, multifaceted and worthy of further study. It is a convergence in which the dynamics of screen play are reengaged.
Define real, Moron!
(2011)
Academic language should not be a ghetto dialect at odds with ordinary language, but rather an extension that is compatible with lay-language. To define ‘game’ with the unrealistic ambition of satisfying both lay-people and experts should not be a major concern for a game ontology, since the field it addresses is subject to cultural evolution and diachronic change. Instead of the impossible mission of turning the common word into an analytic concept, a useful task for an ontology of games is to model game differences, to show how the things we call games can be different from each other in a number of different ways.
Space is understood best through movement, and complex spaces require not only movement but navigation. The theorization of navigable space requires a conceptual representation of space which is adaptable to the great malleability of video game spaces, a malleability which allows for designs which combine spaces with differing dimensionality and even involve non-Euclidean configurations with contingent connectivity. This essay attempts to describe the structural elements of video game space and to define them in such a way so as to make them applicable to all video game spaces, including potential ones still undiscovered, and to provide analytical tools for their comparison and examination. Along with the consideration of space, there will be a brief discussion of navigational logic, which arises from detectable regularities in a spatial structure that allow players to understand and form expectations regarding a game’s spaces.
Introduction
(2011)
The sixth volume of the DIGAREC Series holds the contributions to the DIGAREC Keynote-Lectures given at the University of Potsdam in the winter semester 2009/10. With contributions by Mark J.P. Wolf (Concordia University Wisconsin), Espen Aarseth (Center for Computer Games Research, IT University of Copenhagen), Katie Salen (Parsons New School of Design, New York), Laura Ermi and Frans Mäyrä (University of Tampere), and Lev Manovich (University of Southern California, San Diego).
The present thesis was born and evolved within the RAdial Velocity Experiment (RAVE) with the goal of measuring chemical abundances from the RAVE spectra and exploit them to investigate the chemical gradients along the plane of the Galaxy to provide constraints on possible Galactic formation scenarios. RAVE is a large spectroscopic survey which aims to observe spectroscopically ~10^6 stars by the end of 2012 and measures their radial velocities, atmospheric parameters and chemical abundances. The project makes use of the UK Schmidt telescope at Australian Astronomical Observatory (AAO) in Siding Spring, Australia, equipped with the multiobject spectrograph 6dF. To date, RAVE collected and measured more than 450,000 spectra. The precision of the chemical abundance estimations depends on the reliability of the atomic and atmosphere parameters adopted (in particular the oscillator strengths of the absorption lines and the effective temperature, gravity, and metallicity of the stars measured). Therefore we first identified 604 absorption lines in the RAVE wavelength range and refined their oscillator strengths with an inverse spectral analysis. Then, we improved the RAVE stellar parameters by modifying the RAVE pipeline and the spectral library the pipeline rely on. The modifications removed some systematic errors in stellar parameters discovered during this work. To obtain chemical abundances, we developed two different processing pipelines. Both of them perform chemical abundances measurements by assuming stellar atmospheres in Local Thermodynamic Equilibrium (LTE). The first one determines elements abundances from equivalent widths of absorption lines. Since this pipeline showed poor sensibility on abundances relative to iron, it has been superseded. The second one exploits the chi^2 minimization technique between observed and model spectra. Thanks to its precision, it has been adopted for the creation of the RAVE chemical catalogue. This pipeline provides abundances with uncertains of about ~0.2dex for spectra with signal-to-noise ratio S/N>40 and ~0.3dex for spectra with 20>S/N>40. For this work, the pipeline measured chemical abundances up to 7 elements for 217,358 RAVE stars. With these data we investigated the chemical gradients along the Galactic radius of the Milky Way. We found that stars with low vertical velocities |W| (which stay close to the Galactic plane) show an iron abundance gradient in agreement with previous works (~-0.07$ dex kpc^-1) whereas stars with larger |W| which are able to reach larger heights above the Galactic plane, show progressively flatter gradients. The gradients of the other elements follow the same trend. This suggests that an efficient radial mixing acts in the Galaxy or that the thick disk formed from homogeneous interstellar matter. In particular, we found hundreds of stars which can be kinetically classified as thick disk stars exhibiting a chemical composition typical of the thin disk. A few stars of this kind have already been detected by other authors, and their origin is still not clear. One possibility is that they are thin disk stars kinematically heated, and then underwent an efficient radial mixing process which blurred (and so flattened) the gradient. Alternatively they may be a transition population" which represents an evolutionary bridge between thin and thick disk. Our analysis shows that the two explanations are not mutually exclusive. Future follow-up high resolution spectroscopic observations will clarify their role in the Galactic disk evolution.
Processes with independent increments are characterized via a duality formula, including Malliavin derivative and difference operators. This result is based on a characterization of infinitely divisible random vectors by a functional equation. A construction of the difference operator by a variational method is introduced and compared to approaches used by other authors for L´evy processes involving the chaos decomposition. Finally we extend our method to characterize infinitely divisible random measures.
Poröse Sol-Gel-Materialien finden in vielen Bereichen Anwendung bzw. sind Gegenstand der aktuellen Forschung. Zu diesen Bereichen zählen sowohl klassische Anwendungen, wie z. B. die Verwendung als Katalysator, Molekularsieb oder Trockenmittel, als auch nichtklassische Anwendungen, wie z. B. der Einsatz als Kontrastmittel in der Magnet-Resonanz-Tomographie oder in Form von dünnen Zeolithfilmen als Isolatoren in Mikrochips. Auch für den Einsatz in der Photonik werden poröse Materialien in Betracht gezogen, wie die Entwicklung des Zeolith-Farbstoff-Lasers zeigt. Mikroporöse Zeolithe können generell über einfache Ionenaustauschreaktionen mit Lanthanoidionen in lumineszente Materialien umgewandelt werden. Neben der Erzeugung eines lumineszenten Materials, dessen Lumineszenzeigenschaften charakterisiert werden müssen, bietet die Nutzung von Lanthanoidionen die Möglichkeit diese Ionen als Sonde zur Charakterisierung der Ion-Wirt-Wechselwirkungen zu funktionalisieren, was z. B. in Bezug auf die Anwendung als Katalysator von großer Bedeutung ist. Dabei werden die einzigartigen Lumineszenzeigenschaften der Lanthanoidionen, in diesem Fall von Europium(III) und Terbium(III), genutzt. In dieser Arbeit wurden Lanthanoid-dotierte mikroporöse Zeolithe, mikroporös-mesoporöse Hybridmaterialien und mesoporöse Silikate hinsichtlich ihrer Lumineszenzeigenschaften und ihrer Wechselwirkung des Wirtsmaterials mit den Lanthanoidionen mittels zeitaufgelöster Lumineszenzspektroskopie untersucht. Zeitaufgelöste Emissionsspektren (TRES) liefern dabei sowohl Informationen in der Wellenlängen- als auch in der Zeitdomäne. Erstmalig wurden die TRES mittels einer umfangreichen Auswertemethodik behandelt. Neben der Anpassung des Abklingverhaltens mit einer diskreten Zahl von Exponentialfunktionen, wurden unterstützend auch Abklingzeitverteilungsanalysen durchgeführt. Zeitaufgelöste flächennormierte Emissionsspektren (TRANES), eine Erweiterung der normalen TRES, konnten erstmals zur Bestimmung der Zahl der emittierenden Lanthanoidspezies in porösen Materialien genutzt werden. Durch die Berechnung der Decayassoziierten Spektren (DAS) konnten den Lanthanoidspezies die entsprechenden Lumineszenzspektren zugeordnet werden. Zusätzlich konnte, speziell im Fall der Europium-Lumineszenz, durch Kombination von zeitlicher und spektraler Information das zeitabhängige Asymmetrieverhältnis R und die spektrale Evolution des 5D0-7F0-Übergangs mit der Zeit t untersucht und somit wesentliche Informationen über die Verteilung der Europiumionen im Wirtsmaterial erhalten werden. Über die Abklingzeit und das Asymmetrieverhältnis R konnten Rückschlüsse auf die Zahl der OH-Oszillatoren in der ersten Koordinationssphäre und die Symmetrie der Koordinationsumgebung gezogen werden. Für die mikroporösen und mikroporös-mesoporösen Materialien wurden verschiedene Lanthanoidspezies, im Regelfall zwei, gefunden, welche entsprechend der beschriebenen Methoden charakterisiert wurden. Diese Lanthanoidspezies konnten Positionen in den Materialien zugeordnet werden, die sich im tief Inneren des Porensystems oder auf bzw. nahe der äußeren Oberfläche oder in den Mesoporen befinden. Erstere Spezies ist aufgrund ihrer Position im Material gut vor Feuchtigkeitseinflüssen geschützt, was sich deutlich in entsprechend langen Lumineszenzabklingzeiten äußert. Zusätzlich ist diese Europiumspezies durch unsymmetrische Koordinationsumgebung charakterisiert, was auf einen signifikanten Anteil an Koordination der Lanthanoidionen durch die Sauerstoffatome im Wirtsgitter zurückzuführen ist. Ionen, die sich nahe oder auf der äußeren Oberfläche befinden, sind dagegen für Feuchtigkeit zugänglicher, was in kürzeren Lumineszenzabklingzeiten und einer symmetrischeren Koordinationsumgebung resultiert. Der Anteil von Wassermolekülen in der ersten Koordinationssphäre ist hier deutlich größer, als bei den Ionen, die sich tiefer im Porensystem befinden und entspricht in vielen Fällen der Koordinationszahl eines vollständig hydratisierten Lanthanoidions. Auch der Einfluss von Oberflächenmodifikationen auf die Speziesverteilung und das Verhalten der Materialien gegenüber Feuchtigkeit wurde untersucht. Dabei gelang es den Einfluss der Feuchtigkeit auf die Lumineszenzeigenschaften und die Speziesverteilung durch die Oberflächenmodifikation zu verringern und die Lumineszenzeigenschaften teilweise zu konservieren. Im Fall der mesoporösen Silikamonolithe wurde auch eine heterogene Verteilung der Lanthanoidionen im Porensystem gefunden. Hier wechselwirkt ein Teil der Ionen mit der Porenwand, während sich die restlichen Ionen in der wäßrigen Phase innerhalb des Porensystems aufhalten. Das Aufbringen von Oberflächenmodifikationen führte zu einer Wechselwirkung der Ionen mit diesen Oberflächenmodifikationen, was sich in Abhängigkeit von der Oberflächenbeladung in den enstprechenden Lumineszenzeigenschaften niederschlug.
The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-Ålesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-Ålesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53–1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-Ålesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution.
Magnetische Nanopartikel bieten ein großes Potential, da sie einerseits die Eigenschaften ihrer Bulk-Materialien besitzen und anderseits, auf Grund ihrer Größe, über komplett unterschiedliche magnetische Eigenschaften verfügen können; Superparamagnetismus ist eine dieser Eigenschaften. Die meisten etablierten Anwendungen magnetischer Nanopartikel basieren heutzutage auf Eisenoxiden. Diese bieten gute magnetische Eigenschaften, sind chemisch relativ stabil, ungiftig und lassen sich auf vielen Synthesewegen relativ einfach herstellen. Die magnetischen Eigenschaften der Eisenoxide sind materialabhängig aber begrenzt, weshalb nach anderen Verbindungen mit besseren Eigenschaften gesucht werden muss. Eisencarbid (Fe3C) kann eine dieser Verbindungen sein. Dieses besitzt vergleichbare positive Eigenschaften wie Eisenoxid, jedoch viel bessere magnetische Eigenschaften, speziell eine höhere Sättigungsmagnetisierung. Bis jetzt wurde Fe3C hauptsächlich in Gasphasenabscheidungsprozessen synthetisiert oder als Nebenprodukt bei der Synthese von Kohlenstoffstrukturen gefunden. Eine Methode, mit der gezielt Fe3C-Nanopartikel und andere Metallcarbide synthetisiert werden können, ist die „Harnstoff-Glas-Route“. Neben den Metallcarbiden können mit dieser Methode auch die entsprechenden Metallnitride synthetisiert werden, was die breite Anwendbarkeit der Methode unterstreicht. Die „Harnstoff-Glas-Route“ ist eine Kombination eines Sol-Gel-Prozesses mit einer anschließenden carbothermalen Reduktion/Nitridierung bei höheren Temperaturen. Sie bietet den Vorteil einer einfachen und schnellen Synthese verschiedener Metallcarbide/nitride. Der Schwerpunkt in dieser Arbeit lag auf der Synthese von Eisencarbiden/nitriden, aber auch Nickel und Kobalt wurden betrachtet. Durch die Variation der Syntheseparameter konnten verschiedene Eisencarbid/nitrid Nanostrukturen synthetisiert werden. Fe3C-Nanopartikel im Größenbereich von d = 5 – 10 nm konnten, durch die Verwendung von Eisenchlorid, hergestellt werden. Die Nanopartikel weisen durch ihre geringe Größe superparamagnetische Eigenschaften auf und besitzen, im Vergleich zu Eisenoxid Nanopartikeln im gleichen Größenbereich, eine höhere Sättigungsmagnetisierung. Diese konnten in fortführenden Experimenten erfolgreich in ionischen Flüssigkeiten und durch ein Polymer-Coating, im wässrigen Medium, dispergiert werden. Desweiteren wurde durch ein Templatieren mit kolloidalem Silika eine mesoporöse Fe3C-Nanostruktur hergestellt. Diese konnte erfolgreich in der katalytischen Spaltung von Ammoniak getestet werden. Mit der Verwendung von Eisenacetylacetonat konnten neben Fe3C-Nanopartikeln, nur durch Variation der Reaktionsparameter, auch Fe7C3- und Fe3N-Nanopartikel synthetisiert werden. Speziell für die Fe3C-Nanopartikel konnte die Sättigungsmagnetisierung, im Vergleich zu den mit Eisenchlorid synthetisierten Nanopartikeln, nochmals erhöht werden. Versuche mit Nickelacetat führten zu Nickelnitrid (Ni3N) Nanokristallen. Eine zusätzliche metallische Nickelphase führte zu einer Selbstorganisation der Partikel in Scheiben-ähnliche Überstrukturen. Mittels Kobaltacetat konnten, in Sphären aggregierte, metallische Kobalt Nanopartikel synthetisiert werden. Kobaltcarbid/nitrid war mit den gegebenen Syntheseparametern nicht zugänglich.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
Darmkrebs ist die zweithäufigste malignombedingte Todesursache in den westlichen Industrieländern. Durch eine frühzeitige Diagnose besteht jedoch eine hohe Chance auf Heilung. Der Goldstandard zur Darmkrebsfrüherkennung ist gegenwärtig die Koloskopie. Eine Darmspiegelung ist jedoch invasiv und mit Unannehmlichkeiten für den Patienten verbunden. Die Akzeptanz in der Bevölkerung ist daher gering. Ziel des BMBF- Projektes „Entwicklung eines nichtinvasiven Nachweissystems zur Früherkennung von humanem Darmkrebs“, in dessen Rahmen diese Arbeit entstand, ist die Bereitstellung eines nichtinvasiven Nachweisverfahrens zur Darmkrebsfrüherkennung. Der Nachweis soll über die Detektion von aus neoplastischen Zellen stammender DNA in Stuhl erfolgen. Die Entartung dieser Zellen beruht auf Veränderungen im Erbgut, welches unter anderem Mutationen sind. Im ersten Teil des BMBF-Projektes wurde ein Set von Mutationen zusammengestellt, welches eine hohe Sensitivität für Vorstufen von Darmkrebs aufweist. Ziel dieser Arbeit war es, eine Nachweismethode für die zuvor identifizierten Punktmutationen zu entwickeln. Das Nachweisverfahren musste dabei unempfindlich gegen einen hohen Hintergrund nichtmutierter DNA sein, da im Stuhl geringe Mengen DNA aus neoplastischen Zellen bei einem hohen Hintergrund von DNA aus gesunden Zellen vorliegen. Hierzu wurden Plasmidmodellsysteme für die aus dem Marker-Set stammenden Genfragmente BRAF und dessen Mutante V600E, CTNNB1 und T41I, T41A, S45P und K-ras G12C hergestellt. Mit Hilfe dieser Plasmidmodellsysteme wurde dann das Nachweissystem entwickelt. Der entscheidende Schritt für die Detektion von Punktmutationen bei hohem Wildtypüberschuss ist eine vorhergehende Anreicherung. In der vorliegenden Arbeit wurde dazu die Methode der LNA-clamp-PCR (locked nucleic acid) etabliert. Die Bewertung der erzielten Anreicherung erfolgte über das relative Detektionslimit. Zur Bestimmung des Detektionslimits wurde die Schmelzkurvenanalyse von Hybridisierungssonden eingesetzt; diese wurde im Rahmen dieser Arbeit für die drei oben genannten Genfragmente und ihre Mutanten entwickelt. Die LNA-clamp-PCR wird in Anwesenheit eines LNA-Blockers durchgeführt. Das Nukleotidanalogon LNA weist im Vergleich zu DNA eine erhöhte Affinität zu komplementären DNA-Strängen auf. Gleichzeitig kommt es bei Anwesenheit einer Basenfehlpaarung zu einer größeren Destabilisierung der Bindung. Als Blocker werden kurze LNA-DNA-Hybridoligonukleotide eingesetzt, die den mutierten Sequenzbereich überspannen und selbst der Wildtypsequenz entsprechen. Durch Bindung an die Wildtypsequenz wird deren Amplifikation während der PCR verhindert (clamp = arretieren, festklemmen). Der Blocker selbst wird dabei nicht verlängert. Der Blocker bindet unter optimalen Bedingungen jedoch nicht an die mutierte Sequenz. Die Mutante wird daher ungehindert amplifiziert und somit gegenüber dem Wildtyp-Fragment angereichert. Die Position des Blockers kann im Bindungsbereich eines der Primer sein und hier dessen Hybridisierung an dem Wildtyp-Fragment verhindern oder zwischen den beiden Primern liegen und so die Synthese durch die Polymerase inhibieren. Die Anwendbarkeit beider Systeme wurde in dieser Arbeit gezeigt. Die LNA-clamp-PCR mit Primerblocker wurde für BRAF etabliert. Es wurde ein Detektionslimit von mindestens 1:100 erzielt. Die LNA-clamp-PCR mit Amplifikationsblocker wurde erfolgreich für BRAF, K-ras und CTNNB1: T41I, T41A mit einem Detektionslimit von 1:1000 bis 1:10 000 entwickelt. In Stuhlproben liegt DNA aus neoplastischen Zellen nach Literaturangaben zu einem Anteil von 1% bis 0,1% vor. Die LNA-clamp-PCR weist also mit Amplifikationsblockern ein ausreichend hohes Detektionslimit für die Analyse von Stuhlproben auf. Durch die erfolgreiche Etablierung der Methode auf drei verschiedenen Genfragmenten und vier unterschiedlichen Punktmutationen konnte deren universelle Einsetzbarkeit gezeigt werden. Für die Ausweitung der LNA-clamp-PCR auf die übrigen Mutationen des Marker-Sets wurden Richtlinien ausgearbeitet und die Blockereffizienz als Kennzahl eingeführt. Die LNA-clamp-PCR ist ein schnelles, kostengünstiges Verfahren, welches einen geringen Arbeitsaufwand erfordert und wenig fehleranfällig ist. Sie ist somit ein geeignetes Anreicherungsverfahren für Punktmutationen in einem diagnostischen System zur Darmkrebsfrüherkennung. Darüber hinaus kann die LNA-clamp-PCR auch in anderen Bereichen, in denen die Detektion von Punktmutationen in einem hohen Wildtyphintergrund erforderlich ist, eingesetzt werden.
In Zeiten von PISA-Vergleichsstudien sind die sozialen Probleme Jugendlicher im Zusammenhang mit der Globalisierung, insbesondere in Osteuropa, etwas aus dem Blick geraten. Rund 20 Jahre nach dem Systemumbruch in Mittel- und Osteuropa stellt sich jedoch die Frage, was Jugendliche in Polen, Russland und Deutschland vereint bzw. noch trennt. Dieser zentralen Frage geht der vorliegende Band – anhand eines Kulturvergleichs – in drei Länderbeiträgen nach und untersucht Gemeinsamkeiten und Unterschiede zwischen den Jugendlichen hinsichtlich deren Einstellungen, Lebens- und Wertvorstellungen u. ä. Angesichts „unsicherer Zeiten“ ist davon auszugehen, dass die sozialen Probleme Jugendlicher auch künftig nicht geringer werden. Deshalb wird die Beobachtung, Analyse und Begleitung der Jugendentwicklung in Osteuropa eine wichtige Aufgabe bleiben – sowohl für Sozial- und Bildungsforscher als auch für Lehrer, Erzieher und Sozialarbeiter.
Geleitwort
(2011)
Grußwort
(2011)
Grenzen setzen
(2011)
Rechtsextremismus und Raum
(2011)
The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa.
The creation of complex polymer structures has been one of the major research topics over the last couple of decades. This work deals with the synthesis of (block co-)polymers, the creation of complex and stimuli-responsive aggregates by self-assembly, and the cross-linking of these structures. Also the higher-order self-assembly of the aggregates is investigated. The formation of poly-2-oxazoline based micelles in aqueous solution and their simultaneous functionalization and cross-linking using thiol-yne chemistry is e.g. presented. By introducing pH responsive thiols in the core of the micelles the influence of charged groups in the core of micelles on the entire structure can be studied. The charging of these groups leads to a swelling of the core and a decrease in the local concentration of the corona forming block (poly(2-ethyl-2-oxazoline)). This decrease in concentration yields a shift in the cloud point temperature to higher temperatures for this Type I thermoresponsive polymer. When the swelling of the core is prohibited, e.g. by the introduction of sufficient amounts of salt, this behavior disappears. Similar structures can be prepared using complex coacervate core micelles (C3Ms) built through the interaction of weakly acidic and basic polymer blocks. The advantage of these structures is that two different stabilizing blocks can be incorporated, which allows for more diverse and complex structures and behavior of the micelles. Using block copolymers with either a polyanionic or a polycationic block C3Ms could be created with a corona which contains two different soluble nonionic polymers, which either have a mixed corona or a Janus type corona, depending on the polymers that were chosen. Using NHS and EDC the micelles could easily be cross-linked by the formation of amide bonds in the core of the micelles. The higher-order self-assembly behavior of these core cross-linked complex coacervate core micelles (C5Ms) was studied. Due to the cross-linking the micelles are stabilized towards changes in pH and ionic strength, but polymer chains are also no longer able to rearrange. For C5Ms with a mixed corona likely network structures were formed upon the collapse of the thermoresponsive poly(N-isopropylacrylamide) (PNIPAAm), whereas for Janus type C5Ms well defined spherical aggregates of micelles could be obtained, depending on the pH of the solution. Furthermore it could be shown that Janus micelles can adsorb onto inorganic nanoparticles such as colloidal silica (through a selective interaction between PEO and the silica surface) or gold nanoparticles (by the binding of thiol end-groups). Asymmetric aggregates were also formed using the streptavidin-biotin binding motive. This is achieved by using three out of the four binding sites of streptavidin for the binding of one three-arm star polymer, end-functionalized with biotin groups. A homopolymer with one biotin end-group can be used to occupy the last position. This binding of two different polymers makes it possible to create asymmetric complexes. This phase separation is theoretically independent of the kind of polymer since the structure of the protein is the driving force, not the intrinsic phase separation between polymers. Besides Janus structures also specific cross-linking can be achieved by using other mixing ratios.
Non-mycorrhizal fungal endophytes are able to colonize internally roots without causing visible disease symptoms establishing neutral or mutualistic associations with plants. These fungi known as non-clavicipitaceous endophytes have a broad host range of monocot and eudicot plants and are highly diverse. Some of them promote plant growth and confer increased abiotic-stress tolerance and disease resistance. According to such possible effects on host plants, it was aimed to isolate and to characterize native fungal root endophytes from tomato (Lycopersicon esculentum Mill.) and to analyze their effects on plant development, plant resistance and fruit yield and quality together with the model endophyte Piriformospora indica. Fifty one new fungal strains were isolated from desinfected tomato roots of four different crop sites in Colombia. These isolates were roughly characterized and fourteen potential endophytes were further analyzed concerning their taxonomy, their root colonization capacity and their impact on plant growth. Sequencing of the ITS region from the ribosomal RNA gene cluster and in-depth morphological characterisation revealed that they correspond to different phylogenetic groups among the phylum Ascomycota. Nine different morphotypes were described including six dark septate endophytes (DSE) that did not correspond to the Phialocephala group. Detailed confocal microscopy analysis showed various colonization patterns of the endophytes inside the roots ranging from epidermal penetration to hyphal growth through the cortex. Tomato pot experiments under glass house conditions showed that they differentially affect plant growth depending on colonization time and inoculum concentration. Three new isolates (two unknown fungal endophyte DSE48, DSE49 and one identified as Leptodontidium orchidicola) with neutral or positiv effects were selected and tested in several experiments for their influence on vegetative growth, fruit yield and quality and their ability to diminish the impact of the pathogen Verticillium dahliae on tomato plants. Although plant growth promotion by all three fungi was observed in young plants, vegetative growth parameters were not affected after 22 weeks of cultivation except a reproducible increase of root diameter by the endophyte DSE49. Additionally, L. orchidicola increased biomass and glucose content of tomato fruits, but only at an early date of harvest and at a certain level of root colonization. Concerning bioprotective effects, the endophytes DSE49 and L. orchidicola decreased significantly disease symptoms caused by the pathogen V. dahliae, but only at a low dosis of the pathogen. In order to analyze, if the model root endophytic fungus Piriformospora indica could be suitable for application in production systems, its impact on tomato was evaluated. Similarly to the new fungal isolates, significant differences for vegetative growth parameters were only observable in young plants and, but protection against V. dahliae could be seen in one experiment also at high dosage of the pathogen. As the DSE L. orchidicola, P. indica increased the number and biomass of marketable tomatoes only at the beginning of fruit setting, but this did not lead to a significant higher total yield. If the effects on growth are due to a better nutrition of the plant with mineral element was analyzed in barley in comparison to the arbuscular mycorrhizal fungus Glomus mosseae. While the mycorrhizal fungus increased nitrogen and phosphate uptake of the plant, no such effect was observed for P. indica. In summary this work shows that many different fungal endophytes can be also isolated from roots of crops and, that these isolates can have positive effects on early plant development. This does, however, not lead to an increase in total yield or in improvement of fruit quality of tomatoes under greenhouse conditions.
This paper offers empirical evidence on the power of Sornette et al's [2001] model of bubbles and crashes regarding the German stock market between 1960 and 2009. We identify relevant time periods and describe them with the function given by Sornette et al's model. Our results show some evidence in predicting crashes with the understanding of logarithmic periodic structures that are hidden in the stock price trajectories. It was shown that for the DAX most of the relevant parameters determining the shape of the logarithmic periodic structures are lying in the expected interval researched by Sornette et al. Further more the paper implicitly shows that the point of time of former crashes can be predicted with the presented formula. We conclude that the concept of financial time series conceived as purely random objects should be generalised as to admit complexity.
Die statistische Analyse der Ertragslage öffentlicher Unternehmen bringt Informationen über die Ertragskraft dieser Unternehmensgruppe. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentlichen Aufgaben als an betriebswirtschaftlicher Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Öffentliche Unternehmen haben im Mittel wegen der Spezifik ihrer Aufgaben und politisch determinierter Preise einen geringeren Umsatz als private Unternehmen. Im Vergleich zu privaten sind öffentliche Unternehmen auch durch eine höhere Zinselastizität, die mit einem hohen Verschuldungsgrad zusammenhängt, und eine höhere Abschreibungsintensität gekennzeichnet. Die letzte ist auf das umfangreiche öffentliche Vermögen zurückzuführen. Im Großen und Ganzen unterstreicht die statistische Analyse der Ertragslage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten.
Die Analyse der Finanzlage öffentlicher Unternehmen bringt Informationen über die Kapitalbereitstellung und die Liquidität dieser Unternehmen. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentliche Aufgaben als an betriebswirtschaftliche Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Dank der Kapitalzuführungen von der öffentlichen Hand haben öffentliche Unternehmen in Deutschland höhere und zunehmende Eigenkapital- und Rücklagenquoten im Vergleich zu privaten Unternehmen, während ihr durchschnittlicher Innenfinanzierungsgrad und ihre Kapitalrückflussquote unter denen im privaten Sektor liegen. Insgesamt wird durch die Analyse der Finanzlage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten unterstrichen.
Die Identifikation von Einflussfaktoren und deren Wirkungsrichtung auf die Kursentwicklung einer Aktie ist von großer Bedeutung für die Finanzmarktanalyse. Die wechselseitigen Zusammenhänge zwischen den Renditen spezifischer Aktien sind solche relevante Informationen. In diesem Beitrag werden die Interdependenzen von Aktienrenditen auf der Grundlage vektorautoregressiver (VAR)-Modelle für kleine, homogene Brachen- und Marktsegmente analysiert. Hierzu wurden die Renditen ausgewählter im Deutschen Aktienindex (DAX) notierter Unternehmen zu drei Branchensegmenten zusammengefasst. Darüber hinaus zeigt sich am Beispiel der Hoechst-Aktie, dass eine gemeinsame DAX-Notierung Einfluss auf das Beziehungsgeflecht der Renditen innerhalb eines Brachensegmentes nimmt.
Mit dem vorliegenden Band „Nach Bologna: Praktika im Studium – Pflicht oder Kür? Empirische Analysen und Empfehlungen für die Hochschulpraxis“ von Wilfried Schubarth, Karsten Speck und Andreas Seidel wird die Reihe „Potsdamer Beiträge zur Lehrevaluation“ unter neuem Titel und veränderter inhaltlicher Schwerpunktsetzung fortgeführt. Die Umbenennung in „Potsdamer Beiträge zur Hochschulforschung“ versteht sich als ein Schritt hin zu einer thematischen Öffnung der Reihe für die verschiedensten Felder der Hochschulforschung. Der vorliegende Band widmet sich einem der zentralen Reformziele von Bologna: der Frage des Praxis- und Berufsbezugs und dabei insbesondere den Praxisphasen im Studium. Mit der Bologna-Reform werden im bildungspolitischen Bereich sehr vielfältige strukturelle und inhaltliche Ziele verfolgt. Das Ziel dieses Bandes besteht deshalb darin, empirische Forschungen zu Praxisbezügen und Praxisphasen im Studium vorzustellen, diese in den Kontext aktueller Debatten um Studienqualität und Studienreform zu stellen sowie Folgerungen für die Gestaltung von Praxisphasen abzuleiten. Inhaltliche Schwerpunkte bilden das BMBF-Forschungsprojekt ProPrax und die Praxisphasen im Lehramtsstudium. Die Beiträge dieses Bandes gehen aus einem gleichnamigen Workshop hervor, der am 1. Oktober 2010 in Potsdam stattfand.
Die Arbeit befasst sich theoretisch und empirisch mit der so genannten Public Service Motivation (PSM) und ihrem Zusammenhang zu anderen psychologischen Motivationstheorien. Die Public Service Motivation geht davon aus, dass öffentlich Beschäftigte unter anderem dadurch motiviert sind, dass sie in ihrer Arbeit einen Dienst am Gemeinwohl sehen. Auf Basis einer empirischen Erhebung konnte dieses Konstrukt auch für Beschäftigte in Deutschland nachgewiesen und der Einfluss soziodemographischer Variablen bestätigt werden. Darüber hinaus gibt die Arbeit erste Hinweise auf Zusammenhänge zu verschiedenen Prozesstheorien der Motivation. Empirisch zeigt sich vor allem zur Gleichheitstheorie und dem darauf aufbauenden Equity Sensitivity Construct ein starker Zusammenhang.
Von der Natur geschaffene Polymere faszinieren Polymerforscher durch ihre spezielle auf eine bestimmte Aufgabe ausgerichtete Funktionalität. Diese ergibt sich aus ihrer Bausteinabfolge uber die Ausbildung von Uberstrukturen. Dazu zählen zum Beispiel Proteine (Eiweiße), aus deren Gestalt sich wichtige Eigenschaften ergeben. Diese Struktureigenschaftsbeziehung gilt ebenso für funktionelle synthetische Makromoleküle. Demzufolge kann die Kontrolle der Monomersequenz in Polymeren bedeutend für die resultierende Form des Polymermoleküls sein. Obwohl die Synthese von synthetischen Polymeren mit der Komplexität und der Größe von Proteinen in absehbarer Zeit wahrscheinlich nicht gelingen wird, können wir von der Natur lernen, um neuartige Polymermaterialien mit definierten Strukturen (Sequenzen) zu synthetisieren. Deshalb ist die Entwicklung neuer und besserer Techniken zur Strukturkontrolle von großem Interesse für die Synthese von Makromolekülen, die perfekt auf ihre Funktion zugeschnitten sind. Im Gegensatz zu der Anzahl fortgeschrittener Synthesestrategien zum Design aus- gefallener Polymerarchitekturen – wie zum Beispiel Sterne oder baumartige Polymere (Dendrimere) – gibt es vergleichsweise wenig Ansätze zur echten Sequenzkontrolle in synthetischen Polymeren. Diese Arbeit stellt zwei unterschiedliche Techniken vor, mit denen die Monomersequenz innerhalb eines Polymers kontrolliert werden kann. Gerade bei den großtechnisch bedeutsamen radikalischen Polymerisationen ist die Sequenzkontrolle schwierig, weil die chemischen Bausteine (Monomere) sehr reaktiv sind. Im ersten Teil dieser Arbeit werden die Eigenschaften zweier Monomere (Styrol und N-substituiertes Maleinimid) geschickt ausgenutzt, um in eine Styrolkette definierte und lokal scharf abgegrenzte Funktionssequenzen einzubauen. Uber eine kontrollierte radikalische Polymerisationsmethode (ATRP) wurden in einer Ein-Topf-Synthese über das N-substituierte Maleinimid chemische Funktionen an einer beliebigen Stelle der Polystyrolkette eingebaut. Es gelang ebenfalls, vier unterschiedliche Funktionen in einer vorgegebenen Sequenz in die Polymerkette einzubauen. Diese Technik wurde an zwanzig verschiedenen N-substituierten Maleinimiden getestet, die meisten konnten erfolgreich in die Polymerkette integriert werden. In dem zweiten in dieser Arbeit vorgestellten Ansatz zur Sequenzkontrolle, wurde der schrittweise Aufbau eines Oligomers aus hydrophoben und hydrophilen Segmenten (ω-Alkin-Carbonsäure bzw. α-Amin-ω-Azid-Oligoethylenglycol) an einem löslichen Polymerträger durchgeführt. Das Oligomer konnte durch die geschickte Auswahl der Verknüpfungsreaktionen ohne Schutzgruppenstrategie synthetisiert werden. Der lösliche Polymerträger aus Polystyrol wurde mittels ATRP selbst synthetisiert. Dazu wurde ein Startreagenz (Initiator) entwickelt, das in der Mitte einen säurelabilen Linker, auf der einen Seite die initiierende Einheit und auf der anderen die Ankergruppe für die Anbindung des ersten Segments trägt. Der lösliche Polymerträger ermöglichte einerseits die schrittweise Synthese in Lösung. Andererseits konnten überschüssige Reagenzien und Nebenprodukte zwischen den Reaktionsschritten durch Fällung in einem Nicht-Lösungsmittel einfach abgetrennt werden. Der Linker ermöglichte die Abtrennung des Oligomers aus jeweils drei hydrophoben und hydrophilen Einheiten nach der Synthese.
Daß die Rhetorik für die Literatur und Wissenschaft der Frühen Neuzeit von größter Bedeu-tung ist, gehört seit langem zum Grundbestand der Forschung. Trotzdem ist praktisch keine der großen Rhetoriken dieser Zeit in einer neuen Ausgabe oder gar Übersetzung zugänglich. Die vorliegende Ausgabe ist ein erster Schritt, dieser unbefriedigenden Situation Abhilfe zu verschaffen, indem sie Philipp Melanchthons Elementa rhetorices zum ersten Mal in einer kritischen Ausgabe und Übersetzung zur Verfügung stellt. Neben den De copia verborum ac rerum des Erasmus sind Melanchthon Elementa rhetorices wahrscheinlich das meistgedruckte Lehrbuch des 16. Jahrhunderts. 1531 zum ersten Mal erschienen und bis 1539 mehrmals überarbeitet und erweitert, erscheinen sie bis zum Ende des Jahrhunderts in über hundert Ausgaben. An zahllosen Schulen und Universitäten im protestantischen Raum war ihre Lektüre für Generationen von Schülern Pflicht, die Dichter des 17. Jahrhunderts sind mit ihr zur Schule gegangen. Die vorliegende Ausgabe ist nicht nur die erste kritische Ausgabe des Textes, sondern auch die erste vollständige Übersetzung. Die bisher unbekannten Varianten der Ausgaben 1531, 1532 und 1536 sind in einem Variantenverzeichnis erfaßt. Der teilweise schwer zugänglichen Text wird durch einen umfangreichen Kommentar, ein Nachwort und ein Glossar erschlossen. Dabei wird nicht nur der Text selbst in der Form wiedergegeben, in der er dem Leser des 16. Jahrhunderts vorlag, sondern auch der den Elementa rhetorices ursprünglich beigegebene Anhang. Dieser Anhang umfaßt neben drei Briefen von Seneca und Plinius d. J. vor allem die "Gegensätzlichen Briefe" Giovanni Picos della Mirandola und Franz Burchards, einem Schüler Melanchthons. Burchard übernimmt hier die Verteidigung der Rhetorik gegen den über fünfzig Jahre zuvor geführten, scharfen und spöttischen Angriff Picos della Mirandola, der schnell zu einer gewissen Berühmtheit gelangt war. Melanchthon hielt die Verteidigung Burchards nicht nur der Aufnahme in sein Lehrbuch für würdig, sondern verfaßte auch umfangreiche, interpretierende Marginalien zu beiden Briefen. Indem diese Marginalien von den Herausgebern der Gesamtausgabe von Melanchthons Werken nicht aufgenommen wurden, bietet die Ausgabe mit diesen Marginalien auch die erste Edition eines bisher unbekannten Textes.