Refine
Has Fulltext
- yes (595) (remove)
Year of publication
- 2011 (595) (remove)
Document Type
- Article (282)
- Doctoral Thesis (110)
- Postprint (67)
- Monograph/Edited Volume (60)
- Review (23)
- Master's Thesis (15)
- Part of Periodical (13)
- Working Paper (7)
- Part of a Book (6)
- Habilitation Thesis (3)
Language
- German (419)
- English (161)
- Multiple languages (8)
- Russian (5)
- French (2)
Keywords
- Bürgerschaft (16)
- Deutschland (16)
- Integration (16)
- Migration (16)
- Afghanistan (15)
- Germany (15)
- International Politics (15)
- Internationale Politik (15)
- Politische Theorie (15)
- Friedens- und Konfliktforschung (14)
Institute
- MenschenRechtsZentrum (70)
- WeltTrends e.V. Potsdam (61)
- Institut für Slavistik (49)
- Wirtschaftswissenschaften (49)
- Institut für Romanistik (33)
- Institut für Jüdische Studien und Religionswissenschaft (32)
- Vereinigung für Jüdische Studien e. V. (32)
- Extern (30)
- Institut für Physik und Astronomie (23)
- Institut für Biochemie und Biologie (22)
Fusarium spp. infection of cereal grain is a common problem, which leads to a dramatic loss of grain quality. The aim of the present study was to investigate the effect of Fusarium infection on the wheat storage protein gluten and its fractions, the gliadins and glutenins, in an in vitro model system. Gluten proteins were digested by F. graminearum proteases for 2, 4, 8 and 24 h, separated by Osborne fractionation and characterised by chromatographic (RP-HPLC) and electrophoretic analysis (SDS-Page). Gluten digestion by F. graminearum proteases showed in comparison with gliadins a preference for the glutenins whereas the HMW subfraction was at most affected. In comparison with a untreated control, the HMW subfraction was degraded of about 97% after 4 h incubation with Fusarium proteases. Separate digestion of gliadin and glutenin underlined the preference for HMW-GS. Analogue to the observed change in the gluten composition, the yield of the proteins extracted changed. A higher amount of glutenin fragments was found in the gliadin extraction solution after digestion and could mask a gliadin destruction at the same time. This observation can contribute to explain the frequently reported reduced glutenin amount parallel to an increase in gliadin quantity after Fusarium infection in grains.
Background
In many species males face a higher predation risk than females because males display elaborate traits that evolved under sexual selection, which may attract not only females but also predators. Females are, therefore, predicted to avoid such conspicuous males under predation risk. The present study was designed to investigate predator-induced changes of female mating preferences in Atlantic mollies (Poecilia mexicana). Males of this species show a pronounced polymorphism in body size and coloration, and females prefer large, colorful males in the absence of predators.
Results
In dichotomous choice tests predator-naïve (lab-reared) females altered their initial preference for larger males in the presence of the cichlid Cichlasoma salvini, a natural predator of P. mexicana, and preferred small males instead. This effect was considerably weaker when females were confronted visually with the non-piscivorous cichlid Vieja bifasciata or the introduced non-piscivorous Nile tilapia (Oreochromis niloticus). In contrast, predator experienced (wild-caught) females did not respond to the same extent to the presence of a predator, most likely due to a learned ability to evaluate their predators' motivation to prey.
Conclusions
Our study highlights that (a) predatory fish can have a profound influence on the expression of mating preferences of their prey (thus potentially affecting the strength of sexual selection), and females may alter their mate choice behavior strategically to reduce their own exposure to predators. (b) Prey species can evolve visual predator recognition mechanisms and alter their mate choice only when a natural predator is present. (c) Finally, experiential effects can play an important role, and prey species may learn to evaluate the motivational state of their predators.
Many organisms have developed defences to avoid predation by species at higher trophic levels. The capability of primary producers to defend themselves against herbivores affects their own survival, can modulate the strength of trophic cascades and changes rates of competitive exclusion in aquatic communities. Algal species are highly flexible in their morphology, growth form, biochemical composition and production of toxic and deterrent compounds. Several of these variable traits in phytoplankton have been interpreted as defence mechanisms against grazing. Zooplankton feed with differing success on various phytoplankton species, depending primarily on size, shape, cell wall structure and the production of toxins and deterrents. Chemical cues associated with (i) mechanical damage, (ii) herbivore presence and (iii) grazing are the main factors triggering induced defences in both marine and freshwater phytoplankton, but most studies have failed to disentangle the exact mechanism(s) governing defence induction in any particular species. Induced defences in phytoplankton include changes in morphology (e.g. the formation of spines, colonies and thicker cell walls), biochemistry (such as production of toxins, repellents) and in life history characteristics (formation of cysts, reduced recruitment rate). Our categorization of inducible defences in terms of the responsible induction mechanism provides guidance for future work, as hardly any of the available studies on marine or freshwater plankton have performed all the treatments that are required to pinpoint the actual cue(s) for induction. We discuss the ecology of inducible defences in marine and freshwater phytoplankton with a special focus on the mechanisms of induction, the types of defences, their costs and benefits, and their consequences at the community level.
Die Beiträge des vorliegenden Sammelbandes gehen auf die wissenschaftliche Fachtagung „Grenzen der Toleranz. Rechtsextremes Milieu und demokratische Gesellschaft in Brandenburg - Bilanz und Perspektiven" zurück, die im Mai 2009 in Potsdam stattfand. Auf der Tagung hielten verschiedene Wissenschaftler Vorträge, die ihrerseits durch Praktiker/innen mittels „Kommentaren aus der Praxis“ gespiegelt wurden. Die meisten Vorträge der Tagung finden sich in diesem Band nun in überarbeiteter, in der Regel erweiterter und aktualisierter Form wieder. In einem Fall wurde ein Text aufgenommen, der aus einem längeren „Kommentar aus der Praxis“ entstanden ist. Die Beiträge kreisen um das Problem des Rechtsextremismus, seinen Erscheinungsformen und Praktiken in Brandenburg und darüber hinaus, und beleuchten die staatlichen und zivilgesellschaftlichen Gegenmaßnahmen und –strategien. Dabei wird deutlich: Brandenburg hat zwar noch ein Rechtsextremismusproblem - aber auch vielfältige Strategien und Erfahrungen in der erfolgreichen Auseinandersetzung mit diesem Phänomen.
Darmkrebs ist die zweithäufigste malignombedingte Todesursache in den westlichen Industrieländern. Durch eine frühzeitige Diagnose besteht jedoch eine hohe Chance auf Heilung. Der Goldstandard zur Darmkrebsfrüherkennung ist gegenwärtig die Koloskopie. Eine Darmspiegelung ist jedoch invasiv und mit Unannehmlichkeiten für den Patienten verbunden. Die Akzeptanz in der Bevölkerung ist daher gering. Ziel des BMBF- Projektes „Entwicklung eines nichtinvasiven Nachweissystems zur Früherkennung von humanem Darmkrebs“, in dessen Rahmen diese Arbeit entstand, ist die Bereitstellung eines nichtinvasiven Nachweisverfahrens zur Darmkrebsfrüherkennung. Der Nachweis soll über die Detektion von aus neoplastischen Zellen stammender DNA in Stuhl erfolgen. Die Entartung dieser Zellen beruht auf Veränderungen im Erbgut, welches unter anderem Mutationen sind. Im ersten Teil des BMBF-Projektes wurde ein Set von Mutationen zusammengestellt, welches eine hohe Sensitivität für Vorstufen von Darmkrebs aufweist. Ziel dieser Arbeit war es, eine Nachweismethode für die zuvor identifizierten Punktmutationen zu entwickeln. Das Nachweisverfahren musste dabei unempfindlich gegen einen hohen Hintergrund nichtmutierter DNA sein, da im Stuhl geringe Mengen DNA aus neoplastischen Zellen bei einem hohen Hintergrund von DNA aus gesunden Zellen vorliegen. Hierzu wurden Plasmidmodellsysteme für die aus dem Marker-Set stammenden Genfragmente BRAF und dessen Mutante V600E, CTNNB1 und T41I, T41A, S45P und K-ras G12C hergestellt. Mit Hilfe dieser Plasmidmodellsysteme wurde dann das Nachweissystem entwickelt. Der entscheidende Schritt für die Detektion von Punktmutationen bei hohem Wildtypüberschuss ist eine vorhergehende Anreicherung. In der vorliegenden Arbeit wurde dazu die Methode der LNA-clamp-PCR (locked nucleic acid) etabliert. Die Bewertung der erzielten Anreicherung erfolgte über das relative Detektionslimit. Zur Bestimmung des Detektionslimits wurde die Schmelzkurvenanalyse von Hybridisierungssonden eingesetzt; diese wurde im Rahmen dieser Arbeit für die drei oben genannten Genfragmente und ihre Mutanten entwickelt. Die LNA-clamp-PCR wird in Anwesenheit eines LNA-Blockers durchgeführt. Das Nukleotidanalogon LNA weist im Vergleich zu DNA eine erhöhte Affinität zu komplementären DNA-Strängen auf. Gleichzeitig kommt es bei Anwesenheit einer Basenfehlpaarung zu einer größeren Destabilisierung der Bindung. Als Blocker werden kurze LNA-DNA-Hybridoligonukleotide eingesetzt, die den mutierten Sequenzbereich überspannen und selbst der Wildtypsequenz entsprechen. Durch Bindung an die Wildtypsequenz wird deren Amplifikation während der PCR verhindert (clamp = arretieren, festklemmen). Der Blocker selbst wird dabei nicht verlängert. Der Blocker bindet unter optimalen Bedingungen jedoch nicht an die mutierte Sequenz. Die Mutante wird daher ungehindert amplifiziert und somit gegenüber dem Wildtyp-Fragment angereichert. Die Position des Blockers kann im Bindungsbereich eines der Primer sein und hier dessen Hybridisierung an dem Wildtyp-Fragment verhindern oder zwischen den beiden Primern liegen und so die Synthese durch die Polymerase inhibieren. Die Anwendbarkeit beider Systeme wurde in dieser Arbeit gezeigt. Die LNA-clamp-PCR mit Primerblocker wurde für BRAF etabliert. Es wurde ein Detektionslimit von mindestens 1:100 erzielt. Die LNA-clamp-PCR mit Amplifikationsblocker wurde erfolgreich für BRAF, K-ras und CTNNB1: T41I, T41A mit einem Detektionslimit von 1:1000 bis 1:10 000 entwickelt. In Stuhlproben liegt DNA aus neoplastischen Zellen nach Literaturangaben zu einem Anteil von 1% bis 0,1% vor. Die LNA-clamp-PCR weist also mit Amplifikationsblockern ein ausreichend hohes Detektionslimit für die Analyse von Stuhlproben auf. Durch die erfolgreiche Etablierung der Methode auf drei verschiedenen Genfragmenten und vier unterschiedlichen Punktmutationen konnte deren universelle Einsetzbarkeit gezeigt werden. Für die Ausweitung der LNA-clamp-PCR auf die übrigen Mutationen des Marker-Sets wurden Richtlinien ausgearbeitet und die Blockereffizienz als Kennzahl eingeführt. Die LNA-clamp-PCR ist ein schnelles, kostengünstiges Verfahren, welches einen geringen Arbeitsaufwand erfordert und wenig fehleranfällig ist. Sie ist somit ein geeignetes Anreicherungsverfahren für Punktmutationen in einem diagnostischen System zur Darmkrebsfrüherkennung. Darüber hinaus kann die LNA-clamp-PCR auch in anderen Bereichen, in denen die Detektion von Punktmutationen in einem hohen Wildtyphintergrund erforderlich ist, eingesetzt werden.
Praktikum
(2011)
Die vorliegende Arbeit basiert auf Forschungen in den Jahren 2007-2009. Sie betrachtet die saisonale Arbeitsmigration aus der polnischen Region Konin, wo die Arbeitsmigration aus ökonomischen Gründen, wie auch in ähnlich strukturierten Gebieten Polens, eine lange Tradition hat, die bis ins 19. Jahrhundert zurückgeht. Sie wird die saisonale Migration ins Ausland mit den ökonomischen, sozialen und räumlichen Auswirkungen aus der Perspektive des Einzelnen und seiner unmittelbaren Umgebung, aber auch der Gesellschaft und Herkunftsgebiet der Migranten betrachtet.
Im Potsdamer Stadtteil Babelsberg gab der Präsident der USA, Harry S. Truman, am 24. Juli 1945 den folgenschweren Befehl, die ersten Atombomben über Japan abzuwerfen. Bis zu diesem Tag war die Nutzung der Kernenergie eine von Forschern lediglich erdachte Möglichkeit. Mit Trumans Befehl wurde sie zur schrecklichen Wirklichkeit. Es begann eine neue Ära der Menschheit – das Atomzeitalter.
Thematische Schwerpunkte des Sammelbandes bilden die Inhalte und die Ziele in der Erforschung und Analyse von Migrationsprozessen und die daraus resultierenden Situationen von Sprachkontakt und Kulturtransfer in Europa und Übersee. Neben der thematischen Einführung in die Migrationslinguistik widmet sich der Band den migrationsbedingten Formen des Sprachkontaktes und der Sprachverwendung in Nordamerika sowie verschiedenen Sprachdynamiken in Europa. Auch der sprachliche Integrationsdruck zwischen Asien und Lateinamerika wird in diesem Band thematisiert. Neben Beiträgen von bekannten Migrationslinguisten wie Georges Lüdi (Universität Basel) und Hermann Haller (City University, New York) finden sich theoretische und deskriptive Ansätze zu Sprachkontakt, Sprachwandel und Sprachverfall infolge von Migration aus der Perspektive verschiedener Einzelphilologien. Mit Beiträgen von Lena Busse, Elizabeth Couper-Kuhlen, Hermann Haller, Friederike Kern, Georges Lüdi, Isolde Pfaff, Elton Prifti, Claudia Schlaak, Margret Selting, Thomas Stehl, Lars Steinicke und Maria Wilke.
Internationale Forschungsbefunde zu ‚Teaching in Higher Education’ konstatieren immer wieder eine Nicht-Übereinstimmung zwischen intentional angelegten Lehrinhalten und Lernzielen und tatsächlich hervorgebrachten Fähigkeiten. Sie legen eine formative Evaluation von akademischen Lehr-Lern-Angeboten nahe, um bereits im Verlauf einer Lehrveranstaltung auf etwaige Lernschwierigkeiten und –barrieren reagieren zu können. Das an deutschen Hochschulen gängige Repertoire sozial-wissenschaftlicher Evaluationsinstrumente fokussiert jedoch zumeist auf summative quantitative Verfahren, die weder den verschiedenen Formaten akademischer Lehre noch dem komplexen Interaktionsgeschehen in Lehr-Lern-Kontexten gerecht zu werden scheinen, indem sie auf die Abfrage studentischer Zufriedenheitsniveaus abstellen. Anliegen dieses Beitrages ist es daher, ein von der Verfasserin entwickeltes multifunktionales und metakognitiv angelegtes Lehr-Lern-Forschungsinstrument, die ‚doc.post’ vorzustellen, das sich insbesondere zur Ausbildung generischer Kompetenzen in verschiedenen universitären erziehungs- und kulturwissenschaftlichen Studiengängen bewährt hat. Die ‚doc.post’ eignet sich gleichermaßen als Evaluations- und Prüfungsinstrument sowie für weitergehende Forschungsaktivitäten, die Qualität der eigenen Lehre betreffend.
Italese und Americaliano
(2011)
Inhalt: Markus Loewe: Konzeptionelle Stärken und Schwächen der Millennium : Development Goals (MDGs) Ingo Winkelmann: Die Vereinten Nationen, das Seerecht und die Polarregionen Helmut Volger: Die Reform der Arbeitsmethoden des Sicherheitsrats – eine Bilanz nach zwei Jahrzehnten Norman Weiß: Der UN-Menschenrechtsschutz zehn Jahre nach dem Millenniumsgipfel – neue Strukturen und neue Herausforderungen – auch neue Chancen? Otto Lampe: Deutschland und die Vereinten Nationen – aktuelle Entwicklungen
Data in business processes
(2011)
Prozesse und Daten sind gleichermaßen wichtig für das Geschäftsprozessmanagement. Prozessdaten sind dabei insbesondere im Kontext der Automatisierung von Geschäftsprozessen, dem Prozesscontrolling und der Repräsentation der Vermögensgegenstände von Organisationen relevant. Es existieren viele Prozessmodellierungssprachen, von denen jede die Darstellung von Daten durch eine fest spezifizierte Menge an Modellierungskonstrukten ermöglicht. Allerdings unterscheiden sich diese Darstellungenund damit der Grad der Datenmodellierung stark untereinander. Dieser Report evaluiert verschiedene Prozessmodellierungssprachen bezüglich der Unterstützung von Datenmodellierung. Als einheitliche Grundlage entwickeln wir ein Framework, welches prozess- und datenrelevante Aspekte systematisch organisiert. Die Kriterien legen dabei das Hauptaugenmerk auf die datenrelevanten Aspekte. Nach Einführung des Frameworks vergleichen wir zwölf Prozessmodellierungssprachen gegen dieses. Wir generalisieren die Erkenntnisse aus den Vergleichen und identifizieren Cluster bezüglich des Grades der Datenmodellierung, in welche die einzelnen Sprachen eingeordnet werden.
Supermassive black holes are a fundamental component of the universe in general and of galaxies in particular. Almost every massive galaxy harbours a supermassive black hole (SMBH) in its center. Furthermore, there is a close connection between the growth of the SMBH and the evolution of its host galaxy, manifested in the relationship between the mass of the black hole and various properties of the galaxy's spheroid component, like its stellar velocity dispersion, luminosity or mass. Understanding this relationship and the growth of SMBHs is essential for our picture of galaxy formation and evolution. In this thesis, I make several contributions to improve our knowledge on the census of SMBHs and on the coevolution of black holes and galaxies. The first route I follow on this road is to obtain a complete census of the black hole population and its properties. Here, I focus particularly on active black holes, observable as Active Galactic Nuclei (AGN) or quasars. These are found in large surveys of the sky. In this thesis, I use one of these surveys, the Hamburg/ESO survey (HES), to study the AGN population in the local volume (z~0). The demographics of AGN are traditionally represented by the AGN luminosity function, the distribution function of AGN at a given luminosity. I determined the local (z<0.3) optical luminosity function of so-called type 1 AGN, based on the broad band B_J magnitudes and AGN broad Halpha emission line luminosities, free of contamination from the host galaxy. I combined this result with fainter data from the Sloan Digital Sky Survey (SDSS) and constructed the best current optical AGN luminosity function at z~0. The comparison of the luminosity function with higher redshifts supports the current notion of 'AGN downsizing', i.e. the space density of the most luminous AGN peaks at higher redshifts and the space density of less luminous AGN peaks at lower redshifts. However, the AGN luminosity function does not reveal the full picture of active black hole demographics. This requires knowledge of the physical quantities, foremost the black hole mass and the accretion rate of the black hole, and the respective distribution functions, the active black hole mass function and the Eddington ratio distribution function. I developed a method for an unbiased estimate of these two distribution functions, employing a maximum likelihood technique and fully account for the selection function. I used this method to determine the active black hole mass function and the Eddington ratio distribution function for the local universe from the HES. I found a wide intrinsic distribution of black hole accretion rates and black hole masses. The comparison of the local active black hole mass function with the local total black hole mass function reveals evidence for 'AGN downsizing', in the sense that in the local universe the most massive black holes are in a less active stage then lower mass black holes. The second route I follow is a study of redshift evolution in the black hole-galaxy relations. While theoretical models can in general explain the existence of these relations, their redshift evolution puts strong constraints on these models. Observational studies on the black hole-galaxy relations naturally suffer from selection effects. These can potentially bias the conclusions inferred from the observations, if they are not taken into account. I investigated the issue of selection effects on type 1 AGN samples in detail and discuss various sources of bias, e.g. an AGN luminosity bias, an active fraction bias and an AGN evolution bias. If the selection function of the observational sample and the underlying distribution functions are known, it is possible to correct for this bias. I present a fitting method to obtain an unbiased estimate of the intrinsic black hole-galaxy relations from samples that are affected by selection effects. Third, I try to improve our census of dormant black holes and the determination of their masses. One of the most important techniques to determine the black hole mass in quiescent galaxies is via stellar dynamical modeling. This method employs photometric and kinematic observations of the galaxy and infers the gravitational potential from the stellar orbits. This method can reveal the presence of the black hole and give its mass, if the sphere of the black hole's gravitational influence is spatially resolved. However, usually the presence of a dark matter halo is ignored in the dynamical modeling, potentially causing a bias on the determined black hole mass. I ran dynamical models for a sample of 12 galaxies, including a dark matter halo. For galaxies for which the black hole's sphere of influence is not well resolved, I found that the black hole mass is systematically underestimated when the dark matter halo is ignored, while there is almost no effect for galaxies with well resolved sphere of influence.
In der vorliegenden Arbeit analysiert Yann Wernert die Rolle der Afrikanischen Union im Rahmen von Regionalkonflikten in Afrika. Dabei wird insbesondere Wert auf die konkrete Vorgehensweise der Afrikanischen Union in den jeweiligen Konflikten gelegt. Untersucht wird der Bürgerkrieg in Somalia sowie die Versuche seitens der internationalen Gemeinschaft, eine stabile politische Ordnung wieder aufzubauen. Ebenfalls analysiert wird der Darfur-Konflikt im Sudan und die Möglichkeiten, den regelmäßig stattfindenden Massakern Einhalt zu gebieten. Der Untersuchungszeitraum erstreckt sich von 2003 bis 2007.
Das G.I.F.-Drittmittelprojekt über die Arbeit des Menschenrechtsausschusses der Vereinten Nationen
(2011)
Corvino, Corvino and Schoen, Chruściel and Delay have shown the existence of a large class of asymptotically flat vacuum initial data for Einstein's field equations which are static or stationary in a neighborhood of space-like infinity, yet quite general in the interior. The proof relies on some abstract, non-constructive arguments which makes it difficult to calculate such data numerically by using similar arguments. A quasilinear elliptic system of equations is presented of which we expect that it can be used to construct vacuum initial data which are asymptotically flat, time-reflection symmetric, and asymptotic to static data up to a prescribed order at space-like infinity. A perturbation argument is used to show the existence of solutions. It is valid when the order at which the solutions approach staticity is restricted to a certain range. Difficulties appear when trying to improve this result to show the existence of solutions that are asymptotically static at higher order. The problems arise from the lack of surjectivity of a certain operator. Some tensor decompositions in asymptotically flat manifolds exhibit some of the difficulties encountered above. The Helmholtz decomposition, which plays a role in the preparation of initial data for the Maxwell equations, is discussed as a model problem. A method to circumvent the difficulties that arise when fast decay rates are required is discussed. This is done in a way that opens the possibility to perform numerical computations. The insights from the analysis of the Helmholtz decomposition are applied to the York decomposition, which is related to that part of the quasilinear system which gives rise to the difficulties. For this decomposition analogous results are obtained. It turns out, however, that in this case the presence of symmetries of the underlying metric leads to certain complications. The question, whether the results obtained so far can be used again to show by a perturbation argument the existence of vacuum initial data which approach static solutions at infinity at any given order, thus remains open. The answer requires further analysis and perhaps new methods.
Der Beitrag widmet sich dem Genre der „galizischen“ Ghettogeschichte und bezieht sich auf Nathan Samuelys zweibändige Cultur-Bilder aus dem jüdischen Leben in Galizien (1885 und 1892) und auf Karl Emil Franzos’ Novellenzyklus Die Juden von Barnow (1877) sowie stellenweise auf ausgewählte Texte aus Franzos’ Band Aus Halb-Asien. Culturbilder aus Galizien, der Bukowina, Südrußland und Rumänien (1876). Durchgeführt wird eine punktuelle Analyse der literarischen Typologie und der Handlungsräume in den genannten Texten, wobei die Ghettogeschichten in ihrer Gesamtheit als ein komplexes soziokulturelles Konstrukt einer Mikrogesellschaft problematisiert werden.
The essay compares the dichotomous concepts of corporeality and spirituality in Judaism and Christianity. Through the ages, deviations from normative principles of beliefs could be discerned in both religions. These can be attributed either to the somewhat confrontational interaction between Jews and Christians in the Medieval urban environment or to the impact of Hellenic civilization on both monotheistic religions. Out of this dynamic impact emerged Christian art with a predilection to expressed corporeality, whereas Jewish religiosity found its artistic expression in a spiritual noniconographical mode. A genuine Jewish art and iconography could develop only after a certain degree of assimilation and secularization. Marc Chagall was the first protagonist of a mature expression of Jewish iconography.
This thesis covers the topic ”Thinning and Turbulence in Aqueous Films”. Experimental studies in two-dimensional systems gained an increasing amount of attention during the last decade. Thin liquid films serve as paradigms of atmospheric convection, thermal convection in the Earth’s mantle or turbulence in magnetohydrodynamics. Recent research on colloids, interfaces and nanofluids lead to advances in the developtment of micro-mixers (lab-on-a-chip devices). In this project a detailed description of a thin film experiment with focus on the particular surface forces is presented. The impact of turbulence on the thinning of liquid films which are oriented parallel to the gravitational force is studied. An experimental setup was developed which permits the capturing of thin film interference patterns under controlled surface and atmospheric conditions. The measurement setup also serves as a prototype of a mixer on the basis of thermally induced turbulence in liquid thin films with thicknesses in the nanometer range. The convection is realized by placing a cooled copper rod in the center of the film. The temperature gradient between the rod and the atmosphere results in a density gradient in the liquid film, so that different buoyancies generate turbulence. In the work at hand the thermally driven convection is characterized by a newly developed algorithm, named Cluster Imaging Velocimetry (CIV). This routine determines the flow relevant vector fields (velocity and deformation). On the basis of these insights the flow in the experiment was investigated with respect to its mixing properties. The mixing characteristics were compared to theoretical models and mixing efficiency of the flow scheme calculated. The gravitationally driven thinning of the liquid film was analyzed under the influence of turbulence. Strong shear forces lead to the generation of ultra-thin domains which consist of Newton black film. Due to the exponential expansion of the thin areas and the efficient mixing, this two-phase flow rapidly turns into the convection of only ultra-thin film. This turbulence driven transition was observed and quantified for the first time. The existence of stable convection in liquid nanofilms was proven for the first time in the context of this work.
Zwischenruf: Obama und Osama
(2011)
Wie aus heiterem Himmel teilte US-Präsident Barack Obama mit, Osama bin Laden, der mutmaßlich Hauptverantwortliche für die Anschläge auf das World Trade Center in New York am 11. September 2001, sei durch US-Spezialkräfte erschossen worden. Ist nun der "Kampf der Kulturen" zu Ende? Dann der Hinweis, Osama sei schon zuvor politisch tot gewesen; die arabischen Revolutionen hätten den politischen Schwerpunkt auf Menschenrechte und Demokratie verlegt. Doch die Ermordung bin Ladens deutet eine andere Entwicklung an: Die Abschaffung von Freiheit und Menschenrechten im Namen von Freiheit und Menschenrechten.
Vernachlässigte Dyslexien
(2011)
Produktion von Eigennamen
(2011)
The modeling and evaluation calculus FMC-QE, the Fundamental Modeling Concepts for Quanti-tative Evaluation [1], extends the Fundamental Modeling Concepts (FMC) for performance modeling and prediction. In this new methodology, the hierarchical service requests are in the main focus, because they are the origin of every service provisioning process. Similar to physics, these service requests are a tuple of value and unit, which enables hierarchical service request transformations at the hierarchical borders and therefore the hierarchical modeling. Through reducing the model complexity of the models by decomposing the system in different hierarchical views, the distinction between operational and control states and the calculation of the performance values on the assumption of the steady state, FMC-QE has a scalable applica-bility on complex systems. According to FMC, the system is modeled in a 3-dimensional hierarchical representation space, where system performance parameters are described in three arbitrarily fine-grained hierarchi-cal bipartite diagrams. The hierarchical service request structures are modeled in Entity Relationship Diagrams. The static server structures, divided into logical and real servers, are de-scribed as Block Diagrams. The dynamic behavior and the control structures are specified as Petri Nets, more precisely Colored Time Augmented Petri Nets. From the structures and pa-rameters of the performance model, a hierarchical set of equations is derived. The calculation of the performance values is done on the assumption of stationary processes and is based on fundamental laws of the performance analysis: Little's Law and the Forced Traffic Flow Law. Little's Law is used within the different hierarchical levels (horizontal) and the Forced Traffic Flow Law is the key to the dependencies among the hierarchical levels (vertical). This calculation is suitable for complex models and allows a fast (re-)calculation of different performance scenarios in order to support development and configuration decisions. Within the Research Group Zorn at the Hasso Plattner Institute, the work is embedded in a broader research in the development of FMC-QE. While this work is concentrated on the theoretical background, description and definition of the methodology as well as the extension and validation of the applicability, other topics are in the development of an FMC-QE modeling and evaluation tool and the usage of FMC-QE in the design of an adaptive transport layer in order to fulfill Quality of Service and Service Level Agreements in volatile service based environments. This thesis contains a state-of-the-art, the description of FMC-QE as well as extensions of FMC-QE in representative general models and case studies. In the state-of-the-art part of the thesis in chapter 2, an overview on existing Queueing Theory and Time Augmented Petri Net models and other quantitative modeling and evaluation languages and methodologies is given. Also other hierarchical quantitative modeling frameworks will be considered. The description of FMC-QE in chapter 3 consists of a summary of the foundations of FMC-QE, basic definitions, the graphical notations, the FMC-QE Calculus and the modeling of open queueing networks as an introductory example. The extensions of FMC-QE in chapter 4 consist of the integration of the summation method in order to support the handling of closed networks and the modeling of multiclass and semaphore scenarios. Furthermore, FMC-QE is compared to other performance modeling and evaluation approaches. In the case study part in chapter 5, proof-of-concept examples, like the modeling of a service based search portal, a service based SAP NetWeaver application and the Axis2 Web service framework will be provided. Finally, conclusions are given by a summary of contributions and an outlook on future work in chapter 6. [1] Werner Zorn. FMC-QE - A New Approach in Quantitative Modeling. In Hamid R. Arabnia, editor, Procee-dings of the International Conference on Modeling, Simulation and Visualization Methods (MSV 2007) within WorldComp ’07, pages 280 – 287, Las Vegas, NV, USA, June 2007. CSREA Press. ISBN 1-60132-029-9.
Die öffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterstützen. Da die öffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verstärkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterstützung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Ursprünge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der Lösungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Ursprünge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs können auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollständig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die Möglichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zusätzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) könnte der Einsatz des PRM Vorteile für die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische Lücke zwischen PRM und CIM zu überbrücken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen dafür die im Projekt "E-LoGo" an der Universität Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchgängige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterstützt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorwärts- und rückwärtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. Über den offensichtlichen Nutzen einer durchgängigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzesänderung, Berücksichtigung des vollständigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzmöglichkeit für eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, können die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium berücksichtigt werden. Die am 16. März 2011 in Kraft getretene Änderung des NKRG schreibt eine solche Analyse des so genannten „Erfüllungsaufwands“ für Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. Für diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen über den Änderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen.
Die Progressive Supranukleäre Blickparese (PSP) ist eine sporadisch auftretende neurodegenerative Erkrankung im Rahmen der atypischen Parkinson-Syndrome (APS), die im frühen Verlauf häufig mit dem Idiopathischen Parkinson-Syndrom (IPS) verwechselt wird. Dabei ist die Dysarthrie als eine erworbene, zentral bedingte sprechmotorische Störung ein häufiges und früh auftretendes Symptom bei PSP. Bislang spricht man von einer eher unspezifischen „gemischten“ Dysarthrie aus hypokinetischen, spastischen und auch ataktischen Komponenten. Im Rahmen einer explorativen Querschnittsstudie am „Fachkrankenhaus für Bewegungsstörungen und Parkinson“ Beelitz-Heilstätten in Kooperation mit der „Entwicklungsgruppe Klinische Neuropsychologie“ München (EKN) sowie der „Interdisziplinären Ambulanz für Bewegungsstörungen“ am Klinikum München-Großhadern wurden 50 Patienten dahingehend untersucht, ob sich für die Progressive Supranukleäre Blickparese (PSP) eine spezielle, frühzeitig zu diagnostizierende und differentialdiagnostisch relevante Dysarthrie beschreiben ließe. In diesem Zusammenhang soll geklärt werden, ob es sich um phänotypische Ausprägungen im Rahmen eines Störungsspektrums handelt oder ob sich differenzierbare Subtypen der Krankheit, insbesondere ein „klassischer“ PSP-Typ (PSP-RS) und ein „atypischer“ PSP-Typ (PSP-P), auch im Bereich der Dysarthrie zeigen. Im Rahmen der Untersuchungen wurde der Schweregrad der Erkrankung mittels der „PSP-sensitiven Ratingskala (PSPRS)“ gemessen. Die Dysarthriediagnostik erfolgte anhand der „Bogenhausener Dysarthrieskalen (BoDyS)“ zur Beschreibung der Art und Ausprägung der Dysarthrie bei PSP. Die Verständlichkeit wurde mithilfe des „Münchner Verständlichkeits-Profils (MVP)" sowie eines weiteren Transkriptionsverfahrens ermittelt, wobei Ausschnitte aus den Tests zum Lesen und Nachsprechen der BoDyS zugrunde lagen. Weiterhin erfolgte eine Einschätzung der Natürlichkeit des Sprechens. Die Ergebnisse hinsichtlich des Einflusses von Natürlichkeit und Verständlichkeit des Sprechens auf den Schweregrad der Dysarthrie zeigten, dass dieser modalitätenübergreifend mit beiden Schweregradaspekten korreliert, wenngleich es offenbar die Natürlichkeit des Sprechens ist, die bei PSP bereits frühzeitig beeinträchtigt ist und somit als das entscheidende differentialdiagnostische Kriterium zur Differenzierung zwischen beiden PSP-Subtypen zu beurteilen ist, möglicherweise auch gegenüber anderen Parkinson-Syndromen. Anhand statistisch valider Ergebnisse konnten spezifische Störungsmerkmale der Dysarthrie extrahiert werden, die eine signifikante Trennung von PSP-RS und PSP-P ermöglichen: eine leise und behaucht-heisere Stimme sowie ein verlangsamtes Sprechtempo und Hypernasalität. Damit können für die hier fokussierten Subtypen der PSP zwei unterschiedliche Dysarthrietypen postuliert werden. Danach wird dem Subtyp PSP-RS eine spastisch betonte Dysarthrie mit ausgeprägter Verlangsamung des Sprechtempos zugeordnet, dem Subtyp PSP-P hingegen eine hypokinetische Dysarthrie mit behaucht-heiserer Hypophonie. Desweiteren konnte ein „Dysarthrie-Schwellenwert“ als Zusatzkriterium für eine zeitliche Differenzierung beider PSP-Subtypen ermittelt werden. Anhand der Daten zeigte sich die Dysarthrie bei dem Subtyp PSP-RS gleich zu Beginn der Erkrankung, jedoch spätestens 24 Monate danach. Hingegen konnte die Dysarthrie beim Subtyp PSP-P frühestens 24 Monate nach Erkrankungsbeginn festgestellt werden. Die Daten dieser Studie verdeutlichen, dass der Frage nach einer subtypenspezifischen Ausprägung der Dysarthrie bei PSP eine Längsschnittsstudie folgen sollte, um die ermittelten Ergebnisse zu konsolidieren.
Die Wahrnehmung von Geschmacksempfindungen beruht auf dem Zusammenspiel verschiedener Sinneseindrücke wie Schmecken, Riechen und Tasten. Diese Komplexität der gustatorischen Wahrnehmung erschwert die Beantwortung der Frage wie Geschmacksinformationen vom Mund ins Gehirn weitergeleitet, prozessiert und kodiert werden. Die Analysen zur neuronalen Prozessierung von Geschmacksinformationen erfolgten zumeist mit Bitterstimuli am Mausmodell. Zwar ist bekannt, dass das Genom der Maus für 35 funktionelle Bitterrezeptoren kodiert, jedoch war nur für zwei unter ihnen ein Ligand ermittelt worden. Um eine bessere Grundlage für tierexperimentelle Arbeiten zu schaffen, wurden 16 der 35 Bitterrezeptoren der Maus heterolog in HEK293T-Zellen exprimiert und in Calcium-Imaging-Experimenten funktionell charakterisiert. Die Daten belegen, dass das Funktionsspektrum der Bitterrezeptoren der Maus im Vergleich zum Menschen enger ist und widerlegen damit die Aussage, dass humane und murine orthologe Rezeptoren durch das gleiche Ligandenspektrum angesprochen werden. Die Interpretation von tierexperimentellen Daten und die Übertragbarkeit auf den Menschen werden folglich nicht nur durch die Komplexität des Geschmacks, sondern auch durch Speziesunterschiede verkompliziert. Die Komplexität des Geschmacks beruht u. a. auf der Tatsache, dass Geschmacksstoffe selten isoliert auftreten und daher eine Vielzahl an Informationen kodiert werden muss. Um solche geschmacksstoffassoziierten Stimuli in der Analyse der gustatorischen Kommunikationsbahnen auszuschließen, sollten Opsine, die durch Licht spezifischer Wellenlänge angeregt werden können, für die selektive Ersetzung von Geschmacksrezeptoren genutzt werden. Um die Funktionalität dieser angestrebten Knockout-Knockin-Modelle zu evaluieren, die eine Kopplung von Opsinen mit dem geschmacksspezifischen G-Protein Gustducin voraussetzte, wurden Oozyten vom Krallenfrosch Xenopus laevis mit dem Zwei-Elektroden-Spannungsklemm-Verfahren hinsichtlich dieser Interaktion analysiert. Der positiven Bewertung dieser Kopplung folgte die Erzeugung von drei Mauslinien, die in der kodierenden Region eines spezifischen Geschmacksrezeptors (Tas1r1, Tas1r2, Tas2r114) Photorezeptoren exprimierten. Durch RT-PCR-, In-situ-Hybridisierungs- und immunhistochemische Experimente konnte der erfolgreiche Knockout der Rezeptorgene und der Knockin der Opsine belegt werden. Der Nachweis der Funktionalität der Opsine im gustatorischen System wird Gegenstand zukünftiger Analysen sein. Bei erfolgreichem Beleg der Lichtempfindlichkeit von Geschmacksrezeptorzellen dieser Mausmodelle wäre ein System geschaffen, dass es ermöglichen würde, gustatorische neuronale Netzwerke und Hirnareale zu identifizieren, die auf einen reinen geschmacks- und qualitätsspezifischen Stimulus zurückzuführen wären.
Inter arma silent litterae?
(2011)
Does it have to be trees? : Data-driven dependency parsing with incomplete and noisy training data
(2011)
We present a novel approach to training data-driven dependency parsers on incomplete annotations. Our parsers are simple modifications of two well-known dependency parsers, the transition-based Malt parser and the graph-based MST parser. While previous work on parsing with incomplete data has typically couched the task in frameworks of unsupervised or semi-supervised machine learning, we essentially treat it as a supervised problem. In particular, we propose what we call agnostic parsers which hide all fragmentation in the training data from their supervised components. We present experimental results with training data that was obtained by means of annotation projection. Annotation projection is a resource-lean technique which allows us to transfer annotations from one language to another within a parallel corpus. However, the output tends to be noisy and incomplete due to cross-lingual non-parallelism and error-prone word alignments. This makes the projected annotations a suitable test bed for our fragment parsers. Our results show that (i) dependency parsers trained on large amounts of projected annotations achieve higher accuracy than the direct projections, and that (ii) our agnostic fragment parsers perform roughly on a par with the original parsers which are trained only on strictly filtered, complete trees. Finally, (iii) when our fragment parsers are trained on artificially fragmented but otherwise gold standard dependencies, the performance loss is moderate even with up to 50% of all edges removed.
Die Arbeit gibt einen kurzen Abriss über die Grundlagen systemisch-konstruktivistischer Lerntheorie mit der anschließenden Fragestellung, was die aktuellen Forschungsergebnisse aus Neurobiologie, Philosophie, Psychologie und Erziehungswissenschaften zur didaktischen Auseinandersetzung mit dem Nationalsozialismus beitragen können. In der bisherigen Forschung zur didaktischen „Aufbereitung“ des Themas 'Nationalsozialismus' gibt es eine Fülle von Unterrichtskonzepten, Sequenzplanungen und Unterrichtsmaterialien. Mein Anspruch war es nicht, universal gültige Unterrichtspläne vorzulegen, sondern Unterricht bewusst offen, selbstorganisiert und systemisch zu gestalten. Dafür werden die Rahmenbedingungen von Unterricht zum Thema Nationalsozialismus näher beleuchtet, um anschließend didaktische Prinzipien und methodische Ansätze für die Beschäftigung mit dem Nationalsozialismus vorzustellen. Grundlage für diese Überlegungen waren vor allem Theodor W. Adornos Vortrag „Erziehung nach Auschwitz“, die konstruktivistischen Lernansätze von Rolf Arnold, Kersten Reich und Horst Siebert und aktuelle Projekte und Schriften aus der gedenkstättenpädagogischen Forschung von Matthias Heyl, Imke Scheurich, Verena Haug u.a. Eine explizit konstruktivistische Betrachtung von Geschichtsdidaktik und Gedenkstättenpädagogik steht noch aus, diese Arbeit versucht, einen Ansatz zur Schließung dieser Forschungslücke zu entwickeln.
Rainfall, snow-, and glacial melt throughout the Himalaya control river discharge, which is vital for maintaining agriculture, drinking water and hydropower generation. However, the spatiotemporal contribution of these discharge components to Himalayan rivers is not well understood, mainly because of the scarcity of ground-based observations. Consequently, there is also little known about the triggers and sources of peak sediment flux events, which account for extensive hydropower reservoir filling and turbine abrasion. We therefore lack basic information on the distribution of water resources and controls of erosion processes. In this thesis, I employ various methods to assess and quantify general characteristics of and links between precipitation, river discharge, and sediment flux in the Sutlej Valley. First, I analyze daily precipitation data (1998-2007) from 80 weather stations in the western Himalaya, to decipher the distribution of rain- and snowfall. Rainfall magnitude frequency analyses indicate that 40% of the summer rainfall budget is attributed to monsoonal rainstorms, which show higher variability in the orogenic interior than in frontal regions. Combined analysis of rainstorms and sediment flux data of a major Sutlej River tributary indicate that monsoonal rainfall has a first order control on erosion processes in the orogenic interior, despite the dominance of snowfall in this region. Second, I examine the contribution of rainfall, snow and glacial melt to river discharge in the Sutlej Valley (s55,000 km2), based on a distributed hydrological model, which covers the period 2000-2008. To achieve high spatial and daily resolution despite limited ground-based observations the hydrological model is forced by daily remote sensing data, which I adjusted and calibrated with ground station data. The calibration shows that the Tropical Rainfall Measuring Mission (TRMM) 3B42 rainfall product systematically overestimates rainfall in semi-arid and arid regions, increasing with aridity. The model results indicate that snowmelt-derived discharge (74%) is most important during the pre-monsoon season (April to June) whereas rainfall (56%) and glacial melt (17%) dominate the monsoon season (July-September). Therefore, climate change most likely causes a reduction in river discharge during the pre-monsoon season, which especially affects the orogenic interior. Third, I investigate the controls on suspended sediment flux in different parts of the Sutlej catchments, based on daily gauging data from the past decade. In conjunction with meteorological data, earthquake records, and rock strength measurements I find that rainstorms are the most frequent trigger of high-discharge events with peaks in suspended sediment concentrations (SSC) that account for the bulk of the suspended sediment flux. The suspended sediment flux increases downstream, mainly due to increases in runoff. Pronounced erosion along the Himalayan Front occurs throughout the monsoon season, whereas efficient erosion of the orogenic interior is confined to single extreme events. The results of this thesis highlight the importance of snow and glacially derived melt waters in the western Himalaya, where extensive regions receive only limited amounts of monsoonal rainfall. These regions are therefore particularly susceptible to global warming with major implications on the hydrological cycle. However, the sediment discharge data show that infrequent monsoonal rainstorms that pass the orographic barrier of the Higher Himalaya are still the primary trigger of the highest-impact erosion events, despite being subordinate to snow and glacially–derived discharge. These findings may help to predict peak sediment flux events and could underpin the strategic development of preventative measures for hydropower infrastructures.
Um Extremereignisse in der Dynamik des indischen Sommermonsuns (ISM) in der geologischen Vergangenheit zu identifizieren, schlage ich einen neuartigen Ansatz basierend auf der Quantifikation von Fluktuationen in einem nichtlinearen Ähnlichkeitsmaß vor. Dieser reagiert empfindlich auf Zeitabschnitte mit deutlichen Veränderungen in der dynamischen Komplexität kurzer Zeitreihen. Ein mathematischer Zusammenhang zwischen dem neuen Maß und dynamischen Invarianten des zugrundeliegenden Systems wie fraktalen Dimensionen und Lyapunovexponenten wird analytisch hergeleitet. Weiterhin entwickle ich einen statistischen Test zur Schätzung der Signifikanz der so identifizierten dynamischen Übergänge. Die Stärken der Methode werden durch die Aufdeckung von Bifurkationsstrukturen in paradigmatischen Modellsystemen nachgewiesen, wobei im Vergleich zu den traditionellen Lyapunovexponenten eine Identifikation komplexerer dynamischer Übergänge möglich ist. Wir wenden die neu entwickelte Methode zur Analyse realer Messdaten an, um ausgeprägte dynamische Veränderungen auf Zeitskalen von Jahrtausenden in Klimaproxydaten des südasiatischen Sommermonsunsystems während des Pleistozäns aufzuspüren. Dabei zeigt sich, dass viele dieser Übergänge durch den externen Einfluss der veränderlichen Sonneneinstrahlung, sowie durch dem Klimasystem interne Einflussfaktoren auf das Monsunsystem (Eiszeitzyklen der nördlichen Hemisphäre und Einsatz der tropischenWalkerzirkulation) induziert werden. Trotz seiner Anwendbarkeit auf allgemeine Zeitreihen ist der diskutierte Ansatz besonders zur Untersuchung von kurzen Paläoklimazeitreihen geeignet. Die während des ISM über dem indischen Subkontinent fallenden Niederschläge treten, bedingt durch die zugrundeliegende Dynamik der atmosphärischen Zirkulation und topographische Einflüsse, in äußerst komplexen, raumzeitlichen Mustern auf. Ich stelle eine detaillierte Analyse der Sommermonsunniederschläge über der indischen Halbinsel vor, die auf Ereignissynchronisation (ES) beruht, einem Maß für die nichtlineare Korrelation von Punktprozessen wie Niederschlagsereignissen. Mit hierarchischen Clusteringalgorithmen identifiziere ich zunächst Regionen mit besonders kohärenten oder homogenen Monsunniederschlägen. Dabei können auch die Zeitverzögerungsmuster von Regenereignissen rekonstruiert werden. Darüber hinaus führe ich weitere Analysen auf Basis der Theorie komplexer Netzwerke durch. Diese Studien ermöglichen wertvolle Einsichten in räumliche Organisation, Skalen und Strukturen von starken Niederschlagsereignissen oberhalb der 90% und 94% Perzentilen während des ISM (Juni bis September). Weiterhin untersuche ich den Einfluss von verschiedenen, kritischen synoptischen Systemen der Atmosphäre sowie der steilen Topographie des Himalayas auf diese Niederschlagsmuster. Die vorgestellte Methode ist nicht nur geeignet, die Struktur extremer Niederschlagsereignisse zu visualisieren, sondern kann darüber hinaus über der Region atmosphärische Transportwege von Wasserdampf und Feuchtigkeitssenken auf dekadischen Skalen identifizieren.Weiterhin wird ein einfaches, auf komplexen Netzwerken basierendes Verfahren zur Entschlüsselung der räumlichen Feinstruktur und Zeitentwicklung von Monsunniederschlagsextremen während der vergangenen 60 Jahre vorgestellt.
After the collapse of the Soviet Union the former member states have started the transformation process. The transformation process from planned to market economy includes not only the adaptation of the economy to the new market rules but also the profound social and political transformation. For this reason such processes present huge challenges to affected societies. The transformational recession in Georgia was significantly enhanced by the civil war and by ethnic conflicts in Abkhazia and South Ossetia. During the ethnic conflicts and civil war the business and technical infrastructure were damaged and most of them were completely destroyed. Poverty and political instability were predominated. The trade relations with the member countries of Council of Mutual Economic Assistance (Comecon) were aborted. Moreover, the conflict in South Ossetia hampered the power supply from Russia and a conflict in Abkhazia, the production and trade with tea and citruses, which were major trade commodities at that time. In the beginning of 90-ies, Georgian government with the assistance of international organizations, such as International Monetary Fund and World Bank started to elaborate political and economical reforms. The reforms included several aspects, such as the transfer of public assets to private through privatization, the liberalization of domestic market and trade and the creation of market-oriented institutions. Because of lack in implementation neither economical nor political transformation has been achieved. For instance, by the begin of market oriented reforms the awareness of policy makers about the importance of entrepreneurship, in particular small and medium ones for the economy was low. The absence of previous experience prevented the elaboration of appropriate policy instruments and methods for the development of competitive market economy. The stimulation of private sector has been generally neglected. This had a severe affect on political, social and economical problems, which still hampers the development of middle class in Georgia. The presented research indicates that productive entrepreneurship is a driving force of an economy. The entrepreneurial activities on the one hand facilitate the resource allocation and on the other through the development of new products and services urge the competition. Furthermore, they contribute to technological improvements through innovation, create jobs and thus boost the economic and social development of a particular region or country. However, it is important that the legal and institutional framework is appropriately settled. Unlike mature market economies, Georgia is not characterized by well-developed sector of small and medium sized businesses. Most existing SMEs are operating in local markets and predominantly in the shadow economy. It is also noteworthy that small business in Georgia belongs to so called “mom and pop” rather than to innovative, growth oriented businesses. They are mostly engaged in trade and craft. In addition of poor performance, the business activity of SMEs is very centralized. The vast majority of them are operating in the capital Tbilisi. The poor performance of small and medium businesses in Georgia and their negligence by the market forces is among others due to the armed conflicts and state failure. As in the beginning of transformation process, down to the present day, the state fails to provide necessary conditions, such as rule of law, the protection of property rights and competition, transparent and uncorrupted public administration. The result is the weak middle class. The weak middle class by itself has a negative impact on economic development and democratization process in Georgia.
Vergleich von Bettine von Arnims "Dies Buch gehört dem König" (1843) mit Sophie von La Roches "Erscheinungen am See Oneida" (1798) und Henriette Frölichs "Virginia oder Die Kolonie von Kentucky" (1820). Die Texte werden ausgehend von der Annahme untersucht, dass Macht ein asymmetrisches Verhältnis ist, das durch Konsens entsteht (Laclau und Mouffe), und auch Geschlechterverhältnisse als Machtverhältnisse verständlich werden, da Geschlecht keine natürliche Gegebenheit, sondern ein gesellschaftliches Konstrukt ist (Butler). Dementsprechend werden die Texte in einem Spannungsfeld von Anpassung und Subversion verstanden.
This paper discusses a hitherto undescribed usage of the particle so as a dedicated focus marker in contemporary German. I discuss grammatical and pragmatic characteristics of this focus marker, supporting my account with natural linguistic data and with controlled experimental evidence showing that so has a significant influence on speakers’ understanding of what the focus expression in a sentence is. Against this background, I sketch a possible pragmaticalization path from referential usages of so via hedging to a semantically bleached focus marker, which, unlike particles such as auch ‘also’/‘too’ or nur ‘only’, does not contribute any additional meaning.
Der Beitrag konzentriert sich auf die neue einheitliche Behördenrufnummer D115, als aktuelles, innovatives eGovernment-Projekt der deutschen Verwaltungsmodernisierung. Als theoretische Grundlage der hier vorliegenden empirischen verwaltungswissen schaftlichen Analyse sekundiert der Multilevel-Governance-Ansatz, welcher die Mehrebenenverflechtung der politisch-administrativen Strukturen, die Vielschichtigkeit und die besondere Governancestruktur des Reformvorhabens am besten erfassen dürfte. Die Analyse der Funktionsweise der Behördenrufnummer D115, der beteiligten Akteure und deren institutionell bedingter Motivation kommt insgesamt zum Ergebnis, dass der Ansatz für das Modernisierungsprojekt als geradezu exemplarisch zu betrachten ist. Die Berücksichtigung des Mehrebenencharakters sowie der dabei zur Anwendung kommen den Netzwerk- und Steuerungsmechanismen sind bei einem solchen Projekt und künftigen eGovernment-Projekten unverzichtbar.
Editorial (Dr. Roswitha Lohwaßer) ; Kompetenzorientierung allein macht noch keinen guten Unterricht (Prof. Dr. Hilbert Meyer) ; 1. Erinnerungen an Lothar Klingberg ; 2. Stärken und Schwächen des kompetenzorientierten Unterrichts ; 3. Lothar Klingbergs “Prozesstheorie des Unterrichts” ; 4. Ein Theorierahmen für Unterrichtsqualität ; 5. Was wissen die empirischen Unterrichtsforscher über guten Unterricht? ; 6. Was ist eine gute Lehrerin/was ein guter Lehrer? ; 7. Was tun? ; Fazit
Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zunächst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit über weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 näher erforscht, dazu wurden Wildtyp- und GPx2-Knockout-Mäuse in Hinblick auf Veränderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendiäten verfüttert: selenarmes, selenadäquates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am höchsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erhöhung der Apoptoserate am Kryptengrund. Dabei war der größte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Veränderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verlängerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erhöhte die GPx1-Expression im Kryptengrund auf allen drei Selendiäten. Diese Überexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Homöostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Klärung der Frage, welchen Einfluss GPx2 auf die entzündungsassoziierte Colonkarzinogenese ausübt. In dem hierfür verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entzündung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entzündungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich stärker entzündet als im Wildtyp. Diese Ergebnisse bestätigen die für die GPx2 postulierte antiinflammatorische Funktion. Normalerweise führt eine Erhöhung der Mitoseanzahl zur Regeneration des entzündeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entzündung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entzündung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 begünstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine adäquate GPx2-Expression vor Entzündung schützt und somit das Risiko für Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, hängt vermutlich vom Stadium des Colonkarzinogenese ab.
Daß die Rhetorik für die Literatur und Wissenschaft der Frühen Neuzeit von größter Bedeu-tung ist, gehört seit langem zum Grundbestand der Forschung. Trotzdem ist praktisch keine der großen Rhetoriken dieser Zeit in einer neuen Ausgabe oder gar Übersetzung zugänglich. Die vorliegende Ausgabe ist ein erster Schritt, dieser unbefriedigenden Situation Abhilfe zu verschaffen, indem sie Philipp Melanchthons Elementa rhetorices zum ersten Mal in einer kritischen Ausgabe und Übersetzung zur Verfügung stellt. Neben den De copia verborum ac rerum des Erasmus sind Melanchthon Elementa rhetorices wahrscheinlich das meistgedruckte Lehrbuch des 16. Jahrhunderts. 1531 zum ersten Mal erschienen und bis 1539 mehrmals überarbeitet und erweitert, erscheinen sie bis zum Ende des Jahrhunderts in über hundert Ausgaben. An zahllosen Schulen und Universitäten im protestantischen Raum war ihre Lektüre für Generationen von Schülern Pflicht, die Dichter des 17. Jahrhunderts sind mit ihr zur Schule gegangen. Die vorliegende Ausgabe ist nicht nur die erste kritische Ausgabe des Textes, sondern auch die erste vollständige Übersetzung. Die bisher unbekannten Varianten der Ausgaben 1531, 1532 und 1536 sind in einem Variantenverzeichnis erfaßt. Der teilweise schwer zugänglichen Text wird durch einen umfangreichen Kommentar, ein Nachwort und ein Glossar erschlossen. Dabei wird nicht nur der Text selbst in der Form wiedergegeben, in der er dem Leser des 16. Jahrhunderts vorlag, sondern auch der den Elementa rhetorices ursprünglich beigegebene Anhang. Dieser Anhang umfaßt neben drei Briefen von Seneca und Plinius d. J. vor allem die "Gegensätzlichen Briefe" Giovanni Picos della Mirandola und Franz Burchards, einem Schüler Melanchthons. Burchard übernimmt hier die Verteidigung der Rhetorik gegen den über fünfzig Jahre zuvor geführten, scharfen und spöttischen Angriff Picos della Mirandola, der schnell zu einer gewissen Berühmtheit gelangt war. Melanchthon hielt die Verteidigung Burchards nicht nur der Aufnahme in sein Lehrbuch für würdig, sondern verfaßte auch umfangreiche, interpretierende Marginalien zu beiden Briefen. Indem diese Marginalien von den Herausgebern der Gesamtausgabe von Melanchthons Werken nicht aufgenommen wurden, bietet die Ausgabe mit diesen Marginalien auch die erste Edition eines bisher unbekannten Textes.
Die Arbeit befasst sich theoretisch und empirisch mit der so genannten Public Service Motivation (PSM) und ihrem Zusammenhang zu anderen psychologischen Motivationstheorien. Die Public Service Motivation geht davon aus, dass öffentlich Beschäftigte unter anderem dadurch motiviert sind, dass sie in ihrer Arbeit einen Dienst am Gemeinwohl sehen. Auf Basis einer empirischen Erhebung konnte dieses Konstrukt auch für Beschäftigte in Deutschland nachgewiesen und der Einfluss soziodemographischer Variablen bestätigt werden. Darüber hinaus gibt die Arbeit erste Hinweise auf Zusammenhänge zu verschiedenen Prozesstheorien der Motivation. Empirisch zeigt sich vor allem zur Gleichheitstheorie und dem darauf aufbauenden Equity Sensitivity Construct ein starker Zusammenhang.
Multiple Imputation hat sich in den letzten Jahren als adäquate Methode zum Umgang mit fehlenden Werten erwiesen und etabliert. Das gilt zumindest für die Theorie, denn im Angesicht mangelnder anwendungsbezogener Erläuterungen und Einführungen verzichten in der Praxis viele Sozialwissenschaftler auf diese notwendige Datenaufbereitung. Trotz (oder vielleicht auch wegen) der stetig fortschreitenden Weiterentwicklung der Programme und Optionen zur Umsetzung Multipler Imputationen, sieht sich der Anwender mit zahlreichen Herausforderungen konfrontiert, für die er mitunter nur schwer Lösungsansätze findet. Die Schwierigkeiten reichen von der Analyse und Aufbereitung der Zielvariablen, über die Software-Entscheidung, die Auswahl der Prädiktoren bis hin zur Modell-Formulierung und Ergebnis-Evaluation. In diesem Beitrag wird die Funktionsweise und Anwendbarkeit Multipler Imputationen skizziert und es wird eine Herangehensweise entwickelt, die sich in der schrittweisen Umsetzung dieser Methode als nützlich erwiesen hat – auch für Einsteiger. Es werden konkrete potenzielle Schwierigkeiten angesprochen und mögliche Problemlösungen diskutiert; vor allem die jeweilige Beschaffenheit der fehlenden Werte steht hierbei im Vordergrund. Der Imputations-Prozess und alle mit ihm verbundenen Arbeitsschritte werden anhand eines Anwendungsbeispiels – der Multiplen Imputation des Gesamtvermögens reicher Haushalte – exemplarisch illustriert.
Den Krieg um Afghanistan hat der Westen verloren – wieder einmal. Die Frage des Abzugs bestimmt die außen- und sicherheitspolitische Agenda, nicht nur in Washington D.C. und Berlin. Ziel ist, das "Fiasko Afghanistan" möglichst glimpflich enden zu lassen – aber wie? Die Frage hat auch 2011 nicht an Aktualität eingebüßt. Kenner der Region und außenpolitische Experten diskutieren im vorliegenden WeltTrends Papier die Ausgangslage des Afghanistan-Komplexes und analysieren Abzugsstrategien – klar, kontrovers, pointiert.
Die Arbeit beschreibt die humanistische Reform des 'Triviums', also der grammatischen, dialektischen (logisch-argumentativen) und rhetorischen Ausbildung, wie sie sich in dem Zeitraum von 1480 bis 1540 an Schulen und Universitäten durchsetzte. Die Arbeit ist dabei sowohl historisch wie systematisch angelegt, indem sie die Lehrinhalte der jeweiligen Kunst an ausgewählten Lehrbüchern darstellt, gleichzeitig aber unter ständigem Rückbezug auf die scholastisch-mittelalterliche Tradition die humanistischen Neuerungen davon abgrenzt. Im Zentrum stehen Werke von Lorenzo Valla, Rudolf Agricola, Erasmus, Juan Luis Vives und Philipp Melanchthon. Es stellt sich dabei heraus, daß die humanistischen Neuerungen in erster Linie die Praxisbezogenheit des Triviums betreffen, erst aus dieser ergeben sich dann die inhaltlichen Neuerungen. Unter Praxisbezogenheit ist dabei sowohl die Ableitung von Grammatik, Dialektik und Rhetorik aus der Beobachtung ihrer immer schon vorgängigen Anwendung zu verstehen, als auch ihre Anwendung zum Zweck der sprachlichen, argumentativ-logischen und rhetorischen Analyse. D.h. das grammatische, dialektische und rhetorische Regelwerk wird auf deskriptivem Wege gewonnen, um wiederum in der Analyse auf die Praxis zurückgewendet zu werden. Dieser Analyse werden dabei von alltäglichen Äußerungen, politischen, religiösen oder sonstigen sachlichen Texten bis hin zu literarischen Werken alles unterzogen. In einem letzten Teil stellt die Arbeit drei solcher Analysen vor und versucht sich schließlich selbst an einer dialektisch-rhetorischen Analyse dreier dramatischer Bearbeitungen der Parabel vom verlorenen Sohn.
Öffentliche Unternehmen werden in Adäquation zum wirtschaftlichen und politischen Verständnis an Hand des Finanz- und Personalstatistikgesetzes operationalisierbar definiert und sowohl gegenüber öffentlichen Behörden als auch gegenüber privaten Unternehmen abgegrenzt. Dabei wird gezeigt, dass keine Deckungsgleichheit, aber eine stückweise Überlappung mit dem Sektor Staat besteht. Dadurch gewinnt ein Teil der öffentlichen Unternehmen Bedeutung für die Volkswirtschaftliche Gesamtrechnung, insbesondere für den öffentlichen Schuldenstand und damit für die Konvergenzkriterien im Rahmen der Wirtschafts- und Währungsunion. Die amtliche Statistik gewinnt die Daten für die Statistik öffentlicher Unternehmen in Totalerhebung aus den Jahresabschlüssen dieser Unternehmen einschließlich ihrer Gewinn und Verlustrechnung. Die Statistik öffentlicher Unternehmen übertrifft damit in ihrer Ausführlichkeit und Tiefe die meisten anderen Fachstatistiken. Dem steht der Nachteil der relativ späten Verfügbarkeit gegenüber. Der Wissenschaft steht die Statistik in Form einer formal anonymisierten Datei an Wissenschaftlerarbeitsplätzen in den Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder zur Verfügung. Der Anonymisierungsprozess bedeutet eine weitere Verzögerung der Verfügbarkeit der Daten und steht zusammen mit strengen Geheimhaltungsvorschriften in den Forschungsdatenzentren im Widerspruch zur gebotenen Transparenz und der vorgeschriebenen Offenlegung der Bilanzen im öffentlichen Sektor.
Die statistische Analyse der Ertragslage öffentlicher Unternehmen bringt Informationen über die Ertragskraft dieser Unternehmensgruppe. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentlichen Aufgaben als an betriebswirtschaftlicher Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Öffentliche Unternehmen haben im Mittel wegen der Spezifik ihrer Aufgaben und politisch determinierter Preise einen geringeren Umsatz als private Unternehmen. Im Vergleich zu privaten sind öffentliche Unternehmen auch durch eine höhere Zinselastizität, die mit einem hohen Verschuldungsgrad zusammenhängt, und eine höhere Abschreibungsintensität gekennzeichnet. Die letzte ist auf das umfangreiche öffentliche Vermögen zurückzuführen. Im Großen und Ganzen unterstreicht die statistische Analyse der Ertragslage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten.
This paper offers empirical evidence on the power of Sornette et al's [2001] model of bubbles and crashes regarding the German stock market between 1960 and 2009. We identify relevant time periods and describe them with the function given by Sornette et al's model. Our results show some evidence in predicting crashes with the understanding of logarithmic periodic structures that are hidden in the stock price trajectories. It was shown that for the DAX most of the relevant parameters determining the shape of the logarithmic periodic structures are lying in the expected interval researched by Sornette et al. Further more the paper implicitly shows that the point of time of former crashes can be predicted with the presented formula. We conclude that the concept of financial time series conceived as purely random objects should be generalised as to admit complexity.
The East African Plateau provides a spectacular example of geodynamic plateau uplift, active continental rifting, and associated climatic forcing. It is an integral part of the East African Rift System and has an average elevation of approximately 1,000 m. Its location coincides with a negative Bouguer gravity anomaly with a semi-circular shape, closely related to a mantle plume, which influences the Cenozoic crustal development since its impingement in Eocene-Oligocene time. The uplift of the East African Plateau, preceding volcanism, and rifting formed an important orographic barrier and tectonically controlled environment, which is profoundly influenced by climate driven processes. Its location within the equatorial realm supports recently proposed hypotheses, that topographic changes in this region must be considered as the dominant forcing factor influencing atmospheric circulation patterns and rainfall distribution. The uplift of this region has therefore often been associated with fundamental climatic and environmental changes in East Africa and adjacent regions. While the far-reaching influence of the plateau uplift is widely accepted, the timing and the magnitude of the uplift are ambiguous and are still subject to ongoing discussion. This dilemma stems from the lack of datable, geomorphically meaningful reference horizons that could record surface uplift. In order to quantify the amount of plateau uplift and to find evidence for the existence of significant relief along the East African Plateau prior to rifting, I analyzed and modeled one of the longest terrestrial lava flows; the 300-km-long Yatta phonolite flow in Kenya. This lava flow is 13.5 Ma old and originated in the region that now corresponds to the eastern rift shoulders. The phonolitic flow utilized an old riverbed that once drained the eastern flank of the plateau. Due to differential erosion this lava flow now forms a positive relief above the parallel-flowing Athi River, which is mimicking the course of the paleo-river. My approach is a lava-flow modeling, based on an improved composition and temperature dependent method to parameterize the flow of an arbitrary lava in a rectangular-shaped channel. The essential growth pattern is described by a one-dimensional model, in which Newtonian rheological flow advance is governed by the development of viscosity and/or velocity in the internal parts of the lava-flow front. Comparing assessments of different magma compositions reveal that length-dominated, channelized lava flows are characterized by high effusion rates, rapid emplacement under approximately isothermal conditions, and laminar flow. By integrating the Yatta lava flow dimensions and the covered paleo-topography (slope angle) into the model, I was able to determine the pre-rift topography of the East African Plateau. The modeling results yield a pre-rift slope of at least 0.2°, suggesting that the lava flow must have originated at a minimum elevation of 1,400 m. Hence, high topography in the region of the present-day Kenya Rift must have existed by at least 13.5 Ma. This inferred mid-Miocene uplift coincides with the two-step expansion of grasslands, as well as important radiation and speciation events in tropical Africa. Accordingly, the combination of my results regarding the Yatta lava flow emplacement history, its location, and its morphologic character, validates it as a suitable “paleo-tiltmeter” and has thus to be considered as an important topographic and volcanic feature for the topographic evolution in East Africa.
Die Identifikation von Einflussfaktoren und deren Wirkungsrichtung auf die Kursentwicklung einer Aktie ist von großer Bedeutung für die Finanzmarktanalyse. Die wechselseitigen Zusammenhänge zwischen den Renditen spezifischer Aktien sind solche relevante Informationen. In diesem Beitrag werden die Interdependenzen von Aktienrenditen auf der Grundlage vektorautoregressiver (VAR)-Modelle für kleine, homogene Brachen- und Marktsegmente analysiert. Hierzu wurden die Renditen ausgewählter im Deutschen Aktienindex (DAX) notierter Unternehmen zu drei Branchensegmenten zusammengefasst. Darüber hinaus zeigt sich am Beispiel der Hoechst-Aktie, dass eine gemeinsame DAX-Notierung Einfluss auf das Beziehungsgeflecht der Renditen innerhalb eines Brachensegmentes nimmt.
Die Analyse der Finanzlage öffentlicher Unternehmen bringt Informationen über die Kapitalbereitstellung und die Liquidität dieser Unternehmen. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentliche Aufgaben als an betriebswirtschaftliche Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Dank der Kapitalzuführungen von der öffentlichen Hand haben öffentliche Unternehmen in Deutschland höhere und zunehmende Eigenkapital- und Rücklagenquoten im Vergleich zu privaten Unternehmen, während ihr durchschnittlicher Innenfinanzierungsgrad und ihre Kapitalrückflussquote unter denen im privaten Sektor liegen. Insgesamt wird durch die Analyse der Finanzlage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten unterstrichen.
This Thesis puts its focus on the physics of neutron stars and its description with methods of numerical relativity. In the first step, a new numerical framework the Whisky2D code will be developed, which solves the relativistic equations of hydrodynamics in axisymmetry. Therefore we consider an improved formulation of the conserved form of these equations. The second part will use the new code to investigate the critical behaviour of two colliding neutron stars. Considering the analogy to phase transitions in statistical physics, we will investigate the evolution of the entropy of the neutron stars during the whole process. A better understanding of the evolution of thermodynamical quantities, like the entropy in critical process, should provide deeper understanding of thermodynamics in relativity. More specifically, we have written the Whisky2D code, which solves the general-relativistic hydrodynamics equations in a flux-conservative form and in cylindrical coordinates. This of course brings in 1/r singular terms, where r is the radial cylindrical coordinate, which must be dealt with appropriately. In the above-referenced works, the flux operator is expanded and the 1/r terms, not containing derivatives, are moved to the right-hand-side of the equation (the source term), so that the left hand side assumes a form identical to the one of the three-dimensional (3D) Cartesian formulation. We call this the standard formulation. Another possibility is not to split the flux operator and to redefine the conserved variables, via a multiplication by r. We call this the new formulation. The new equations are solved with the same methods as in the Cartesian case. From a mathematical point of view, one would not expect differences between the two ways of writing the differential operator, but, of course, a difference is present at the numerical level. Our tests show that the new formulation yields results with a global truncation error which is one or more orders of magnitude smaller than those of alternative and commonly used formulations. The second part of the Thesis uses the new code for investigations of critical phenomena in general relativity. In particular, we consider the head-on-collision of two neutron stars in a region of the parameter space where two final states a new stable neutron star or a black hole, lay close to each other. In 1993, Choptuik considered one-parameter families of solutions, S[P], of the Einstein-Klein-Gordon equations for a massless scalar field in spherical symmetry, such that for every P > P⋆, S[P] contains a black hole and for every P < P⋆, S[P] is a solution not containing singularities. He studied numerically the behavior of S[P] as P → P⋆ and found that the critical solution, S[P⋆], is universal, in the sense that it is approached by all nearly-critical solutions regardless of the particular family of initial data considered. All these phenomena have the common property that, as P approaches P⋆, S[P] approaches a universal solution S[P⋆] and that all the physical quantities of S[P] depend only on |P − P⋆|. The first study of critical phenomena concerning the head-on collision of NSs was carried out by Jin and Suen in 2007. In particular, they considered a series of families of equal-mass NSs, modeled with an ideal-gas EOS, boosted towards each other and varied the mass of the stars, their separation, velocity and the polytropic index in the EOS. In this way they could observe a critical phenomenon of type I near the threshold of black-hole formation, with the putative solution being a nonlinearly oscillating star. In a successive work, they performed similar simulations but considering the head-on collision of Gaussian distributions of matter. Also in this case they found the appearance of type-I critical behaviour, but also performed a perturbative analysis of the initial distributions of matter and of the merged object. Because of the considerable difference found in the eigenfrequencies in the two cases, they concluded that the critical solution does not represent a system near equilibrium and in particular not a perturbed Tolmann-Oppenheimer-Volkoff (TOV) solution. In this Thesis we study the dynamics of the head-on collision of two equal-mass NSs using a setup which is as similar as possible to the one considered above. While we confirm that the merged object exhibits a type-I critical behaviour, we also argue against the conclusion that the critical solution cannot be described in terms of equilibrium solution. Indeed, we show that, in analogy with what is found in, the critical solution is effectively a perturbed unstable solution of the TOV equations. Our analysis also considers fine-structure of the scaling relation of type-I critical phenomena and we show that it exhibits oscillations in a similar way to the one studied in the context of scalar-field critical collapse.
In this work, the development of a new molecular building block, based on synthetic peptides derived from decorin, is presented. These peptides represent a promising basis for the design of polymer-based biomaterials that mimic the ECM on a molecular level and exploit specific biological recognition for technical applications. Multiple sequence alignments of the internal repeats of decorin that formed the inner and outer surface of the arch-shaped protein were used to develop consensus sequences. These sequences contained conserved sequence motifs that are likely to be related to structural and functional features of the protein. Peptides representative for the consensus sequences were synthesized by microwave-assisted solid phase peptide synthesis and purified by RP-HPLC, with purities higher than 95 mol%. After confirming the desired masses by MALDI-TOF-MS, the primary structure of each peptide was investigated by 1H and 2D NMR, from which a full assignment of the chemical shifts was obtained. The characterization of the peptides conformation in solution was performed by CD spectroscopy, which demonstrated that using TFE, the peptides from the outer surface of decorin show a high propensity to fold into helical structures as observed in the original protein. To the contrary, the peptides from the inner surface did not show propensity to form stable secondary structure. The investigation of the binding capability of the peptides to Collagen I was performed by surface plasmon resonance analyses, from which all but one of the peptides representing the inner surface of decorin showed binding affinity to collagen with values of dissociation constant between 2•10-7 M and 2.3•10-4 M. On the other hand, the peptides representative for the outer surface of decorin did not show any significant interaction to collagen. This information was then used to develop experimental demonstration for the binding capabilities of the peptides from the inner surface of decorin to collagen even when used in more complicated situations close to possible appications. With this purpose, the peptide (LRELHLNNN) which showed the highest binding affinity to collagen (2•10-7 M) was functionalized with an N-terminal triple bond in order to obtain a peptide dimer via copper(I)-catalyzed cycloaddition reaction with 4,4'-diazidostilbene-2,2'-disulfonic acid. Rheological measurements showed that the presence of the peptide dimer was able to enhance the elastic modulus (G') of a collagen gel from ~ 600 Pa (collagen alone) to ~ 2700 Pa (collagen and peptide dimer). Moreover, it was shown that the mechanical properties of a collagen gel can be tailored by using different molar ratios of peptide dimer respect to collagen. The same peptide, functionalized with the triple bond, was used to obtain a peptide-dye conjugate by coupling it with N-(5'-azidopentanoyl)-5-aminofluorescein. An aqueous solution (5 vol% methanol) of the peptide dye conjugate was injected into a collagen and a hyaluronic acid (HA) gel and images of fluorescence detection showed that the diffusion of the peptide was slower in the collagen gel compared to the HA gel. The third experimental demonstration was gained using the peptide (LSELRLHNN) which showed the lower binding affinity (2.3•10-4 M) to collagen. This peptide was grafted to hyaluronic acid via EDC-chemistry, with a degree of functionalization of 7 ± 2 mol% as calculated by 1H-NMR. The grafting was further confirmed by FTIR and TGA measurements, which showed that the onset of decomposition for the HA-g-peptide decreased by 10 °C compared to the native HA. Rheological measurements showed that the elastic modulus of a system based on collagen and HA-g-peptide increased by almost two order of magnitude (G' = 200 Pa) compared to a system based on collagen and HA (G' = 0.9 Pa). Overall, this study showed that the synthetic peptides, which were identified from decorin, can be applied as potential building blocks for biomimetic materials that function via biological recognition.
Der Autor versucht mit dieser kurzen Einführung eine Übersicht über den Stand der Forschung zu einem Thema zu geben, das in der Forschung bisher noch nicht ausreichend berücksichtigt wurde: der außerschulischen, privatwirtschaftlich organisierten Zusatzbildung, der sogenannten Shadow Education. Der Fokus der Arbeit richtet sich dabei auf die Länder Japan, welches bereits seit den 1970er Jahren ein System außerschulischer Bildungsinstitutionen besitzt, dessen Einfluss auf den Bildungserwerb junger Menschen so stark ist wie in kaum einem anderen Land, und Deutschland, dessen Schattenbildungs- oder Nachhilfesystem noch keinen derartig starken Einfluss ausübt, jedoch in den vergangenen Jahren steten Zuwachs verzeichnen konnte. Interessierten soll dieser Einblick durch die umfangreiche Bibliographie eine Hilfe bei der Recherche zu diesem Thema bieten.
Eumelanin ist ein Fluorophor mit teilweise recht ungewöhnlichen spektralen Eigenschaften. Unter anderem konnten in früheren Veröffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielfältige messmethodische Ansätze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszuständen hoher Übergangsenergien zu Anregungszuständen niedrigerer Übergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verhältnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begründet sein können. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abhängigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess über einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden.
The inspiral and merger of two black holes is among the most exciting and extreme events in our universe. Being one of the loudest sources of gravitational waves, they provide a unique dynamical probe of strong-field general relativity and a fertile ground for the observation of fundamental physics. While the detection of gravitational waves alone will allow us to observe our universe through an entirely new window, combining the information obtained from both gravitational wave and electro-magnetic observations will allow us to gain even greater insight in some of the most exciting astrophysical phenomena. In addition, binary black-hole mergers serve as an intriguing tool to study the geometry of space-time itself. In this dissertation we study the merger process of binary black-holes in a variety of conditions. Our results show that asymmetries in the curvature distribution on the common apparent horizon are correlated to the linear momentum acquired by the merger remnant. We propose useful tools for the analysis of black holes in the dynamical and isolated horizon frameworks and shed light on how the final merger of apparent horizons proceeds after a common horizon has already formed. We connect mathematical theorems with data obtained from numerical simulations and provide a first glimpse on the behavior of these surfaces in situations not accessible to analytical tools. We study electro-magnetic counterparts of super-massive binary black-hole mergers with fully 3D general relativistic simulations of binary black-holes immersed both in a uniform magnetic field in vacuum and in a tenuous plasma. We find that while a direct detection of merger signatures with current electro-magnetic telescopes is unlikely, secondary emission, either by altering the accretion rate of the circumbinary disk or by synchrotron radiation from accelerated charges, may be detectable. We propose a novel approach to measure the electro-magnetic radiation in these simulations and find a non-collimated emission that dominates over the collimated one appearing in the form of dual jets associated with each of the black holes. Finally, we provide an optimized gravitational wave detection pipeline using phenomenological waveforms for signals from compact binary coalescence and show that by including spin effects in the waveform templates, the detection efficiency is drastically improved as well as the bias on recovered source parameters reduced. On the whole, this disseration provides evidence that a multi-messenger approach to binary black-hole merger observations provides an exciting prospect to understand these sources and, ultimately, our universe.
Parsability approaches of several grammar formalisms generating also non-context-free languages are explored. Chomsky grammars, Lindenmayer systems, grammars with controlled derivations, and grammar systems are treated. Formal properties of these mechanisms are investigated, when they are used as language acceptors. Furthermore, cooperating distributed grammar systems are restricted so that efficient deterministic parsing without backtracking becomes possible. For this class of grammar systems, the parsing algorithm is presented and the feature of leftmost derivations is investigated in detail.
Migration and development in Senegal : a system dynamics analysis of the feedback relationships
(2011)
This thesis investigates the reciprocal relationship between migration and development in Senegal. Therewith, it contributes to the debate as to whether migration in developing countries enhances or rather impedes the development process. Even though extensive and controversial discussions can be found in the scientific literature regarding the impact of migration on development, research has scarcely examined the feedback relationships between migration and development. Science however agrees with both the fact that migration affects development as well as that the level of development in a country determines migration behaviour. Thus, both variables are neither dependent nor independent, but endogenous variables influencing each other and producing behavioural pattern that cannot be investigated using a static and unidirectional approach. On account of this, the thesis studies the feedback mechanisms existing between migration and development and the behavioural pattern generated by the high interdependence in order to be able to draw conclusions concerning the impact of changes in migration behaviour on the development process. To explore these research questions, the study applies the computer simulation method ‘System Dynamics’ and amplifies the simulation model for national development planning called ‘Threshold 21’ (T21), representing development processes endogenously and integrating economic, social and environmental aspects, using a structure that portrays the reasons and consequences of migration. The model has been customised to Senegal, being an appropriate representative of the theoretical interesting universe of cases. The comparison of the model generated scenarios - in which the intensity of emigration, the loss and gain of education, the remittances or the level of dependence changes - facilitates the analysis. The present study produces two important results. The first outcome is the development of an integrative framework representing migration and development in an endogenous way and incorporating several aspects of different theories. This model can be used as a starting point for further discussions and improvements and it is a fairly relevant and useful result against the background that migration is not integrated into most of the development planning tools despite its significant impact. The second outcome is the gained insights concerning the feedback relations between migration and development and the impact of changes in migration on development. To give two examples: It could be found that migration impacts development positively, indicated by HDI, but that the dominant behaviour of migration and development is a counteracting behaviour. That means that an increase in emigration leads to an improvement in development, while this in turn causes a decline in emigration, counterbalancing the initial increase. Another insight concerns the discovery that migration causes a decline in education in the short term, but leads to an increase in the long term, after approximately 25 years - a typical worse-before-better behaviour. From these and further observations, important policy implications can be derived for the sending and receiving countries. Hence, by overcoming the unidirectional perspective, this study contributes to an improved understanding of the highly complex relationship between migration and development and their feedback relations.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
The Arctic is a particularly sensitive area with respect to climate change due to the high surface albedo of snow and ice and the extreme radiative conditions. Clouds and aerosols as parts of the Arctic atmosphere play an important role in the radiation budget, which is, as yet, poorly quantified and understood. The LIDAR (Light Detection And Ranging) measurements presented in this PhD thesis contribute with continuous altitude resolved aerosol profiles to the understanding of occurrence and characteristics of aerosol layers above Ny-Ålesund, Spitsbergen. The attention was turned to the analysis of periods with high aerosol load. As the Arctic spring troposphere exhibits maximum aerosol optical depths (AODs) each year, March and April of both the years 2007 and 2009 were analyzed. Furthermore, stratospheric aerosol layers of volcanic origin were analyzed for several months, subsequently to the eruptions of the Kasatochi and Sarychev volcanoes in summer 2008 and 2009, respectively. The Koldewey Aerosol Raman LIDAR (KARL) is an instrument for the active remote sensing of atmospheric parameters using pulsed laser radiation. It is operated at the AWIPEV research base and was fundamentally upgraded within the framework of this PhD project. It is now equipped with a new telescope mirror and new detection optics, which facilitate atmospheric profiling from 450m above sea level up to the mid-stratosphere. KARL provides highly resolved profiles of the scattering characteristics of aerosol and cloud particles (backscattering, extinction and depolarization) as well as water vapor profiles within the lower troposphere. Combination of KARL data with data from other instruments on site, namely radiosondes, sun photometer, Micro Pulse LIDAR, and tethersonde system, resulted in a comprehensive data set of scattering phenomena in the Arctic atmosphere. The two spring periods March and April 2007 and 2009 were at first analyzed based on meteorological parameters, like local temperature and relative humidity profiles as well as large scale pressure patterns and air mass origin regions. Here, it was not possible to find a clear correlation between enhanced AOD and air mass origin. However, in a comparison of two cloud free periods in March 2007 and April 2009, large AOD values in 2009 coincided with air mass transport through the central Arctic. This suggests the occurrence of aerosol transformation processes during the aerosol transport to Ny-Ålesund. Measurements on 4 April 2009 revealed maximum AOD values of up to 0.12 and aerosol size distributions changing with altitude. This and other performed case studies suggest the differentiation between three aerosol event types and their origin: Vertically limited aerosol layers in dry air, highly variable hygroscopic boundary layer aerosols and enhanced aerosol load across wide portions of the troposphere. For the spring period 2007, the available KARL data were statistically analyzed using a characterization scheme, which is based on optical characteristics of the scattering particles. The scheme was validated using several case studies. Volcanic eruptions in the northern hemisphere in August 2008 and June 2009 arose the opportunity to analyze volcanic aerosol layers within the stratosphere. The rate of stratospheric AOD change was similar within both years with maximum values above 0.1 about three to five weeks after the respective eruption. In both years, the stratospheric AOD persisted at higher rates than usual until the measurements were stopped in late September due to technical reasons. In 2008, up to three aerosol layers were detected, the layer structure in 2009 was characterized by up to six distinct and thin layers which smeared out to one broad layer after about two months. The lowermost aerosol layer was continuously detected at the tropopause altitude. Three case studies were performed, all revealed rather large indices of refraction of m = (1.53–1.55) - 0.02i, suggesting the presence of an absorbing carbonaceous component. The particle radius, derived with inversion calculations, was also similar in both years with values ranging from 0.16 to 0.19 μm. However, in 2009, a second mode in the size distribution was detected at about 0.5 μm. The long term measurements with the Koldewey Aerosol Raman LIDAR in Ny-Ålesund provide the opportunity to study Arctic aerosols in the troposphere and the stratosphere not only in case studies but on longer time scales. In this PhD thesis, both, tropospheric aerosols in the Arctic spring and stratospheric aerosols following volcanic eruptions have been described qualitatively and quantitatively. Case studies and comparative studies with data of other instruments on site allowed for the analysis of microphysical aerosol characteristics and their temporal evolution.
Poröse Sol-Gel-Materialien finden in vielen Bereichen Anwendung bzw. sind Gegenstand der aktuellen Forschung. Zu diesen Bereichen zählen sowohl klassische Anwendungen, wie z. B. die Verwendung als Katalysator, Molekularsieb oder Trockenmittel, als auch nichtklassische Anwendungen, wie z. B. der Einsatz als Kontrastmittel in der Magnet-Resonanz-Tomographie oder in Form von dünnen Zeolithfilmen als Isolatoren in Mikrochips. Auch für den Einsatz in der Photonik werden poröse Materialien in Betracht gezogen, wie die Entwicklung des Zeolith-Farbstoff-Lasers zeigt. Mikroporöse Zeolithe können generell über einfache Ionenaustauschreaktionen mit Lanthanoidionen in lumineszente Materialien umgewandelt werden. Neben der Erzeugung eines lumineszenten Materials, dessen Lumineszenzeigenschaften charakterisiert werden müssen, bietet die Nutzung von Lanthanoidionen die Möglichkeit diese Ionen als Sonde zur Charakterisierung der Ion-Wirt-Wechselwirkungen zu funktionalisieren, was z. B. in Bezug auf die Anwendung als Katalysator von großer Bedeutung ist. Dabei werden die einzigartigen Lumineszenzeigenschaften der Lanthanoidionen, in diesem Fall von Europium(III) und Terbium(III), genutzt. In dieser Arbeit wurden Lanthanoid-dotierte mikroporöse Zeolithe, mikroporös-mesoporöse Hybridmaterialien und mesoporöse Silikate hinsichtlich ihrer Lumineszenzeigenschaften und ihrer Wechselwirkung des Wirtsmaterials mit den Lanthanoidionen mittels zeitaufgelöster Lumineszenzspektroskopie untersucht. Zeitaufgelöste Emissionsspektren (TRES) liefern dabei sowohl Informationen in der Wellenlängen- als auch in der Zeitdomäne. Erstmalig wurden die TRES mittels einer umfangreichen Auswertemethodik behandelt. Neben der Anpassung des Abklingverhaltens mit einer diskreten Zahl von Exponentialfunktionen, wurden unterstützend auch Abklingzeitverteilungsanalysen durchgeführt. Zeitaufgelöste flächennormierte Emissionsspektren (TRANES), eine Erweiterung der normalen TRES, konnten erstmals zur Bestimmung der Zahl der emittierenden Lanthanoidspezies in porösen Materialien genutzt werden. Durch die Berechnung der Decayassoziierten Spektren (DAS) konnten den Lanthanoidspezies die entsprechenden Lumineszenzspektren zugeordnet werden. Zusätzlich konnte, speziell im Fall der Europium-Lumineszenz, durch Kombination von zeitlicher und spektraler Information das zeitabhängige Asymmetrieverhältnis R und die spektrale Evolution des 5D0-7F0-Übergangs mit der Zeit t untersucht und somit wesentliche Informationen über die Verteilung der Europiumionen im Wirtsmaterial erhalten werden. Über die Abklingzeit und das Asymmetrieverhältnis R konnten Rückschlüsse auf die Zahl der OH-Oszillatoren in der ersten Koordinationssphäre und die Symmetrie der Koordinationsumgebung gezogen werden. Für die mikroporösen und mikroporös-mesoporösen Materialien wurden verschiedene Lanthanoidspezies, im Regelfall zwei, gefunden, welche entsprechend der beschriebenen Methoden charakterisiert wurden. Diese Lanthanoidspezies konnten Positionen in den Materialien zugeordnet werden, die sich im tief Inneren des Porensystems oder auf bzw. nahe der äußeren Oberfläche oder in den Mesoporen befinden. Erstere Spezies ist aufgrund ihrer Position im Material gut vor Feuchtigkeitseinflüssen geschützt, was sich deutlich in entsprechend langen Lumineszenzabklingzeiten äußert. Zusätzlich ist diese Europiumspezies durch unsymmetrische Koordinationsumgebung charakterisiert, was auf einen signifikanten Anteil an Koordination der Lanthanoidionen durch die Sauerstoffatome im Wirtsgitter zurückzuführen ist. Ionen, die sich nahe oder auf der äußeren Oberfläche befinden, sind dagegen für Feuchtigkeit zugänglicher, was in kürzeren Lumineszenzabklingzeiten und einer symmetrischeren Koordinationsumgebung resultiert. Der Anteil von Wassermolekülen in der ersten Koordinationssphäre ist hier deutlich größer, als bei den Ionen, die sich tiefer im Porensystem befinden und entspricht in vielen Fällen der Koordinationszahl eines vollständig hydratisierten Lanthanoidions. Auch der Einfluss von Oberflächenmodifikationen auf die Speziesverteilung und das Verhalten der Materialien gegenüber Feuchtigkeit wurde untersucht. Dabei gelang es den Einfluss der Feuchtigkeit auf die Lumineszenzeigenschaften und die Speziesverteilung durch die Oberflächenmodifikation zu verringern und die Lumineszenzeigenschaften teilweise zu konservieren. Im Fall der mesoporösen Silikamonolithe wurde auch eine heterogene Verteilung der Lanthanoidionen im Porensystem gefunden. Hier wechselwirkt ein Teil der Ionen mit der Porenwand, während sich die restlichen Ionen in der wäßrigen Phase innerhalb des Porensystems aufhalten. Das Aufbringen von Oberflächenmodifikationen führte zu einer Wechselwirkung der Ionen mit diesen Oberflächenmodifikationen, was sich in Abhängigkeit von der Oberflächenbeladung in den enstprechenden Lumineszenzeigenschaften niederschlug.
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
Neues deutsches Gedenken?
(2011)
Bedarf es eines neuen Gedenktages der Vertriebenen in Deutschland? Die deutsche Regierung meint Ja. Auf ihre Initiative hin wurde die Entschließung "60 Jahre Charta der deutschen Heimatvertriebenen – Aussöhnung vollenden" im Februar 2011 angenommen. Dieser Gedenktag soll der 5. August sein, also jener Tag, an dem 1950 die "Charta der deutschen Heimatvertriebenen" in Stuttgart angenommen wurde. Der Entschluss traf im Bundestag auf den Widerstand der Opposition – aber auch auf scharfe Kritik in Polen.
In diesem Beitrag wird "fallbasierte Lernberatung" als ein zentrales Moment der Weiterentwicklung der Studierfähigkeit der Studierenden vor- und dargestellt. Fallbasierte Lernberatung wird darin als reflexive Praktik verstanden, die in Lehrveranstaltungen oder begleitend zu Lehrveranstaltungen angeboten werden kann. Mit der Bereitstellung eines solchen Lernberatungsangebots wird zweierlei erreicht. Studierende erhalten die professionell begleitete Gelegenheit, ihre Lernfähigkeiten weiter zu entwickeln und Lehrende Aufschluss über die konkreten Lernprobleme der Studierenden. Dieser kann wiederum auf das Lehrangebot rückwirken und so die Qualität der Lehre verbessern helfen.
CSOM/PL is a software product line (SPL) derived from applying multi-dimensional separation of concerns (MDSOC) techniques to the domain of high-level language virtual machine (VM) implementations. For CSOM/PL, we modularised CSOM, a Smalltalk VM implemented in C, using VMADL (virtual machine architecture description language). Several features of the original CSOM were encapsulated in VMADL modules and composed in various combinations. In an evaluation of our approach, we show that applying MDSOC and SPL principles to a domain as complex as that of VMs is not only feasible but beneficial, as it improves understandability, maintainability, and configurability of VM implementations without harming performance.
Der Forschungskreis Vereinte Nationen wurde 1999 als informelles Netzwerk für UN-Forschung gegründet mit dem Ziel, den Informationsaustausch unter den Wissenschaftlern der verschiedenen Fachdisziplinen und den Dialog mit den Praktikern zu fördern. Die regelmäßig stattfindenden Potsdamer UNO-Konferenzen des Forschungskreises Vereinte Nationen widmen sich der kritischen Analyse der UN-Forschung. Darüber hinaus bieten sie ein Forum für die Diskussion mit Politikern, UN-Mitarbeitern, Diplomaten und Journalisten über die Aufgaben der Vereinten Nationen und ihre Strukturen sowie über Konzepte zu ihrer Reform. Im vorliegenden Buch werden wichtige Referate der Potsdamer UNO-Konferenzen 2000 – 2008 veröffentlicht, die sich unter anderem den Themenbereichen Friedenssicherung, Menschenrechtsschutz und Umweltschutz durch die Vereinten Nationen, der Reform der UN-Hauptorgane sowie der deutschen UN-Politik und der UN-Politik im Rahmen der Europäischen Union widmen, und die ergänzt werden durch Beiträge der beiden Herausgeber zu den Problemen und Perspektiven der UN-Forschung in Deutschland.
In the present work synchronization phenomena in complex dynamical systems exhibiting multiple time scales have been analyzed. Multiple time scales can be active in different manners. Three different systems have been analyzed with different methods from data analysis. The first system studied is a large heterogenous network of bursting neurons, that is a system with two predominant time scales, the fast firing of action potentials (spikes) and the burst of repetitive spikes followed by a quiescent phase. This system has been integrated numerically and analyzed with methods based on recurrence in phase space. An interesting result are the different transitions to synchrony found in the two distinct time scales. Moreover, an anomalous synchronization effect can be observed in the fast time scale, i.e. there is range of the coupling strength where desynchronization occurs. The second system analyzed, numerically as well as experimentally, is a pair of coupled CO₂ lasers in a chaotic bursting regime. This system is interesting due to its similarity with epidemic models. We explain the bursts by different time scales generated from unstable periodic orbits embedded in the chaotic attractor and perform a synchronization analysis of these different orbits utilizing the continuous wavelet transform. We find a diverse route to synchrony of these different observed time scales. The last system studied is a small network motif of limit cycle oscillators. Precisely, we have studied a hub motif, which serves as elementary building block for scale-free networks, a type of network found in many real world applications. These hubs are of special importance for communication and information transfer in complex networks. Here, a detailed study on the mechanism of synchronization in oscillatory networks with a broad frequency distribution has been carried out. In particular, we find a remote synchronization of nodes in the network which are not directly coupled. We also explain the responsible mechanism and its limitations and constraints. Further we derive an analytic expression for it and show that information transmission in pure phase oscillators, such as the Kuramoto type, is limited. In addition to the numerical and analytic analysis an experiment consisting of electrical circuits has been designed. The obtained results confirm the former findings.
Diese Arbeit untersucht, welche Faktoren die unterschiedliche Ausgestaltung von Beteiligungsmanagement in Kommunen erklären. Die Literatur verweist zwar auf die zunehmende Wichtigkeit des Managements von Beteiligungen, aber in der Praxis unterscheidet sich die Steuerung der Beteiligung stark. Auf Basis der Literatur zu Beteiligungsmanagement und zum Performance Management wird ein analytischer Rahmen aufgestellt, der es erlaubt, das Beteiligungsmanagement in Kommunen zu kategorisieren. Auch wird aus der Literatur abgeleitet, in wie weit strukturelle, institutionelle und akteursbezogene Faktoren die Ausgestaltung des Beteiligungsmanagement erklären können. Im Rahmen dieser Studie werden vier kreisfreien Städten verglichen und explorativ mögliche Erklärungsfaktoren identifiziert. So sind insbesondere institutionelle Faktoren, wie die organisatorische Ausgestaltung des Beteiligungsmanagements oder die Erfahrungen und Kompetenzen der Verwaltung, und akteursbezogene Faktoren, wie die Einstellung und Interessen von Verwaltungsleitung, Politik und Beteiligungen, wahrscheinliche Erklärungsfaktoren.
Public debate about energy relations between the EU and Russia is distorted. These distortions present considerable obstacles to the development of true partnership. At the core of the conflict is a struggle for resource rents between energy producing, energy consuming and transit countries. Supposed secondary aspects, however, are also of great importance. They comprise of geopolitics, market access, economic development and state sovereignty. The European Union, having engaged in energy market liberalisation, faces a widening gap between declining domestic resources and continuously growing energy demand. Diverse interests inside the EU prevent the definition of a coherent and respected energy policy. Russia, for its part, is no longer willing to subsidise its neighbouring economies by cheap energy exports. The Russian government engages in assertive policies pursuing Russian interests. In so far, it opts for a different globalisation approach, refusing the role of mere energy exporter. In view of the intensifying struggle for global resources, Russia, with its large energy potential, appears to be a very favourable option for European energy supplies, if not the best one. However, several outcomes of the strategic game between the two partners can be imagined. Engaging in non-cooperative strategies will in the end leave all stakeholders worse-off. The European Union should therefore concentrate on securing its partnership with Russia instead of damaging it. Stable cooperation would need the acceptance that the partner may pursue his own goals, which might be different from one’s own interests. The question is, how can a sustainable compromise be found? This thesis finds that a mix of continued dialogue, a tit for tat approach bolstered by an international institutional framework and increased integration efforts appears as a preferable solution.