Refine
Has Fulltext
- yes (460) (remove)
Year of publication
- 2010 (460) (remove)
Document Type
- Article (149)
- Doctoral Thesis (83)
- Monograph/Edited Volume (72)
- Postprint (49)
- Review (27)
- Conference Proceeding (25)
- Part of Periodical (18)
- Preprint (16)
- Master's Thesis (10)
- Working Paper (5)
Language
- German (287)
- English (156)
- Multiple languages (8)
- Spanish (8)
- French (1)
Keywords
- Deutschland (19)
- Germany (19)
- Poland (18)
- Polen (18)
- Integration (17)
- Consolidation (15)
- European Union (15)
- Europäische Union (15)
- Vertiefung (15)
- Humboldt und Hispanoamerika (5)
Institute
- WeltTrends e.V. Potsdam (43)
- Institut für Jüdische Studien und Religionswissenschaft (35)
- Vereinigung für Jüdische Studien e. V. (33)
- Wirtschaftswissenschaften (31)
- Kommunalwissenschaftliches Institut (30)
- MenschenRechtsZentrum (30)
- Historisches Institut (27)
- Extern (25)
- Department Linguistik (22)
- Institut für Informatik und Computational Science (22)
Der Aufsatz befasst sich mit der Frage, was man aus der internationalen Forschung darüber weiß, welcher Unterricht und welches Lehrerverhalten Auswirkungen auf die Lernergebnisse der Schüler/innen hat und welche Möglichkeiten es gibt, solches Verhalten zu verstärken. Berücksichtigt werden nur Forschungsergebnisse, die hohen methodischen Anforderungen genügen, kausale Schlussfolgerungen erlauben und generalisierbar sind. Konsequenzen für die Lehrerbildung werden diskutiert.
Persistence of stock returns is an extensively studied and discussed theme in the analysis of financial markets. Antipersistence is usually attributed to volatilities. However, not only volatilities but also stock returns can exhibit antipersistence. Antipersistent noise has a somewhat rougher appearance than Gaussian noise. Heuristically spoken, price movements are more likely followed by movements in the opposite direction than in the same direction. The pertaining integrated process exhibits a smaller range – prices seem to stay in the vicinity of the initial value. We apply a widely used test based upon the modified R/S-Method by Lo [1991] to daily returns of 21 German stocks from 1960 to 2008. Combining this test with the concept of moving windows by Carbone et al. [2004], we are able to determine periods of antipersistence for some of the series under examination. Our results suggest that antipersistence can be found for stocks and periods where extraordinary corporate actions such as mergers & acquisitions or financial distress are present. These effects should be properly accounted for when choosing and designing models for inference.
Projektmanagement-Kompetenzen werden von Unternehmen unterschiedlichster Branchen mit wachsender Priorität betrachtet und eingefordert. Als Beitrag zu einer kompetenzorientierten Ausbildung werden in diesem Paper interdisziplinäre Studienmodule als Bestandteil des Wirtschaftsinformatik-Studiums vorgestellt. Zielsetzung der Studienmodule ist die Befähigung der Studierenden, konkrete Projekte unter Nutzung von standardisierten Werkzeugen und Methoden nach dem IPMA-Standard planen und durchführen zu können.
This thesis presents methods for automated synthesis of flexible chip multiprocessor systems from parallel programs targeted at FPGAs to exploit both task-level parallelism and architecture customization. Automated synthesis is necessitated by the complexity of the design space. A detailed description of the design space is provided in order to determine which parameters should be modeled to facilitate automated synthesis by optimizing a cost function, the emphasis being placed on inclusive modeling of parameters from application, architectural and physical subspaces, as well as their joint coverage in order to avoid pre-constraining the design space. Given a parallel program and a set of an IP library, the automated synthesis problem is to simultaneously (i) select processors (ii) map and schedule tasks to them, and (iii) select one or several networks for inter-task communications such that design constraints and optimization objectives are met. The research objective in this thesis is to find a suitable model for automated synthesis, and to evaluate methods of using the model for architectural optimizations. Our contributions are a holistic approach for the design of such systems, corresponding models to facilitate automated synthesis, evaluation of optimization methods using state of the art integer linear and answer set programming, as well as the development of synthesis heuristics to solve runtime challenges.
Enforcing security policies to distributed systems is difficult, in particular, when a system contains untrusted components. We designed AspectKE*, a distributed AOP language based on a tuple space, to tackle this issue. In AspectKE*, aspects can enforce access control policies that depend on future behavior of running processes. One of the key language features is the predicates and functions that extract results of static program analysis, which are useful for defining security aspects that have to know about future behavior of a program. AspectKE* also provides a novel variable binding mechanism for pointcuts, so that pointcuts can uniformly specify join points based on both static and dynamic information about the program. Our implementation strategy performs fundamental static analysis at load-time, so as to retain runtime overheads minimal. We implemented a compiler for AspectKE*, and demonstrate usefulness of AspectKE* through a security aspect for a distributed chat system.
Die Neue Ökonomische Geographie (NEG) erklärt Agglomerationen aus einem mikroökonomischen Totalmodell heraus. Zur Vereinfachung werden verschiedene Symmetrieannahmen getätigt. So wird davon ausgegangen, dass die betrachteten Regionen die gleiche Größe haben, die Ausgabenanteile für verschiedene Gütergruppen identisch sind und die Transportkosten für alle Industrieprodukte die selben sind. Eine Folge dieser Annahmen ist es, dass zwar erklärt werden kann, unter welchen Bedingungen es zur Agglomerationsbildung kommt, nicht aber wo dies geschieht. In dieser Arbeit werden drei Standardmodelle der NEG um verschiedene Asymmetrien erweitert und die Veränderung der Ergebnisse im Vergleich zum jeweiligen Basismodell dargestellt. Dabei wird neben der Theorie auf die Methoden der Simulation eingegangen, die sich grundsätzlich auf andere Modelle übertragen lassen. Darauf aufbauend wird eine asymmetrische Modellvariante auf die wirtschaftliche Entwicklung Deutschlands angewandt. So lässt sich das Ausbleiben eines flächendeckenden Aufschwungs in den neuen Ländern, die starken Wanderungsbewegungen in die alten Länder und das dauerhafte Lohnsatzgefälle in einem Totalmodell erklären.
Based on technological advances made within the past decades, ground-penetrating radar (GPR) has become a well-established, non-destructive subsurface imaging technique. Catalyzed by recent demands for high-resolution, near-surface imaging (e.g., the detection of unexploded ordnances and subsurface utilities, or hydrological investigations), the quality of today's GPR-based, near-surface images has significantly matured. At the same time, the analysis of oil and gas related reflection seismic data sets has experienced significant advances. Considering the sensitivity of attribute analysis with respect to data positioning in general, and multi-trace attributes in particular, trace positioning accuracy is of major importance for the success of attribute-based analysis flows. Therefore, to study the feasibility of GPR-based attribute analyses, I first developed and evaluated a real-time GPR surveying setup based on a modern tracking total station (TTS). The combination of current GPR systems capability of fusing global positioning system (GPS) and geophysical data in real-time, the ability of modern TTS systems to generate a GPS-like positional output and wireless data transmission using radio modems results in a flexible and robust surveying setup. To elaborate the feasibility of this setup, I studied the major limitations of such an approach: system cross-talk and data delays known as latencies. Experimental studies have shown that when a minimal distance of ~5 m between the GPR and the TTS system is considered, the signal-to-noise ratio of the acquired GPR data using radio communication equals the one without radio communication. To address the limitations imposed by system latencies, inherent to all real-time data fusion approaches, I developed a novel correction (calibration) strategy to assess the gross system latency and to correct for it. This resulted in the centimeter trace accuracy required by high-frequency and/or three-dimensional (3D) GPR surveys. Having introduced this flexible high-precision surveying setup, I successfully demonstrated the application of attribute-based processing to GPR specific problems, which may differ significantly from the geological ones typically addressed by the oil and gas industry using seismic data. In this thesis, I concentrated on archaeological and subsurface utility problems, as they represent typical near-surface geophysical targets. Enhancing 3D archaeological GPR data sets using a dip-steered filtering approach, followed by calculation of coherency and similarity, allowed me to conduct subsurface interpretations far beyond those obtained by classical time-slice analyses. I could show that the incorporation of additional data sets (magnetic and topographic) and attributes derived from these data sets can further improve the interpretation. In a case study, such an approach revealed the complementary nature of the individual data sets and, for example, allowed conclusions about the source location of magnetic anomalies by concurrently analyzing GPR time/depth slices to be made. In addition to archaeological targets, subsurface utility detection and characterization is a steadily growing field of application for GPR. I developed a novel attribute called depolarization. Incorporation of geometrical and physical feature characteristics into the depolarization attribute allowed me to display the observed polarization phenomena efficiently. Geometrical enhancement makes use of an improved symmetry extraction algorithm based on Laplacian high-boosting, followed by a phase-based symmetry calculation using a two-dimensional (2D) log-Gabor filterbank decomposition of the data volume. To extract the physical information from the dual-component data set, I employed a sliding-window principle component analysis. The combination of the geometrically derived feature angle and the physically derived polarization angle allowed me to enhance the polarization characteristics of subsurface features. Ground-truth information obtained by excavations confirmed this interpretation. In the future, inclusion of cross-polarized antennae configurations into the processing scheme may further improve the quality of the depolarization attribute. In addition to polarization phenomena, the time-dependent frequency evolution of GPR signals might hold further information on the subsurface architecture and/or material properties. High-resolution, sparsity promoting decomposition approaches have recently had a significant impact on the image and signal processing community. In this thesis, I introduced a modified tree-based matching pursuit approach. Based on different synthetic examples, I showed that the modified tree-based pursuit approach clearly outperforms other commonly used time-frequency decomposition approaches with respect to both time and frequency resolutions. Apart from the investigation of tuning effects in GPR data, I also demonstrated the potential of high-resolution sparse decompositions for advanced data processing. Frequency modulation of individual atoms themselves allows to efficiently correct frequency attenuation effects and improve resolution based on shifting the average frequency level. GPR-based attribute analysis is still in its infancy. Considering the growing widespread realization of 3D GPR studies there will certainly be an increasing demand towards improved subsurface interpretations in the future. Similar to the assessment of quantitative reservoir properties through the combination of 3D seismic attribute volumes with sparse well-log information, parameter estimation in a combined manner represents another step in emphasizing the potential of attribute-driven GPR data analyses.
Sprachverständnisuntersuchungen sind sowohl für die Forschung zum Spracherwerb und zu dessen Störungen als auch für die Diagnostik in der klinischen Praxis von essentieller Bedeutung. Zwei der verbreitetesten Methoden zur Erfassung des Verständnisses von syntaktischen Strukturen sind das Ausagieren von Sätzen (AS) und die Satz-Bild-Zuordnung (SBZ). Beide Methoden sind mit unterschiedlichen Anforderungen an die Probanden sowie mit spezifischen Vor- und Nachteilen verbunden (vgl. z.B. Goodluck 1996, Gerken & Shady 1996), woraus sich die Frage ergibt, inwiefern die Wahl der Methode das Testergebnis und die damit verbundenen Schlussfolgerungen beeinflusst. In der hier beschriebenen empirischen Untersuchung wurden die AS- und die SBZ-Methode anhand des Verstehens semantisch reversibler Sätze mit Objektvoranstellung direkt miteinander verglichen: Jeweils 24 monolingual mit Deutsch als Muttersprache aufwachsenden, sprachunauffälligen Kindern im Alter von 3;0 bis 3;5 bzw. 5;0 bis 5;5 Jahren wurden insgesamt zwölf Items, von denen neun aus semantisch reversiblen Sätzen mit Objektvoranstellung und drei aus entsprechenden subjektinitialen Kontrastsätzen bestanden, sowohl mittels der AS-Methode als auch mittels der SBZ-Methode präsentiert. Zum Ausagieren der Testsätze (AS-Test) wurden Spielzeugfiguren verwendet, für die Satz-Bild-Zuordnung (SBZ-Test) wurden pro Item ein Ziel- und zwei Ablenkerbilder erstellt. Die kindlichen Reaktionen wurden nach syntaktischen Kriterien als korrekt bzw. inkorrekt bewertet, Abweichungen wurden hinsichtlich der Fehlerart klassifiziert. Zusätzlich wurde bei den einzelnen Kindern der Erwerbsstand der untersuchten Struktur beurteilt und es wurden, sofern möglich, die eingesetzten Sprachverständnisstrategien ermittelt. Der Vergleich der Methoden ergab für die einzelnen Altersgruppen sehr unterschiedliche Befunde: Bei den 3;0- bis 3;5-jährigen Kindern zeigten sich im SBZ-Test teilweise starke Rateeffekte, die zu verfälschten Ergebnissen und kaum interpretierbaren Reaktionsmustern führten, während dies im AS-Test nicht der Fall war. Für diese Altersgruppe ist demnach die AS-Methode als die geeignetere anzusehen. Bei den 5;0- bis 5;5-jährigen Kindern konnte indes keine derartige Diskrepanz zwischen den beiden Tests festgestellt werden. Vielmehr waren die Leistungen hier insgesamt vergleichbar, so dass für diese Altersgruppe die AS- und die SBZ-Methode als für die Untersuchung des Syntaxverständnisses gleichwertig gelten können. Darüber hinaus bestätigte die Untersuchung viele der in der Literatur beschriebenen Vor- und Nachteile der beiden Methoden, darunter der geringere Materialbeschaffungsaufwand bei der AS-Methode, die größere Durchführungspraktikabilität der SBZ-Methode, die höhere Attraktivität und das geringere Risiko für Antwort-biases bei der AS-Methode, die leichtere Bewertbarkeit der kindlichen Reaktionen bei der SBZ-Methode. Im Vergleich der Altersgruppen zeigte sich, dass die 5;0- bis 5;5-jährigen Kinder Testsätze mit Objektvoranstellung deutlich besser verstanden als die 3;0- bis 3;5-jährigen: Die meisten der jüngeren Kinder hatten die untersuchte Struktur offenbar noch nicht erworben – sie interpretierten die Sätze mit Objektvoranstellung stattdessen am häufigsten nach der Wortreihenfolgestrategie, verstanden sie also wie subjektinitiale Strukturen. Von den 5;0- bis 5;5-jährigen Kindern dagegen hatten 75% die untersuchte Struktur rezeptiv erworben, interpretierten die Testsätze also primär korrekt nach der grammatischen Strategie. Aus diesen Ergebnissen wurde geschlossen, dass die Struktur semantisch reversibler Sätze mit Objektvoranstellung frühestens ab einem Alter von 5;0 bis 5;5 Jahren als in der ungestörten Sprachentwicklung rezeptiv erworben gelten kann. Da sich jedoch in beiden Altersgruppen trotz allem eine erhebliche interindividuelle Variation hinsichtlich der Verständnisfähigkeiten zeigte, muss insgesamt von einem relativ langen Zeitfenster für den ungestörten Erwerb dieser Struktur ausgegangen werden.
Within our research group Bayesian Risk Solutions we have coined the idea of a Bayesian Risk Management (BRM). It claims (1) a more transparent and diligent data analysis as well as (2)an open-minded incorporation of human expertise in risk management. In this dissertation we formulize a framework for BRM based on the two pillars Hardcore-Bayesianism (HCB) and Softcore-Bayesianism (SCB) providing solutions for the claims above. For data analysis we favor Bayesian statistics with its Markov Chain Monte Carlo (MCMC) simulation algorithm. It provides a full illustration of data-induced uncertainty beyond classical point-estimates. We calibrate twelve different stochastic processes to four years of CO2 price data. Besides, we calculate derived risk measures (ex ante/ post value-at-risks, capital charges, option prices) and compare them to their classical counterparts. When statistics fails because of a lack of reliable data we propose our integrated Bayesian Risk Analysis (iBRA) concept. It is a basic guideline for an expertise-driven quantification of critical risks. We additionally review elicitation techniques and tools supporting experts to express their uncertainty. Unfortunately, Bayesian thinking is often blamed for its arbitrariness. Therefore, we introduce the idea of a Bayesian due diligence judging expert assessments according to their information content and their inter-subjectivity.
Der vorliegende erste Band der Reihe „Schriften zum deutschen und russischen Strafrecht“ beschäftigt sich mit der für die Rechtsordnungen Deutschlands und Russlands gleichermaßen aktuellen Frage nach der zutreffenden Bestimmung des Subjekts bei den Sonderdelikten im Wirtschaftsstrafrecht. Da das russische Strafrecht keine allgemeine Vorschrift zur „Überwälzung“ besonderer persönlicher Merkmale enthält, muss der Adressatenkreis von Sonderdelikten durch – im Einzelnen strittige – dogmatische Konstruktionen bestimmt werden; besondere Schwierigkeiten bereitet die Einordnung des Insolvenzverwalters. Für das deutsche Strafrecht sind dagegen die Probleme bei der Anwendung des § 14 StGB, der eine für alle Sonderdelikte geltende Vorschrift darstellt, zu erörtern; ein Schwerpunkt liegt ebenfalls bei der Untersuchung der Stellung des Insolvenzverwalters. Der Band enthält eine deutsch- und eine russischsprachige Fassung des Beitrages.
Between history and legend
(2010)
In the early modern period, Jewish historiography moved from the Hebrew domain into the Yiddish one. Jewish writers have succeeded to match the historical literature to the particular needs of their audience. The most popular Yiddish chronicle of this kind was written in Amsterdam in the 18th century by Menachem Man Amelander, following both the Jewish and Christian genre. This paper briefly surveys the genre characteristics of this chronicle and the way it served the purpose of guarding Jewish memory and tradition.
The genome can be considered the blueprint for an organism. Composed of DNA, it harbours all organism-specific instructions for the synthesis of all structural components and their associated functions. The role of carriers of actual molecular structure and functions was believed to be exclusively assumed by proteins encoded in particular segments of the genome, the genes. In the process of converting the information stored genes into functional proteins, RNA – a third major molecule class – was discovered early on to act a messenger by copying the genomic information and relaying it to the protein-synthesizing machinery. Furthermore, RNA molecules were identified to assist in the assembly of amino acids into native proteins. For a long time, these - rather passive - roles were thought to be the sole purpose of RNA. However, in recent years, new discoveries have led to a radical revision of this view. First, RNA molecules with catalytic functions - thought to be the exclusive domain of proteins - were discovered. Then, scientists realized that much more of the genomic sequence is transcribed into RNA molecules than there are proteins in cells begging the question what the function of all these molecules are. Furthermore, very short and altogether new types of RNA molecules seemingly playing a critical role in orchestrating cellular processes were discovered. Thus, RNA has become a central research topic in molecular biology, even to the extent that some researcher dub cells as “RNA machines”. This thesis aims to contribute towards our understanding of RNA-related phenomena by applying Bioinformatics means. First, we performed a genome-wide screen to identify sites at which the chemical composition of DNA (the genotype) critically influences phenotypic traits (the phenotype) of the model plant Arabidopsis thaliana. Whole genome hybridisation arrays were used and an informatics strategy developed, to identify polymorphic sites from hybridisation to genomic DNA. Following this approach, not only were genotype-phenotype associations discovered across the entire Arabidopsis genome, but also regions not currently known to encode proteins, thus representing candidate sites for novel RNA functional molecules. By statistically associating them with phenotypic traits, clues as to their particular functions were obtained. Furthermore, these candidate regions were subjected to a novel RNA-function classification prediction method developed as part of this thesis. While determining the chemical structure (the sequence) of candidate RNA molecules is relatively straightforward, the elucidation of its structure-function relationship is much more challenging. Towards this end, we devised and implemented a novel algorithmic approach to predict the structural and, thereby, functional class of RNA molecules. In this algorithm, the concept of treating RNA molecule structures as graphs was introduced. We demonstrate that this abstraction of the actual structure leads to meaningful results that may greatly assist in the characterization of novel RNA molecules. Furthermore, by using graph-theoretic properties as descriptors of structure, we indentified particular structural features of RNA molecules that may determine their function, thus providing new insights into the structure-function relationships of RNA. The method (termed Grapple) has been made available to the scientific community as a web-based service. RNA has taken centre stage in molecular biology research and novel discoveries can be expected to further solidify the central role of RNA in the origin and support of life on earth. As illustrated by this thesis, Bioinformatics methods will continue to play an essential role in these discoveries.
Background: For heterogeneous tissues, such as blood, measurements of gene expression are confounded by relative proportions of cell types involved. Conclusions have to rely on estimation of gene expression signals for homogeneous cell populations, e.g. by applying micro-dissection, fluorescence activated cell sorting, or in-silico deconfounding. We studied feasibility and validity of a non-negative matrix decomposition algorithm using experimental gene expression data for blood and sorted cells from the same donor samples. Our objective was to optimize the algorithm regarding detection of differentially expressed genes and to enable its use for classification in the difficult scenario of reversely regulated genes. This would be of importance for the identification of candidate biomarkers in heterogeneous tissues.
Results: Experimental data and simulation studies involving noise parameters estimated from these data revealed that for valid detection of differential gene expression, quantile normalization and use of non-log data are optimal. We demonstrate the feasibility of predicting proportions of constituting cell types from gene expression data of single samples, as a prerequisite for a deconfounding-based classification approach. Classification cross-validation errors with and without using deconfounding results are reported as well as sample-size dependencies. Implementation of the algorithm, simulation and analysis scripts are available.
Conclusions: The deconfounding algorithm without decorrelation using quantile normalization on non-log data is proposed for biomarkers that are difficult to detect, and for cases where confounding by varying proportions of cell types is the suspected reason. In this case, a deconfounding ranking approach can be used as a powerful alternative to, or complement of, other statistical learning approaches to define candidate biomarkers for molecular diagnosis and prediction in biomedicine, in realistically noisy conditions and with moderate sample sizes.
Multi-color fluorescence imaging experiments of wave forming Dictyostelium cells have revealed that actin waves separate two domains of the cell cortex that differ in their actin structure and phosphoinositide composition. We propose a bistable model of actin dynamics to account for these experimental observation. The model is based on the simplifying assumption that the actin cytoskeleton is composed of two distinct network types, a dendritic and a bundled network. The two structurally different states that were observed in experiments correspond to the stable fixed points in the bistable regime of this model. Each fixed point is dominated by one of the two network types. The experimentally observed actin waves can be considered as trigger waves that propagate transitions between the two stable fixed points.
Die faulige Luft aus dem tiefsten Mittelalter, denken sich zivilisierte Mitteleuropabewohnende, und sind erstaunt zu erfahren, dass es im Iran heute legal ist, sich von einer Frau in einen Mann umoperieren zu lassen, oder umgekehrt. Noch besser: Die Geschlechtsumwandlung wird von der Krankenkasse bezahlt.
Die Aussicht auf hohe Bonuszahlungen im Erfolgsfall war ein Grund neben mehreren, der Bankmanager im Vorfeld der Finanzkrise dazu verleitet hat, risikoreiche Unternehmensstrategien zu verfolgen und die langfristige Stabilität der Institute zu gefährden. Vor allem im Kreditwesen wurden falsche Anreize in der leistungs- und erfolgsabhängigen Vergütung gesetzt. Die Vergütungssysteme belohnten Manager und Mitarbeiter für die Erreichung kurzfristiger Gewinnziele – ungeachtet der eingegangenen Risiken. Boni wurden meist in bar ausgezahlt und orientierten sich primär an nicht risikoadjustierten Kennzahlen. Inzwischen hat sich in Anbetracht der Dramatik der Finanz- und Wirtschaftskrise eine deutliche Änderung in der Gestaltung der Bonussysteme angekündigt. Wie die Geschäftsberichte einzelner Institute des Jahres 2009 andeuten, werden mit der Erholung des Bankensektors mittelfristig auch die Bonuszahlungen wieder ansteigen.
In reading, word frequency is commonly regarded as the major bottom-up determinant for the speed of lexical access. Moreover, language processing depends on top-down information, such as the predictability of a word from a previous context. Yet, however, the exact role of top-down predictions in visual word recognition is poorly understood: They may rapidly affect lexical processes, or alternatively, influence only late post-lexical stages. To add evidence about the nature of top-down processes and their relation to bottom-up information in the timeline of word recognition, we examined influences of frequency and predictability on event-related potentials (ERPs) in several sentence reading studies. The results were related to eye movements from natural reading as well as to models of word recognition. As a first and major finding, interactions of frequency and predictability on ERP amplitudes consistently revealed top-down influences on lexical levels of word processing (Chapters 2 and 4). Second, frequency and predictability mediated relations between N400 amplitudes and fixation durations, pointing to their sensitivity to a common stage of word recognition; further, larger N400 amplitudes entailed longer fixation durations on the next word, a result providing evidence for ongoing processing beyond a fixation (Chapter 3). Third, influences of presentation rate on ERP frequency and predictability effects demonstrated that the time available for word processing critically co-determines the course of bottom-up and top-down influences (Chapter 4). Fourth, at a near-normal reading speed, an early predictability effect suggested the rapid comparison of top-down hypotheses with the actual visual input (Chapter 5). The present results are compatible with interactive models of word recognition assuming that early lexical processes depend on the concerted impact of bottom-up and top-down information. We offered a framework that reconciles the findings on a timeline of word recognition taking into account influences of frequency, predictability, and presentation rate (Chapter 4).
Brodelnder Iran
(2010)
Die letzten Wahlen im Iran waren die Zündschnur am Pulverfass: Der angestaute Protest entlud sich. Wenig organisiert, jedoch mit Kreativität und erstaunlicher Dauer der Opposition. Zugleich gelingt es dem Regime weiterhin, mit Härte gegen oppositionelle Kräfte vorzugehen. So brodelt es bedrohlich im Iran. Afghanistan bleibt hierzulande auf der Tagesordnung. Obamas "neue Strategie" erinnert an Vietnam. Mit ihr wird sich der Druck auf Berlin verstärken, die Zahl der Soldaten am Hindukusch zu erhöhen. Dies erfordert weiterhin eine Debatte um Alternativen.
Die Analyse vergleicht Installationen von Bruce Nauman und Olafur Eliasson ausgehend von der Fragestellung, wie sich die künstlerischen Performativitätsstrategien der 1960er/70er Jahren und die der zeitgenössischen Kunst in ihren Wirkungen und Effekten unterscheiden lassen. Dabei werden die Positionen der beiden Künstler als paradigmatisch für eine Ästhetik des Performativen angesehen. Neben dem Vergleich der Künstler steht die theoretische Auseinandersetzung mit der Diskursfigur der Performativität sowie deren methodischen Anwendbarkeit in der Kunstwissenschaft im Vordergrund. Während sich Installationen der 1960er/70er Jahre besonders durch die psycho-physische Einwirkung auf die Sinneswahrnehmung des Betrachters auszeichnen und durchaus Schockeffekte beim Betrachter hervorrufen, befasst sich die zeitgenössische Kunstpraxis vornehmlich mit visuellen und poetischen Effekten, die eine kontemplative Rezeptionshaltung des Betrachters einfordern. Bruce Nauman war es ein Anliegen, den tradierten Status des Kunstwerks als ein zu Betrachtendes, das sich durch Begriffe wie Form, Ursprung und Originalität fassen ließ, in Frage zu stellen und stattdessen eine reale leibliche Erfahrung für den Betrachter nachvollziehbar werden zu lassen. Künstlern wie Olafur Eliasson geht es in den künstlerischen Produktionen vor allem um die Wahrnehmung der Wahrnehmung sowie der Erzeugung von Präsenzeffekten. Mit dem Aufkommen solcher Verfahren wurde deutlich, dass performative Installationen nach anderen Beschreibungsformen verlangten und, dass diese durch eine Ästhetik des Performativen gefasst werden können. Wie genau vollzieht sich der Wandel von den performativen Strategien der 1960er/70er Jahre zu denen der zeitgenössischen Installationskünstlern? Verläuft dieser vom Schock zur Poesie?
Brüche und Umbrüche
(2010)
Einen Überblick über historische Veränderungen der Bedingungen, unter denen Frauen geschrieben haben, sollte eine Ringvorlesung vermitteln, die das Institut für Germanistik der Universität Potsdam in zwei Semestern der Jahre 2005/06 veranstaltete. Unter dem Titel »Lesen und Schreiben in Umbrüchen« macht der Lehrplan in Brandenburg und Berlin für die Sekundarstufe II mindestens zwei der drei Umbrüche von 1933, 1945 und 1989 verbindlich zum Gegenstand des Literaturunterrichts. Als Institut der einzigen lehrerbildenden Universität des Landes wollten wir nicht nur Vorschläge machen, welche Autoren sich zur Behandlung dieser Umbrüche des zwanzigsten Jahrhunderts anbieten, sondern zum einen durch die Beschränkung auf weibliche Autoren in den Umbrüchen, der Veränderung gesellschaftlichen Verhältnisse, die Geschlechterverhältnisse hervorheben und über ihnen die Brüche in den Biographien nicht aussparen, zum anderen dem Blick auf die Umbrüche zwischen 1933 und 1989 durch eine Einbeziehung früherer Umbrüche historische Tiefenschärfe geben. Von der Französischen Revolution bis zur ›Wende‹ haben gesellschaftliche Umbrüche nicht nur das Leben weiblicher Autoren im Allgemeinen bestimmt, sondern auch ihr Schreiben als eine Auseinandersetzung mit ganz individuellen Brüchen.
Business process management aims at capturing, understanding, and improving work in organizations. The central artifacts are process models, which serve different purposes. Detailed process models are used to analyze concrete working procedures, while high-level models show, for instance, handovers between departments. To provide different views on process models, business process model abstraction has emerged. While several approaches have been proposed, a number of abstraction use case that are both relevant for industry and scientifically challenging are yet to be addressed. In this paper we systematically develop, classify, and consolidate different use cases for business process model abstraction. The reported work is based on a study with BPM users in the health insurance sector and validated with a BPM consultancy company and a large BPM vendor. The identified fifteen abstraction use cases reflect the industry demand. The related work on business process model abstraction is evaluated against the use cases, which leads to a research agenda.
Calibration of the global hydrological model WGHM with water mass variations from GRACE gravity data
(2010)
Since the start-up of the GRACE (Gravity Recovery And Climate Experiment) mission in 2002 time dependent global maps of the Earth's gravity field are available to study geophysical and climatologically-driven mass redistributions on the Earth's surface. In particular, GRACE observations of total water storage changes (TWSV) provide a comprehensive data set for analysing the water cycle on large scales. Therefore they are invaluable for validation and calibration of large-scale hydrological models as the WaterGAP Global Hydrology Model (WGHM) which simulates the continental water cycle including its most important components, such as soil, snow, canopy, surface- and groundwater. Hitherto, WGHM exhibits significant differences to GRACE, especially for the seasonal amplitude of TWSV. The need for a validation of hydrological models is further highlighted by large differences between several global models, e.g. WGHM, the Global Land Data Assimilation System (GLDAS) and the Land Dynamics model (LaD). For this purpose, GRACE links geodetic and hydrological research aspects. This link demands the development of adequate data integration methods on both sides, forming the main objectives of this work. They include the derivation of accurate GRACE-based water storage changes, the development of strategies to integrate GRACE data into a global hydrological model as well as a calibration method, followed by the re-calibration of WGHM in order to analyse process and model responses. To achieve these aims, GRACE filter tools for the derivation of regionally averaged TWSV were evaluated for specific river basins. Here, a decorrelation filter using GRACE orbits for its design is most efficient among the tested methods. Consistency in data and equal spatial resolution between observed and simulated TWSV were realised by the inclusion of all most important hydrological processes and an equal filtering of both data sets. Appropriate calibration parameters were derived by a WGHM sensitivity analysis against TWSV. Finally, a multi-objective calibration framework was developed to constrain model predictions by both river discharge and GRACE TWSV, realised with a respective evolutionary method, the ε-Non-dominated-Sorting-Genetic-Algorithm-II (ε-NSGAII). Model calibration was done for the 28 largest river basins worldwide and for most of them improved simulation results were achieved with regard to both objectives. From the multi-objective approach more reliable and consistent simulations of TWSV within the continental water cycle were gained and possible model structure errors or mis-modelled processes for specific river basins detected. For tropical regions as such, the seasonal amplitude of water mass variations has increased. The findings lead to an improved understanding of hydrological processes and their representation in the global model. Finally, the robustness of the results is analysed with respect to GRACE and runoff measurement errors. As a main conclusion obtained from the results, not only soil water and snow storage but also groundwater and surface water storage have to be included in the comparison of the modelled and GRACE-derived total water budged data. Regarding model calibration, the regional varying distribution of parameter sensitivity suggests to tune only parameter of important processes within each region. Furthermore, observations of single storage components beside runoff are necessary to improve signal amplitudes and timing of simulated TWSV as well as to evaluate them with higher accuracy. The results of this work highlight the valuable nature of GRACE data when merged into large-scale hydrological modelling and depict methods to improve large-scale hydrological models.
A large number and wide variety of lake ecosystem models have been developed and published during the past four decades. We identify two challenges for making further progress in this field. One such challenge is to avoid developing more models largely following the concept of others ('reinventing the wheel'). The other challenge is to avoid focusing on only one type of model, while ignoring new and diverse approaches that have become available ('having tunnel vision'). In this paper, we aim at improving the awareness of existing models and knowledge of concurrent approaches in lake ecosystem modelling, without covering all possible model tools and avenues. First, we present a broad variety of modelling approaches. To illustrate these approaches, we give brief descriptions of rather arbitrarily selected sets of specific models. We deal with static models (steady state and regression models), complex dynamic models (CAEDYM, CE-QUAL-W2, Delft 3D-ECO, LakeMab, LakeWeb, MyLake, PCLake, PROTECH, SALMO), structurally dynamic models and minimal dynamic models. We also discuss a group of approaches that could all be classified as individual based: super-individual models (Piscator, Charisma), physiologically structured models, stage-structured models and traitbased models. We briefly mention genetic algorithms, neural networks, Kalman filters and fuzzy logic. Thereafter, we zoom in, as an in-depth example, on the multi-decadal development and application of the lake ecosystem model PCLake and related models (PCLake Metamodel, Lake Shira Model, IPH-TRIM3D-PCLake). In the discussion, we argue that while the historical development of each approach and model is understandable given its 'leading principle', there are many opportunities for combining approaches. We take the point of view that a single 'right' approach does not exist and should not be strived for. Instead, multiple modelling approaches, applied concurrently to a given problem, can help develop an integrative view on the functioning of lake ecosystems. We end with a set of specific recommendations that may be of help in the further development of lake ecosystem models.
Inhalt: Introduction: The problem at hand Approaches to EU’s external identity making Mechanisms of external identity making Theoretical approaches to the EU’s external identity making The EU’s external identity promotion The ENP policy instruments Conclusions References
Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden.
Die besondere Beziehung zwischen Humboldt und Darwin, zwei der bedeutendsten Persönlichkeiten in der Welt der Naturwissenschaften und der Biologie des 19. Jahrhunderts, wird detailliert auf den verschiedenen Ebenen ihres Kontaktes analysiert, sowohl was das real stattgefundene persönliche Treffen betrifft, als auch hinsichtlich ihrer Korrespondenz und der Koinzidenz von Ideen. Dieser wechselseitige Blick zeigt uns wie sich die beiden Gelehrten gegenseitig wahrnahmen, ob sie wirklich versuchten, mit dem Paradigma ihrer bedeutenden Vorgänger zu brechen, oder ob sie lediglich schrittweise das bereits erlangte Wissen erweiterten, bis es durch die Erstellung einer genialen Idee zu einem Bruch des bisherigen Wissens kommt. Bekannt ist die wiederholte Referenz von Darwin auf die Werke Humboldts, insbesondere auf die Tagebücher des deutschen Naturwissenschaftler und seine Art der Beschreibung der amerikanischen Natur in ihrer ganzen Reichhaltigkeit. Weniger bekannt hingegen sind andere Verweise in seiner Autobiografie, sowie die wissenschaftliche Verwendung des Humboldtschen Werkes oder die Zitate in seiner Korrespondenz, die in diesem Beitrag aufgezeigt werden. Darüber hinaus wird die Verwendung der frühen Schriften von Darwin durch Humboldt in einigen seiner Publikationen, vor allem im Kosmos, erwähnt.
Die Frage, ob die CDU-Bundestagsabgeordnete Erika Steinbach, seit 1998 Präsidenten des Bundes der Vertriebenen (BdV), einen Sitz im Stiftungsrat des "Zentrums gegen Vertreibung" einnehmen soll, spaltet die politische Landschaft. Die von der SPD beantragte Aktuelle Stunde des Bundestages am 26. November 2009 machte dies erneut deutlich. Auch die neue Bundesregierung ist in dieser Frage gespalten.
Bislang konzentrierten sich die Untersuchungen des westdeutschen Blicks auf Ostdeutschland auf den Zeitraum vor der Wende oder auf Rundfunk- und Fernseh-Medien. Die Gegenwartsliteratur stellt einen weißen Fleck in dieser Frage dar. Anhand des Chronotopos-Konzepts von Michail Bachtin werden in dieser Arbeit daher zeitliche und räumliche Tiefenstrukturen in der Darstellung Ostdeutschlands in den Werken Jan Böttchers und Andreas Maiers herausgearbeitet und mit ihrer Darstellung Westdeutschlands verglichen. Neben grundsätzlichen Unterschieden fallen dabei signifikante Übereinstimmungen auf.
The aim of these lectures is a reformulation and generalization of the fundamental investigations of Alexander Bach [2, 3] on the concept of probability in the work of Boltzmann [6] in the language of modern point process theory. The dominating point of view here is its subordination under the disintegration theory of Krickeberg [14]. This enables us to make Bach's consideration much more transparent. Moreover the point process formulation turns out to be the natural framework for the applications to quantum mechanical models.
Lake ecosystems across the globe have responded to climate warming of recent decades. However, correctly attributing observed changes to altered climatic conditions is complicated by multiple anthropogenic influences on lakes. This thesis contributes to a better understanding of climate impacts on freshwater phytoplankton, which forms the basis of the food chain and decisively influences water quality. The analyses were, for the most part, based on a long-term data set of physical, chemical and biological variables of a shallow, polymictic lake in north-eastern Germany (Müggelsee), which was subject to a simultaneous change in climate and trophic state during the past three decades. Data analysis included constructing a dynamic simulation model, implementing a genetic algorithm to parameterize models, and applying statistical techniques of classification tree and time-series analysis. Model results indicated that climatic factors and trophic state interactively determine the timing of the phytoplankton spring bloom (phenology) in shallow lakes. Under equally mild spring conditions, the phytoplankton spring bloom collapsed earlier under high than under low nutrient availability, due to a switch from a bottom-up driven to a top-down driven collapse. A novel approach to model phenology proved useful to assess the timings of population peaks in an artificially forced zooplankton-phytoplankton system. Mimicking climate warming by lengthening the growing period advanced algal blooms and consequently also peaks in zooplankton abundance. Investigating the reasons for the contrasting development of cyanobacteria during two recent summer heat wave events revealed that anomalously hot weather did not always, as often hypothesized, promote cyanobacteria in the nutrient-rich lake studied. The seasonal timing and duration of heat waves determined whether critical thresholds of thermal stratification, decisive for cyanobacterial bloom formation, were crossed. In addition, the temporal patterns of heat wave events influenced the summer abundance of some zooplankton species, which as predators may serve as a buffer by suppressing phytoplankton bloom formation. This thesis adds to the growing body of evidence that lake ecosystems have strongly responded to climatic changes of recent decades. It reaches beyond many previous studies of climate impacts on lakes by focusing on underlying mechanisms and explicitly considering multiple environmental changes. Key findings show that climate impacts are more severe in nutrient-rich than in nutrient-poor lakes. Hence, to develop lake management plans for the future, limnologists need to seek a comprehensive, mechanistic understanding of overlapping effects of the multi-faceted human footprint on aquatic ecosystems.
In the high mountains of Asia, glaciers cover an area of approximately 115,000 km² and constitute one of the largest continental ice accumulations outside Greenland and Antarctica. Their sensitivity to climate change makes them valuable palaeoclimate archives, but also vulnerable to current and predicted Global Warming. This is a pressing problem as snow and glacial melt waters are important sources for agriculture and power supply of densely populated regions in south, east, and central Asia. Successful prediction of the glacial response to climate change in Asia and mitigation of the socioeconomic impacts requires profound knowledge of the climatic controls and the dynamics of Asian glaciers. However, due to their remoteness and difficult accessibility, ground-based studies are rare, as well as temporally and spatially limited. We therefore lack basic information on the vast majority of these glaciers. In this thesis, I employ different methods to assess the dynamics of Asian glaciers on multiple time scales. First, I tested a method for precise satellite-based measurement of glacier-surface velocities and conducted a comprehensive and regional survey of glacial flow and terminus dynamics of Asian glaciers between 2000 and 2008. This novel and unprecedented dataset provides unique insights into the contrasting topographic and climatic controls of glacial flow velocities across the Asian highlands. The data document disparate recent glacial behavior between the Karakoram and the Himalaya, which I attribute to the competing influence of the mid-latitude westerlies during winter and the Indian monsoon during summer. Second, I tested whether such climate-related longitudinal differences in glacial behavior also prevail on longer time scales, and potentially account for observed regionally asynchronous glacial advances. I used cosmogenic nuclide surface exposure dating of erratic boulders on moraines to obtain a glacial chronology for the upper Tons Valley, situated in the headwaters of the Ganges River. This area is located in the transition zone from monsoonal to westerly moisture supply and therefore ideal to examine the influence of these two atmospheric circulation regimes on glacial advances. The new glacial chronology documents multiple glacial oscillations during the last glacial termination and during the Holocene, suggesting largely synchronous glacial changes in the western Himalayan region that are related to gradual glacial-interglacial temperature oscillations with superimposed monsoonal precipitation changes of higher frequency. In a third step, I combine results from short-term satellite-based climate records and surface velocity-derived ice-flux estimates, with topographic analyses to deduce the erosional impact of glaciations on long-term landscape evolution in the Himalayan-Tibetan realm. The results provide evidence for the long-term effects of pronounced east-west differences in glaciation and glacial erosion, depending on climatic and topographic factors. Contrary to common belief the data suggest that monsoonal climate in the central Himalaya weakens glacial erosion at high elevations, helping to maintain a steep southern orographic barrier that protects the Tibetan Plateau from lateral destruction. The results of this thesis highlight how climatic and topographic gradients across the high mountains of Asia affect glacier dynamics on time scales ranging from 10^0 to 10^6 years. Glacial response times to climate changes are tightly linked to properties such as debris cover and surface slope, which are controlled by the topographic setting, and which need to be taken into account when reconstructing mountainous palaeoclimate from glacial histories or assessing the future evolution of Asian glaciers. Conversely, the regional topographic differences of glacial landscapes in Asia are partly controlled by climatic gradients and the long-term influence of glaciers on the topographic evolution of the orogenic system.
Community Organizing in Deutschland : Eine "neue" Möglichkeit zur Vitalisierung Lokaler Demokratie?
(2010)
Als Instrument der Bürgerbeteiligung wurde Community Organizing von Saul D. Alinsky zum ersten Mal 1939 in Chicago/Illinois erfolgreich umgesetzt. Konzeptionell speist es sich aus der Stadtsoziologie, der sozialen Arbeit sowie einer interkulturell ausgerichteten, politischen Erwachsenenbildung. In den USA hat es sich seitdem auf lokaler und überregionaler Ebene etabliert und wird nun auch in Deutschland rezipiert und zunehmend projekthaft umgesetzt. Diese Arbeit beschreibt das Konzept des Community Organizing in Deutschland explorativ und zeigt fördernde und hemmende Faktoren für dessen Umsetzung auf. Zudem wird das Konzept für den deutschen Fall bezüglich partizipativer Demokratietheorien theoretisch diskutiert und verortet: Kann Community Organizing der Theorie der partizipativen Demokratie zugeordnet werden? Hierfür wurde die Ausprägung der Kriterien Deliberation, direkter Demokratie im weitesten Sinne, Dezentralisierung, Segmentierung und Delegation untersucht und bewertet. Die zweite Frage setzt sich mit der Wirksamkeit von umgesetzten Community Organizing-Projekten auseinander: Kann es als erfolgreiches Bürgerbeteiligungsinstrument auf lokaler Ebene betrachtet werden und inwiefern können dabei die demokratietheoretischen Kriterien Legitimität, Effektivität und Qualifizierung der Bürgerinnen und Bürger erfüllt werden?
In the present work, we study wave phenomena in strongly nonlinear lattices. Such lattices are characterized by the absence of classical linear waves. We demonstrate that compactons – strongly localized solitary waves with tails decaying faster than exponential – exist and that they play a major role in the dynamics of the system under consideration. We investigate compactons in different physical setups. One part deals with lattices of dispersively coupled limit cycle oscillators which find various applications in natural sciences such as Josephson junction arrays or coupled Ginzburg-Landau equations. Another part deals with Hamiltonian lattices. Here, a prominent example in which compactons can be found is the granular chain. In the third part, we study systems which are related to the discrete nonlinear Schrödinger equation describing, for example, coupled optical wave-guides or the dynamics of Bose-Einstein condensates in optical lattices. Our investigations are based on a numerical method to solve the traveling wave equation. This results in a quasi-exact solution (up to numerical errors) which is the compacton. Another ansatz which is employed throughout this work is the quasi-continuous approximation where the lattice is described by a continuous medium. Here, compactons are found analytically, but they are defined on a truly compact support. Remarkably, both ways give similar qualitative and quantitative results. Additionally, we study the dynamical properties of compactons by means of numerical simulation of the lattice equations. Especially, we concentrate on their emergence from physically realizable initial conditions as well as on their stability due to collisions. We show that the collisions are not exactly elastic but that a small part of the energy remains at the location of the collision. In finite lattices, this remaining part will then trigger a multiple scattering process resulting in a chaotic state.
Nanofibrous mats are interesting scaffold materials for biomedical applications like tissue engineering due to their interconnectivity and their size dimension which mimics the native cell environment. Electrospinning provides a simple route to access such fiber meshes. This thesis addresses the structural and functional control of electrospun fiber mats. In the first section, it is shown that fiber meshes with bimodal size distribution could be obtained in a single-step process by electrospinning. A standard single syringe set-up was used to spin concentrated poly(ε-caprolactone) (PCL) and poly(lactic-co-glycolic acid) (PLGA) solutions in chloroform and meshes with bimodal-sized fiber distribution could be directly obtained by reducing the spinning rate at elevated humidity. Scanning electron microscopy (SEM) and mercury porosity of the meshes suggested a suitable pore size distribution for effective cell infiltration. The bimodal fiber meshes together with unimodal fiber meshes were evaluated for cellular infiltration. While the micrometer fibers in the mixed meshes generate an open pore structure, the submicrometer fibers support cell adhesion and facilitate cell bridging on the large pores. This was revealed by initial cell penetration studies, showing superior ingrowth of epithelial cells into the bimodal meshes compared to a mesh composed of unimodal 1.5 μm fibers. The bimodal fiber meshes together with electrospun nano- and microfiber meshes were further used for the inorganic/organic hybrid fabrication of PCL with calcium carbonate or calcium phosphate, two biorelevant minerals. Such composite structures are attractive for the potential improvement of properties such as stiffness or bioactivity. It was possible to encapsulate nano and mixed sized plasma-treated PCL meshes to areas > 1 mm2 with calcium carbonate using three different mineralization methods including the use of poly(acrylic acid). The additive seemed to be useful in stabilizing amorphous calcium carbonate to effectively fill the space between the electrospun fibers resulting in composite structures. Micro-, nano- and mixed sized fiber meshes were successfully coated within hours by fiber directed crystallization of calcium phosphate using a ten-times concentrated simulated body fluid. It was shown that nanofibers accelerated the calcium phosphate crystallization, as compared to microfibers. In addition, crystallizations performed at static conditions led to hydroxyapatite formations whereas in dynamic conditions brushite coexisted. In the second section, nanofiber functionalization strategies are investigated. First, a one-step process was introduced where a peptide-polymer-conjugate (PLLA-b-CGGRGDS) was co-spun with PLGA in such a way that the peptide is enriched on the surface. It was shown that by adding methanol to the chloroform/blend solution, a dramatic increase of the peptide concentration at the fiber surface could be achieved as determined by X-ray photoelectron spectroscopy (XPS). Peptide accessibility was demonstrated via a contact angle comparison of pure PLGA and RGD-functionalized fiber meshes. In addition, the electrostatic attraction between a RGD-functionalized fiber and a silica bead at pH ~ 4 confirmed the accessibility of the peptide. The bioactivity of these RGD-functionalized fiber meshes was demonstrated using blends containing 18 wt% bioconjugate. These meshes promoted adhesion behavior of fibroblast compared to pure PLGA meshes. In a second functionalization approach, a modular strategy was investigated. In a single step, reactive fiber meshes were fabricated and then functionalized with bioactive molecules. While the electrospinning of the pure reactive polymer poly(pentafluorophenyl methacrylate) (PPFPMA) was feasible, the inherent brittleness of PPFPMA required to spin a PCL blend. Blends and pure PPFPMA showed a two-step functionalization kinetics. An initial fast reaction of the pentafluorophenyl esters with aminoethanol as a model substance was followed by a slow conversion upon further hydrophilization. This was analysed by UV/Vis-spectroscopy of the pentaflurorophenol release upon nucleophilic substitution with the amines. The conversion was confirmed by increased hydrophilicity of the resulting meshes. The PCL/PPFPMA fiber meshes were then used for functionalization with more complex molecules such as saccharides. Aminofunctionalized D-Mannose or D-Galactose was reacted with the active pentafluorophenyl esters as followed by UV/Vis spectroscopy and XPS. The functionality was shown to be bioactive using macrophage cell culture. The meshes functionalized with D-Mannose specifically stimulated the cytokine production of macrophages when lipopolysaccharides were added. This was in contrast to D-Galactose- or aminoethanol-functionalized and unfunctionalized PCL/PPFPMA fiber mats.
This thesis is concerned with the issue of extinction of populations composed of different types of individuals, and their behavior before extinction and in case of a very late extinction. We approach this question firstly from a strictly probabilistic viewpoint, and secondly from the standpoint of risk analysis related to the extinction of a particular model of population dynamics. In this context we propose several statistical tools. The population size is modeled by a branching process, which is either a continuous-time multitype Bienaymé-Galton-Watson process (BGWc), or its continuous-state counterpart, the multitype Feller diffusion process. We are interested in different kinds of conditioning on non-extinction, and in the associated equilibrium states. These ways of conditioning have been widely studied in the monotype case. However the literature on multitype processes is much less extensive, and there is no systematic work establishing connections between the results for BGWc processes and those for Feller diffusion processes. In the first part of this thesis, we investigate the behavior of the population before its extinction by conditioning the associated branching process X_t on non-extinction (X_t≠0), or more generally on non-extinction in a near future 0≤θ<∞ (X_{t+θ}≠0), and by letting t tend to infinity. We prove the result, new in the multitype framework and for θ>0, that this limit exists and is non-degenerate. This reflects a stationary behavior for the dynamics of the population conditioned on non-extinction, and provides a generalization of the so-called Yaglom limit, corresponding to the case θ=0. In a second step we study the behavior of the population in case of a very late extinction, obtained as the limit when θ tends to infinity of the process conditioned by X_{t+θ}≠0. The resulting conditioned process is a known object in the monotype case (sometimes referred to as Q-process), and has also been studied when X_t is a multitype Feller diffusion process. We investigate the not yet considered case where X_t is a multitype BGWc process and prove the existence of the associated Q-process. In addition, we examine its properties, including the asymptotic ones, and propose several interpretations of the process. Finally, we are interested in interchanging the limits in t and θ, as well as in the not yet studied commutativity of these limits with respect to the high-density-type relationship between BGWc processes and Feller processes. We prove an original and exhaustive list of all possible exchanges of limit (long-time limit in t, increasing delay of extinction θ, diffusion limit). The second part of this work is devoted to the risk analysis related both to the extinction of a population and to its very late extinction. We consider a branching population model (arising notably in the epidemiological context) for which a parameter related to the first moments of the offspring distribution is unknown. We build several estimators adapted to different stages of evolution of the population (phase growth, decay phase, and decay phase when extinction is expected very late), and prove moreover their asymptotic properties (consistency, normality). In particular, we build a least squares estimator adapted to the Q-process, allowing a prediction of the population development in the case of a very late extinction. This would correspond to the best or to the worst-case scenario, depending on whether the population is threatened or invasive. These tools enable us to study the extinction phase of the Bovine Spongiform Encephalopathy epidemic in Great Britain, for which we estimate the infection parameter corresponding to a possible source of horizontal infection persisting after the removal in 1988 of the major route of infection (meat and bone meal). This allows us to predict the evolution of the spread of the disease, including the year of extinction, the number of future cases and the number of infected animals. In particular, we produce a very fine analysis of the evolution of the epidemic in the unlikely event of a very late extinction.
This thesis is concerned with the issue of extinction of populations composed of different types of individuals, and their behavior before extinction and in case of a very late extinction. We approach this question firstly from a strictly probabilistic viewpoint, and secondly from the standpoint of risk analysis related to the extinction of a particular model of population dynamics. In this context we propose several statistical tools. The population size is modeled by a branching process, which is either a continuous-time multitype Bienaymé-Galton-Watson process (BGWc), or its continuous-state counterpart, the multitype Feller diffsion process. We are interested in different kinds of conditioning on nonextinction, and in the associated equilibrium states. These ways of conditioning have been widely studied in the monotype case. However the literature on multitype processes is much less extensive, and there is no systematic work establishing connections between the results for BGWc processes and those for Feller diffusion processes. In the first part of this thesis, we investigate the behavior of the population before its extinction by conditioning the associated branching process Xt on non-extinction (Xt 6= 0), or more generally on non-extinction in a near future 0 < 1 (Xt+ 0 = 0), and by letting t tend to infinity. We prove the result, new in the multitype framework and for 0 > 0, that this limit exists and is nondegenerate. This re ects a stationary behavior for the dynamics of the population conditioned on non-extinction, and provides a generalization of the so-called Yaglom limit, corresponding to the case 0 = 0. In a second step we study the behavior of the population in case of a very late extinction, obtained as the limit when 0 tends to infinity of the process conditioned by Xt+ 0 = 0. The resulting conditioned process is a known object in the monotype case (sometimes referred to as Q-process), and has also been studied when Xt is a multitype Feller diffusion process. We investigate the not yet considered case where Xt is a multitype BGWc process and prove the existence of the associated Q-process. In addition, we examine its properties, including the asymptotic ones, and propose several interpretations of the process. Finally, we are interested in interchanging the limits in t and 0, as well as in the not yet studied commutativity of these limits with respect to the high-density-type relationship between BGWc processes and Feller processes. We prove an original and exhaustive list of all possible exchanges of limit (long-time limit in t, increasing delay of extinction 0, diffusion limit). The second part of this work is devoted to the risk analysis related both to the extinction of a population and to its very late extinction. We consider a branching population model (arising notably in the epidemiological context) for which a parameter related to the first moments of the offspring distribution is unknown. We build several estimators adapted to different stages of evolution of the population (phase growth, decay phase, and decay phase when extinction is expected very late), and prove moreover their asymptotic properties (consistency, normality). In particular, we build a least squares estimator adapted to the Q-process, allowing a prediction of the population development in the case of a very late extinction. This would correspond to the best or to the worst-case scenario, depending on whether the population is threatened or invasive. These tools enable us to study the extinction phase of the Bovine Spongiform Encephalopathy epidemic in Great Britain, for which we estimate the infection parameter corresponding to a possible source of horizontal infection persisting after the removal in 1988 of the major route of infection (meat and bone meal). This allows us to predict the evolution of the spread of the disease, including the year of extinction, the number of future cases and the number of infected animals. In particular, we produce a very fine analysis of the evolution of the epidemic in the unlikely event of a very late extinction.
Abstract interpretation-based model checking provides an approach to verifying properties of infinite-state systems. In practice, most previous work on abstract model checking is either restricted to verifying universal properties, or develops special techniques for temporal logics such as modal transition systems or other dual transition systems. By contrast we apply completely standard techniques for constructing abstract interpretations to the abstraction of a CTL semantic function, without restricting the kind of properties that can be verified. Furthermore we show that this leads directly to implementation of abstract model checking algorithms for abstract domains based on constraints, making use of an SMT solver.
Coupling of the electrical, mechanical and optical response in polymer/liquid-crystal composites
(2010)
Micrometer-sized liquid-crystal (LC) droplets embedded in a polymer matrix may enable optical switching in the composite film through the alignment of the LC director along an external electric field. When a ferroelectric material is used as host polymer, the electric field generated by the piezoelectric effect can orient the director of the LC under an applied mechanical stress, making these materials interesting candidates for piezo-optical devices. In this work, polymer-dispersed liquid crystals (PDLCs) are prepared from poly(vinylidene fluoride-trifluoroethylene) (P(VDF-TrFE)) and a nematic liquid crystal (LC). The anchoring effect is studied by means of dielectric relaxation spectroscopy. Two dispersion regions are observed in the dielectric spectra of the pure P(VDF-TrFE) film. They are related to the glass transition and to a charge-carrier relaxation, respectively. In PDLC films containing 10 and 60 wt% LC, an additional, bias-field-dependent relaxation peak is found that can be attributed to the motion of LC molecules. Due to the anchoring effect of the LC molecules, this relaxation process is slowed down considerably, when compared with the related process in the pure LC. The electro-optical and piezo-optical behavior of PDLC films containing 10 and 60 wt% LCs is investigated. In addition to the refractive-index mismatch between the polymer matrix and the LC molecules, the interaction between the polymer dipoles and the LC molecules at the droplet interface influences the light-scattering behavior of the PDLC films. For the first time, it was shown that the electric field generated by the application of a mechanical stress may lead to changes in the transmittance of a PDLC film. Such a piezo-optical PDLC material may be useful e.g. in sensing and visualization applications. Compared to a non-polar matrix polymer, the polar matrix polymer exhibits a strong interaction with the LC molecules at the polymer/LC interface which affects the electro-optical effect of the PDLC films and prevents a larger increase in optical transmission.
Crustal deformation can be the result of volcanic and tectonic activity such as fault dislocation and magma intrusion. The crustal deformation may precede and/or succeed the earthquake occurrence and eruption. Mitigating the associated hazard, continuous monitoring of the crustal deformation accordingly has become an important task for geo-observatories and fast response systems. Due to highly non-linear behavior of the crustal deformation fields in time and space, which are not always measurable using conventional geodetic methods (e.g., Leveling), innovative techniques of monitoring and analysis are required. In this thesis I describe novel methods to improve the ability for precise and accurate mapping the spatiotemporal surface deformation field using multi acquisitions of satellite radar data. Furthermore, to better understand the source of such spatiotemporal deformation fields, I present novel static and time dependent model inversion approaches. Almost any interferograms include areas where the signal decorrelates and is distorted by atmospheric delay. In this thesis I detail new analysis methods to reduce the limitations of conventional InSAR, by combining the benefits of advanced InSAR methods such as the permanent scatterer InSAR (PSI) and the small baseline subsets (SBAS) with a wavelet based data filtering scheme. This novel InSAR time series methodology is applied, for instance, to monitor the non-linear deformation processes at Hawaii Island. The radar phase change at Hawaii is found to be due to intrusions, eruptions, earthquakes and flank movement processes and superimposed by significant environmental artifacts (e.g., atmospheric). The deformation field, I obtained using the new InSAR analysis method, is in good agreement with continuous GPS data. This provides an accurate spatiotemporal deformation field at Hawaii, which allows time dependent source modeling. Conventional source modeling methods usually deal with static deformation field, while retrieving the dynamics of the source requires more sophisticated time dependent optimization approaches. This problem I address by combining Monte Carlo based optimization approaches with a Kalman Filter, which provides the model parameters of the deformation source consistent in time. I found there are numerous deformation sources at Hawaii Island which are spatiotemporally interacting, such as volcano inflation is associated to changes in the rifting behavior, and temporally linked to silent earthquakes. I applied these new methods to other tectonic and volcanic terrains, most of which revealing the importance of associated or coupled deformation sources. The findings are 1) the relation between deep and shallow hydrothermal and magmatic sources underneath the Campi Flegrei volcano, 2) gravity-driven deformation at Damavand volcano, 3) fault interaction associated with the 2010 Haiti earthquake, 4) independent block wise flank motion at the Hilina Fault system, Kilauea, and 5) interaction between salt diapir and the 2005 Qeshm earthquake in southern Iran. This thesis, written in cumulative form including 9 manuscripts published or under review in peer reviewed journals, improves the techniques for InSAR time series analysis and source modeling and shows the mutual dependence between adjacent deformation sources. These findings allow more realistic estimation of the hazard associated with complex volcanic and tectonic systems.
Um Prozesse in biologischen Systemen auf molekularer Ebene zu untersuchen, haben sich vor allem fluoreszenzspektroskopische Methoden bewährt. Die Möglichkeit, einzelne Moleküle zu beobachten, hat zu einem deutlichen Fortschritt im Verständnis von elementaren biochemischen Prozessen geführt. Zu einer der bekanntesten Methoden der Einzelmolekülspektroskopie zählt die Fluoreszenz-Korrelations-Spektroskopie (FCS), mit deren Hilfe intramolekulare und diffusionsgesteuerte Prozesse in einem Zeitbereich von µs bis ms untersucht werden können. Durch die Verwendung von sog. Fluoreszenzsonden können Informationen über deren molekulare Mikroumgebung erhalten werden. Insbesondere für die konfokale Mikroskopie und die Einzelmolekülspektroskopie werden Fluoreszenzfarbstoffe mit einer hohen Photostabilität und hohen Fluoreszenzquantenausbeute benötigt. Aufgrund ihrer hohen Fluoreszenzquantenausbeute und der Möglichkeit, maßgeschneiderte“ Farbstoffe in einem breiten Spektralbereich für die Absorption und Fluoreszenz zu entwickeln, sind Cyaninfarbstoffe von besonderem Interesse für bioanalytische Anwendungen. Als Fluoreszenzmarker finden diese Farbstoffe insbesondere in der klinischen Diagnostik und den Lebenswissenschaften Verwendung. Die in dieser Arbeit verwendeten Farbstoffe DY-635 und DY-647 sind zwei typische Vertreter dieser Farbstoffklasse. Durch Modifizierung können die Farbstoffe kovalent an biologisch relevante Moleküle gebunden werden. Aufgrund ihres Absorptionsmaximums oberhalb von 630nm werden sie insbesondere in der Bioanalytik eingesetzt. In der vorliegenden Arbeit wurden die spektroskopischen Eigenschaften der Cyaninfarbstoffe DY-635 und DY-647 in biomimetischen und biologischen Modellsystemen untersucht. Zur Charakterisierung wurden dabei neben der Absorptionsspektroskopie insbesondere fluoreszenzspektroskopische Methoden verwendet. Dazu zählen die zeitkorrelierte Einzelphotonenzählung zur Ermittlung des Fluoreszenzabklingverhaltens, Fluoreszenz-Korrelations-Spektroskopie (FCS) zur Beobachtung von Diffusions- und photophysikalischen Desaktivierungsprozessen und die zeitaufgelöste Fluoreszenzanisotropie zur Untersuchung der Rotationsdynamik und Beweglichkeit der Farbstoffe im jeweiligen Modellsystem. Das Biotin-Streptavidin-System wurde als Modellsystem für die Untersuchung von Protein-Ligand-Wechselwirkungen verwendet, da der Bindungsmechanismus weitgehend aufgeklärt ist. Nach Bindung der Farbstoffe an Streptavidin wurde eine erhebliche Veränderung in den Absorptions- und Fluoreszenzeigenschaften beobachtet. Es wird angenommen, dass diese spektralen Veränderungen durch Wechselwirkung von benachbarten, an ein Streptavidintetramer gebundenen Farbstoffmolekülen und Bildung von H-Dimeren verursacht wird. Für das System Biotin-Streptavidin ist bekannt, dass während der Bindung des Liganden (Biotin) an das Protein eine Konformationsänderung auftritt. Anhand von zeitaufgelösten Fluoreszenzanisotropieuntersuchungen konnte in dieser Arbeit gezeigt werden, dass diese strukturellen Veränderungen zu einer starken Einschränkung der Beweglichkeit des Farbstoffes DY-635B führen. Liegt eine Mischung von ungebundenem und Streptavidin-gebundenem Farbstoff vor, können die Anisotropieabklingkurven nicht nach einem exponentiellen Verlauf angepasst werden. Es konnte im Rahmen dieser Arbeit gezeigt werden, dass in diesem Fall die Auswertung mit Hilfe des Assoziativen Anisotropiemodells möglich ist, welches eine Unterscheidung der Beiträge aus den zwei verschiedenen Mikroumgebungen ermöglicht. Als zweites Modellsystem dieser Arbeit wurden Mizellen des nichtionischen Tensids Tween-20 eingesetzt. Mizellen bilden eines der einfachsten Systeme, um die Mikroumgebung einer biologischen Membran nachzuahmen. Sind die Farbstoffe in den Mizellen eingelagert, so kommt es zu keiner Veränderung der Mizellgröße. Die ermittelten Werte des Diffusionskoeffizienten der mizellar eingelagerten Farbstoffe spiegeln demzufolge die Translationsbewegung der Tween-20-Mizellen wider. Die Beweglichkeit der Farbstoffe innerhalb der Tween-20-Mizellen wurde durch zeitaufgelöste Fluoreszenzanisotropiemessungen untersucht. Neben der „Wackelbewegung“, entsprechend dem wobble-in-a-cone-Modell, wird zusätzlich noch die laterale Diffusion der Farbstoffe entlang der Mizelloberfläche beschrieben.
Das Ende der Theokratie?
(2010)
Iran steht vor einer neuen Revolution. Die Wahlen und deren offensichtlicher Betrug haben die Spaltung des Landes zu Tage gefördert. Die theokratische Herrschaft kann sich nur noch durch einen ölgeförderten Klientelismus am Leben erhalten und steht nun dort, wo der Schah vor dreißig Jahren gestanden hat. Nur durch eine kluge Politik, die auch Versöhnung bietet, kann ein friedlicher Machtwechsel herbeigeführt und die Demokratisierung des Landes ermöglicht werden.
Inhaltübersicht I. Einleitung II. Zum völkerrechtspolitischen, zeit- und entstehungsgeschichtlichen Hintergrund des FP III. Gegenwärtiger Status des FP – Eine Generalversammlungsresolution, einige Unterzeichnungen und wenige Ratifikationen IV. Der Inhalt des FP - Ein knapper Überblick V. Streitfragen im Verhandlungsverlauf und die deutsche Position zum FP VI. Argumente für und wider Unterzeichnung und Ratifikation des FP – ein Streitgespräch VII. Zusammenfassende Bewertung
Dass die Textlinguistik nicht umhin kommt, ihre Beschreibungen und ihr Instrumentarium auch im Hinblick auf Texte zu überprüfen, die nicht von Muttersprachlern erzeugt worden sind, ist durch die wachsenden Bedürfnisse nach fremdsprachiger Kommunikation und die rapide steigende Zahl entsprechender kommunikativer Ereignisse bedingt. Der Fokus der vorliegenden Publikation liegt auf dem fremdsprachigen Text (vorzugsweise in seiner schriftlichen, monologischen Ausprägung) als sprachlicher Größe liegen. Bei der Analyse fremdsprachiger Texte werden neben textlinguistischen Fragen aber auch andere Gesichtspunkte berücksichtigt: soziolinguistische Aspekte, z.B. in Bezug auf die Kommunikationspartner, die kommunikativen Domänen, den sozial-historischen Rahmen der Kommunikation usw., psycholinguistische Hintergründe, z.B. im Hinblick auf die kognitive Verarbeitung fremdsprachlich-kommunikativer Anforderungen, literaturwissenschaftliche Bezüge, etwa hinsichtlich fremdsprachiger Einflüsse auf literarische Werke und ihre Rolle im literarischen Diskurs, translationswissenschaftliche Gesichtspunkte im Hinblick auf die Adaptation und Bewahrung des Fremden im übersetzten Text sowie pädagogisch-didaktische Fragen im Rahmen des gesteuerten Fremdsprachenerwerbs.
Das Korps der Janitscharen
(2010)
Architektur und Städtebau des Sozialismus haben nach der politischen Wende der Jahre 1989-1991 einen erheblichen Wertungswandel erfahren. Insbesondere die in industrieller Bauweise errichteten Quartiere des komplexen Wohnungsbaus, die einstmals privilegierte Wohngegenden waren, haben heute oftmals den Ruf von „Ghettos“. Die vorliegende Arbeit möchte einen Beitrag dazu leisten, dieses Bild zu korrigieren und das öffentliche Image von Plattenbausiedlungen zu verbessern. Dazu wurde anhand des ostdeutschen Plattenbaugebietes Strausberg-Hegermühle untersucht, welche Faktoren die positive Identifikation der Bewohner mit ihrem Viertel begünstigen. Ziel der Arbeit ist, damit Anregungen für die Praxis lokal engagierter Bürger, Kommunalpolitiker, Wohnungsgesellschaften und Verwaltungen zu geben. Das Wohngebiet „Hegermühle“ in der brandenburgischen Mittelstadt Strausberg wurde in den 1980er Jahren gebaut. Die Bevölkerung Hegermühles war bis 1990 stark durch Mitarbeiter des Ministeriums für Nationale Verteidigung der Deutschen Demokratischen Republik geprägt. Die Wohnungen im Viertel waren wegen ihres hohen technischen Standards begehrt. Nach dem Ende der DDR erfuhr das Viertel einen starken Wandel seiner Sozialstruktur und bekam ein Image, das zwischen den Polen „graue Schlafstadt“ und „sozialer Brennpunkt“ angesiedelt ist. In diesem Wohngebiet wurde im zweiten Halbjahr 2009 eine qualitative Untersuchung durchgeführt. Neben mehreren in Bild- und Textform dokumentierten Feldexplorationen wurde eine Reihe von Interviews mit Personen geführt, die aktuell in Hegermühle wohnen oder früher dort wohnten. Die Auswahl der Interviewpartner erfolgte nach der Methode des Theoretical Sampling (Glaser/Strauss), wobei eine möglichst große Differenzierung des Samples nach Alter, Herkunft, Geschlecht und Beruf angestrebt wurde. Die Interviews wurden nach der Methode des Problemzentrierten Interviews (Witzel) geführt und auf Grundlage des Konzepts der Grounded Theory (Glaser/Strauss) ausgewertet. Für die Arbeit wurden acht Interviews ausgewählt, in denen die Interviewten Auskunft geben über die folgenden Themen: die Umstände ihres Zuzugs nach Hegermühle, die Entwicklung des Wohngebiets seitdem, das Image Hegermühles, ihr eigenes Verhältnis zum Viertel und die Perspektiven des Wohngebiets. Als Ergebnis der Arbeit lässt sich festhalten, dass die positive Identifikation mit dem Wohngebiet am stärksten durch die problematische Sozialstruktur behindert wird, die in hohem Maße von Arbeitslosigkeit und sozialen Desintegrationserscheinungen geprägt ist. Davon abgesehen überwiegen pragmatische Kriterien bei der Bewertung des Wohngebiets. Die gute infrastrukturelle Ausstattung Hegermühles mit Einkaufs-, Betreuungs- und Erholungsmöglichkeiten wurde von allen Befragten positiv hervorgehoben. Diese Faktoren sind jedoch genau so auch in anderen Orten zu finden und damit nicht geeignet, eine Identifikation mit einem spezifischen Ort zu befördern. Von den Befragten wurde daher auch mehrfach auf das Fehlen von Merkmalen hingewiesen, die Hegermühle auszeichnen und es von anderen Vierteln abheben. Dagegen war die Lokalidentität bei den Interviewpartnern am stärksten, die den Aufbau Hegermühles in den 1980er Jahren persönlich miterlebt haben. Die Arbeit schließt darum mit Überlegungen, wie diese Erfahrung einer Ortsgeschichte, die Bedeutung für die eigene Biografie hat, anderen Einwohnern vermittelt werden kann. Zwei mögliche Konzepte werden vorgeschlagen: a) die Erforschung und Vermittlung der Wohngebietsgeschichte, sowie b) die Schaffung und Pflege räumlicher Identifikationspunkte, die die lokale Geschichte, Landschaft und andere Besonderheiten des Viertels im Alltag erfahrbar machen. Beispielsweise können Kunstwerke im öffentlichen Raum oder Gedenktafeln als Anknüpfungspunkte einer ortsbezogenen Identität dienen und ein Gefühl persönlicher Verbundenheit mit dem Wohnort bestärken. Damit könnte unabhängig von pragmatischen Faktoren eine Bindung an den Ort begünstigt und die Bereitschaft der Einwohner erhöht werden, sich für die Verbesserung der Verhältnisse im Wohngebiet einzusetzen.
Kenia erlangt Anfang der 1960er seine Unabhängigkeit und wird in der Folge von den Präsidenten Kenyatta und später Moi autoritär regiert. Als Konsequenz des internationalen und nationalen Druckes werden 1991 wieder Mehrparteienwahlen zugelassen. Die Hoffnungen auf einen Trendwechsel werden zunächst aber nicht erfüllt. Präsident Moi bleibt bei den Wahlen 1992 und 1997 siegreich und versucht jeden möglichen Reformprozess aufzuhalten bzw. zu verlangsamen. Mit dem neu gewählten Präsidenten Kibaki entsteht 2002 die Hoffnung auf Veränderung. Aber als alter Wegbegleiter Mois erfüllt Kibaki nicht die internationalen und nationalen Erwartungen. Moi und Kibaki organisieren jeweils kontra-demokratische Eliten hinter sich und nutzen das mächtige Präsidentenamt, die stärkste Institution im politischen System Kenias, um den Status quo so lange wie möglich zu erhalten. Die Parteien werden weder durch die Regierung noch durch die Opposition zu starken Institutionen transformiert und das unstete Verhalten der Geberländer vermag den Einfluss der autoritären Führung nicht dauerhaft einzuschränken.
Das Sammelbilderproblem
(2010)
Der Anstieg der Energiepreise kann zu einer länger anhaltenden Verteuerung von Gütertransporten führen. Welche Auswirkungen haben steigende Transportkosten auf die Entwicklung von Städtesystemen? Ein solcher Transportkostenanstieg hat in der Russischen Föderation nach der Preisliberalisierung 1992 real, d.h. in Relation zu den Preisen anderer Gütergruppen stattgefunden. Gleichzeitig stellt die Bevölkerungsstatistik der Russischen Föderation Daten bereit, mit deren Hilfe Hypothesen zur Entwicklung von Städtesystemen unter dem Einfluss steigender Transportkosten geprüft werden können. Diese Daten werden in der vorliegenden Arbeit umfassend ausgewertet. Den theoretischen Hintergrund liefert die Modellierung eines Städtesystems mit linearer Raumstruktur im Rahmen der Neuen Ökonomischen Geographie. Damit wird ein Werkzeug geschaffen, das auch auf weiträumige Städtesysteme mit ausgeprägter Bandstruktur angewendet werden kann. Die hier erstmals erfolgte ausführliche Erläuterung des zu Grunde liegenden Theorieansatzes versteht sich als Ergänzung der Standardlehrbücher der Raumwirtschaftstheorie. Die Ergebnisse der empirischen Untersuchung bestätigen die Prognose des Modells, dass in großflächigen Ländern bzw. Regionen mit Ähnlichkeit zur unterstellten Raumstruktur ein Anstieg der Transportkosten Konzentrationstendenzen in den Zentren befördert, während die peripheren Regionen zunehmend abgekoppelt werden.
I. Einführung II. Aufgaben des einheitlichen Ansprechpartners nach der DLRL III. Verwaltungsverfahrensrechtliche Umsetzung durch §§ 71a ff. VwVfG (Bund) IV. Verfassungsrechtliche Fragen der Verbandsebenenüberschreitung IV. 1. Konstellationen verbandsübergreifenden Handelns IV. 2. Regelungsbedarf aufgrund der DLRL? IV. 3. Verfassungsrechtliche Zulässigkeit IV. 4. Landesverwaltungsverfahrensrechtliche Umsetzung V. Ansiedlungsoptionen V. 1. Vorgaben der DLRL und Modelle in Deutschland (Übersicht) V. 2. Problemfragen der kommunalen Ansiedlung
Das Verschwindenlassen
(2010)
Die Entwicklung der deutschen Regionen nach der Wiedervereinigung kann mit Hilfe der Neuen Ökonomischen Geographie erklärt werden. Die gängigen Modelle zeigen aber weder, wie dauerhafte Lohnsatzdifferenzen ohne vollständige Agglomeration entstehen, noch wird die Frage beantwortet, in welcher der betrachteten Regionen sich eine Agglomeration bildet. Diese Lücke wird hier geschlossen, indem das Modell von Ludema und Wooton (1997) erweitert und anschließend auf die Situation in Deutschland angewendet wird.
rezensiertes Werk: Grossman, David: Eine Frau flieht vor einer Nachricht. - München : Hanser, 2009. - 728 S. ISBN 978-3-446-23397-3
Der Beitrag erinnert an das wechselvolle Leben des Friedensnobelpreisträgers Henry Dunant, sucht nach biografischen Wurzeln seines von Menschlichkeit und Würde getragenen Verhaltens und macht auf seine Leistungen aufmerksam. Er will aber auch die Frage nach der Bedeutung des humanitären Völkerrechts im Verhältnis von Krieg und Frieden nicht außer Acht lassen.
Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter
(2010)
Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus.
Kinder erwerben Passivstrukturen später als die meisten anderen syntaktischen Strukturen. Die vorliegende Studie beschäftigt sich mit der Frage, ob dies auf informationsstrukturelle Faktoren zurückzuführen sein könnte. Probleme beim Erwerb von Passivsätzen wurden in vorhergehenden Studien unter anderem auf ihre geringe Inputfrequenz oder bestimmte syntaktische Charakteristika von Passivsätzen zurückgeführt. Jedoch konnte bisher keiner dieser Ansätze ihr spätes Erwerbsalter umfassend erklären. Während Aktivsätze, die kanonische, unmarkierte Satzstruktur im Deutschen, in jeglichem Diskurskontext verwendet werden können, werden Passivsätze fast ausschließlich dann verwendet, wenn der Patiens der beschriebenen Handlung schon vorerwähnt war und/ oder als Topik eines Satzes fungieren soll. Passivsätze sind also nicht in jedem Kontext informationsstrukturell adäquat. Kinder haben im Gegensatz zu Erwachsenen aufgrund ihrer geringeren syntaktischen Fähigkeiten Probleme, Sätze zu verarbeiten, die nicht in einem adäquaten Kontext stehen. Der Einfluss dieser Kontextbedingungen auf das Satzverständnis wurde in der vorliegenden Studie bei deutschsprachigen Kindern untersucht. Kindern zwischen 3;0 und 4;11 Jahren wurden Aktiv- oder Passivsätze präsentiert, denen informationsstrukturell adäquate, inadäquate oder neutrale Kontextsätze vorangingen. Wie erwartet verstanden die Kinder Aktivsätze besser als Passivsätze und 4-jährige Kinder zeigten bessere Leistungen als 3-jährige. Es gab Tendenzen, dass die 3-jährigen Kinder Passivsätze besser, aber Aktivsätze schlechter verstanden, wenn ihr Subjekt vorerwähnt wurde. Statistisch signifikante Kontexteffekte fanden sich jedoch im Gegensatz zu einer vergleichbaren Studie mit englischsprachigen Kindern (Gourley und Catlin, 1978) in keiner Testbedingung. Außerdem zeigte sich, dass die Kinder Passivsätze insgesamt besser und Aktivsätze insgesamt schlechter verstanden als englischsprachige Kinder in anderen Studien. Die Ergebnisse werden mit dem Competition Modell (Mac Whinney und Bates, 1987) und einer Sprachverarbeitungstheorie von Stromswold (2002) erklärt. Außerdem wird diskutiert, warum die deutschsprachigen Kinder in der vorliegenden Studie andere Sprachverständnisleistungen zeigten als englischsprachige Kinder.
Der Einfluss subsilbischer Frequenzen auf die Verbflexion im normalen und gestörten Spracherwerb
(2010)
Mit dem Amtsantritt Barack Obamas wurden nach Jahren schwelender Kriegsgefahr mit dem Iran große Hoffnungen verbunden. Das Papier analysiert die der US-Regierung vorgelegten Iran-Strategiepapiere im Hinblick auf eine Lösung im Iran-Konflikt. Das Spektrum der angedachten Politik reicht von Scheindiplomatie zur Kriegslegitimation bis hin zu selektiver Annäherung. Zum Schluss wird der Frage nachgegangen, inwieweit tatsächlich eine Wende in der Iran-Politik Obamas zu erwarten ist.
Wasser ist rar im Nahen Osten. Die knappe Ressource wird immer häufiger zum Gegenstand politischer Konflikte in der ohnehin instabilen Region. Der Konflikt zwischen Israel und Palästina gilt als eines der gravierendsten Beispiele für diese Entwicklung: Wasser als umkämpftes Menschenrecht, Wasser als strategisches Mittel der Besetzungspolitik und Wasser als Gegenstand langwieriger Verhandlungen. Der Wasserkonflikt ist so alt wie der Nahostkonflikt selbst. Sogar mit Beginn des Oslo-Prozesses 1993 hat es weder einen grundlegenden Wandel im Wasserkonflikt, noch in der Aussicht auf Veränderung der Wasserknappheit gegeben. Immerhin können die Palästinenser in der momentanen Situation ihre eigene Wasserversorgung dort selbst verwalten, wo es ihnen laut der Übereinkünfte erlaubt ist. Jedoch ist diese Freiheit eine sehr begrenzte und eine endgültige Klärung dieses Streitpunktes wurde, zusammen mit Jerusalem, den Flüchtlingen, den Siedlungen und der Staatsbildung auf die Endstatusverhandlungen verschoben. Chadi Bahouth, Absolvent des Otto-Suhr-Instituts der Freien Universität Berlin, untersucht in seiner Doktorarbeit die Gründe für die ungelöste Wasserfrage. Er analysiert die historische und rechtliche Chronologie des Konfliktes, bietet Lösungsvorschläge für die Wasserkrise an und erklärt, warum die Region dennoch für Generationen nicht zur Ruhe kommen wird.
Recent large earthquakes put in evidence the need of improving and developing robust and rapid procedures to properly calculate the magnitude of an earthquake in a short time after its occurrence. The most famous example is the 26 December 2004 Sumatra earthquake, when the limitations of the standard procedures adopted at that time by many agencies failed to provide accurate magnitude estimates of this exceptional event in time to launch early enough warnings and appropriate response. Being related to the radiated seismic energy ES, the energy magnitude ME is a good estimator of the high frequency content radiated by the source which goes into the seismic waves. However, a procedure to rapidly determine ME (that is to say, within 15 minutes after the earthquake occurrence) was required. Here it is presented a procedure able to provide in a rapid way the energy magnitude ME for shallow earthquakes by analyzing teleseismic P‑waves in the distance range 20-98. To account for the energy loss experienced by the seismic waves from the source to the receivers, spectral amplitude decay functions obtained from numerical simulations of Greens functions based on the average global model AK135Q are used. The proposed method has been tested using a large global dataset (~1000 earthquakes) and the obtained rapid ME estimations have been compared to other magnitude scales from different agencies. Special emphasis is given to the comparison with the moment magnitude MW, since the latter is very popular and extensively used in common seismological practice. However, it is shown that MW alone provide only limited information about the seismic source properties, and that disaster management organizations would benefit from a combined use of MW and ME in the prompt evaluation of an earthquake’s tsunami and shaking potential. In addition, since the proposed approach for ME is intended to work without knowledge of the fault plane geometry (often available only hours after an earthquake occurrence), the suitability of this method is discussed by grouping the analyzed earthquakes according to their type of mechanism (strike-slip, normal faulting, thrust faulting, etc.). No clear trend is found from the rapid ME estimates with the different fault plane solution groups. This is not the case for the ME routinely determined by the U.S. Geological Survey, which uses specific radiation pattern corrections. Further studies are needed to verify the effect of such corrections on ME estimates. Finally, exploiting the redundancy of the information provided by the analyzed dataset, the components of variance on the single station ME estimates are investigated. The largest component of variance is due to the intra-station (record-to-record) error, although the inter-station (station-to-station) error is not negligible and is of several magnitude units for some stations. Moreover, it is shown that the intra-station component of error is not random but depends on the travel path from a source area to a given station. Consequently, empirical corrections may be used to account for the heterogeneities of the real Earth not considered in the theoretical calculations of the spectral amplitude decay functions used to correct the recorded data for the propagation effects.
Außenpolitik ist von den Werten, dem Selbstverständnis einer Gesellschaft und den ökonomischen Interessen ihrer Volkswirtschaft geprägt. In den ersten beiden Teilen dieses Essays zeigen wir auf, wie Deutschland seine Werte behutsam erneuern sollte und welche Bereiche zur Wahrung seines ökonomischen Wohlstands zentral sind. Auf dieses Fundament setzen wir ein Plädoyer für eine neue außenpolitische Kultur, die Interessen offen debattiert und klar definiert, um sie erfolgreich durchzusetzen.
Die vorliegende Zusammenstellung deutscher Menschenrechtspreise dokumentiert menschenrechtliches Engagement aus verschiedenen Perspektiven: - Erstens gibt die Sammlung einen Überblick über die von Einrichtungen und Organisationen vergebenen Menschenrechtspreise. Sie informiert über die Preise selbst und über die aktuellen Preisträger ebenso wie über die Wertvorstellungen und Ziele ihrer Stifter und deren postalische und elektronische Adressen, um bei der Suche nach möglichen Ansprechpartnern behilflich zu sein. - Zweitens vermittelt die Sammlung einen Eindruck von der Vielfalt menschenrechtlichen Handelns am Beispiel der aktuellen Preisträger und weist auf ihre herausragenden und zu würdigenden Leistungen hin. Die Zusammenstellung zeigt, dass Empathie und Empowerment möglich und dem Anliegen förderlich sind. - Drittens bekundet sie das Bedürfnis, den Einsatz für Menschenwürde und Schutz der Menschenrechte öffentlich zu ehren. Damit ist die Absicht verbunden, gesellschaftliches Interesse für diese Fragen zu wecken, die dem Ziel folgt, Menschenrechte leben zu lernen. Die überwiegende Mehrheit – das heißt 35 – der aktuell insgesamt 43 deutschen Menschenrechtspreise wurde erst in den letzten 20 Jahren eingerichtet. Das lässt auch auf den wachsenden Nachdruck im menschenrechtsverbundenen Auftreten (und Handeln) von politischen, konfessionellen, künstlerischen, sportlichen oder auch privatwirtschaftlichen Verantwortungsträgern schließen. Aus der Vielzahl der vergebenen Ehrenpreise wurden all jene Auszeichnungen in der Auflistung berücksichtigt, die entweder im Titel oder in der Beschreibung der Vergabekriterien und Begründungen auf die Begriffe der Menschenrechte und Menschenwürde Bezug nehmen. Grundlage der Daten und Einschätzungen sind in der Regel die Selbstdarstellungen der Vergabeeinrichtungen, wie sie ihren Homepages zu entnehmen waren. Die Web-Adressen – wie unter der Rubrik Kontakt jeweils angegeben – gelten als Beleg. Stichtag für den Rechercheschluss ist der 30. April 2010.
Deutsche Sinti und Roma
(2010)
Um die Geschichte und aktuelle Situation von Sinti und Roma in Berlin und Brandenburg wissen nur wenige. Vorurteile und Stereotype, die Sinti und Roma gegenüber existieren, obwohl es wenig Kontakte gibt, werden kaum reflektiert. Die existierenden Rechtsnormen, wonach auch über Kultur und Geschichte von Sinti und Roma in der Schule Informationen zu vermitteln sind, sind unter Pädagoginnen und Pädagogen wenig bekannt. Die Perspektive von Sinti und Roma - sei es durch die Verwendung entsprechender Quellen oder durch das direkte Gespräch - wird im schulischen Rahmen kaum eingenommen. Die vorliegende, in Zusammenarbeit mit dem Landesverband Deutscher Sinti und Roma Berlin-Brandenburg e.V. erarbeiteten, Publikation soll aktuelle Informationen zur Situation der Sinti und Roma in Berlin-Brandenburg vermitteln und damit nach der letzten, vom damaligen PLiB (heute LISUM) 1994 herausgegebenen Publikation wieder ein aktuelles Material zur Verfügung stellen. Auch sollen neue Ansätze zur Thematisierung im Unterricht angeregt werden, die von und mit Lehramtsstudierenden an der Universität Potsdam erarbeitet wurden. Auf die traditionellen Ansätze der schulischen Thematisierung vor allem im Kontext mit dem nationalsozialistischen Völkermord an Sinti und Roma oder der Antivorurteilspädagogik sowie weiterführende Literatur wird an geeigneter Stelle verwiesen. Im Gegensatz zu vielen traditionellen Materialien soll hier Kultur von Sinti und Roma als lebendige Kultur im heutigen Deutschland wahrgenommen bzw. aktuelle Bezüge zur Lebenswelt der Schülerinnen und Schüler hergestellt werden.
Der vorgestellte Beitrag erforscht die wirtschaftlichen Tätigkeiten der großen deutschen Unternehmen Gelsenkirchen AG, Deutscher Kaiser AG sowie weiterer Firmen und Banken in Georgien am Ende des 19. und Anfang des 20. Jahrhunderts. Diesbezüglich sind in der Arbeit die folgenden Schwerpunkte gesetzt worden: - Erforschung des Wirkens der Firmen Gelsenkirchen AG und Deutscher Kaiser AG und seiner Folgen; - Darstellung der positiven und negativen Seiten ihres Einfluss auf die georgische Wirtschaft; - Darstellung der (insbesondere wirtschaftlichen) Beziehungen zwischen Deutschland und der Demokratischen Republik Georgien (1918 – 1921). Die wissenschaftliche und praktische Relevanz kann wie folgt formuliert werden: - Es wird begründet, dass die deutschen Firmen durch ihre Aktivitäten in Georgien (Bau von Eisenbahnlinien, Einführung einer Reihe von Neuheiten in der Kupfer- und Manganproduktion sowie der Metallverarbeitung) eine entscheidende Rolle in der wirtschaftlichen Entwicklung des Landes spielten; - Die Aktivitäten der Firmen, deren positive und negative Seiten sowie ihr Einfluss auf die georgische Wirtschaft werden im Einzelnen charakterisiert.
Development of techniques for earthquake microzonation studies in different urban environment
(2010)
The proliferation of megacities in many developing countries, and their location in areas where they are exposed to a high risk from large earthquakes, coupled with a lack of preparation, demonstrates the requirement for improved capabilities in hazard assessment, as well as the rapid adjustment and development of land-use planning. In particular, within the context of seismic hazard assessment, the evaluation of local site effects and their influence on the spatial distribution of ground shaking generated by an earthquake plays an important role. It follows that the carrying out of earthquake microzonation studies, which aim at identify areas within the urban environment that are expected to respond in a similar way to a seismic event, are essential to the reliable risk assessment of large urban areas. Considering the rate at which many large towns in developing countries that are prone to large earthquakes are growing, their seismic microzonation has become mandatory. Such activities are challenging and techniques suitable for identifying site effects within such contexts are needed. In this dissertation, I develop techniques for investigating large-scale urban environments that aim at being non-invasive, cost-effective and quickly deployable. These peculiarities allow one to investigate large areas over a relative short time frame, with a spatial sampling resolution sufficient to provide reliable microzonation. Although there is a negative trade-off between the completeness of available information and extent of the investigated area, I attempt to mitigate this limitation by combining two, what I term layers, of information: in the first layer, the site effects at a few calibration points are well constrained by analyzing earthquake data or using other geophysical information (e.g., shear-wave velocity profiles); in the second layer, the site effects over a larger areal coverage are estimated by means of single-station noise measurements. The microzonation is performed in terms of problem-dependent quantities, by considering a proxy suitable to link information from the first layer to the second one. In order to define the microzonation approach proposed in this work, different methods for estimating site effects have been combined and tested in Potenza (Italy), where a considerable amount of data was available. In particular, the horizontal-to-vertical spectral ratio computed for seismic noise recorded at different sites has been used as a proxy to combine the two levels of information together and to create a microzonation map in terms of spectral intensity ratio (SIR). In the next step, I applied this two-layer approach to Istanbul (Turkey) and Bishkek (Kyrgyzstan). A similar hybrid approach, i.e., combining earthquake and noise data, has been used for the microzonation of these two different urban environments. For both cities, after having calibrated the fundamental frequencies of resonance estimated from seismic noise with those obtained by analysing earthquakes (first layer), a fundamental frequency map has been computed using the noise measurements carried out within the town (second layer). By applying this new approach, maps of the fundamental frequency of resonance for Istanbul and Bishkek have been published for the first time. In parallel, a microzonation map in terms of SIR has been incorporated into a risk scenario for the Potenza test site by means of a dedicated regression between spectral intensity (SI) and macroseismic intensity (EMS). The scenario study confirms the importance of site effects within the risk chain. In fact, their introduction into the scenario led to an increase of about 50% in estimates of the number of buildings that would be partially or totally collapsed. Last, but not least, considering that the approach developed and applied in this work is based on measurements of seismic noise, their reliability has been assessed. A theoretical model describing the self-noise curves of different instruments usually adopted in microzonation studies (e.g., those used in Potenza, Istanbul and Bishkek) have been considered and compared with empirical data recorded in Cologne (Germany) and Gubbio (Italy). The results show that, depending on the geological and environmental conditions, the instrumental noise could severely bias the results obtained by recording and analysing ambient noise. Therefore, in this work I also provide some guidelines for measuring seismic noise.
Einleitung Die folgende Publikation ist eine der frühen Schriften Ilse Jahns über Alexander von Humboldt und zu Unrecht weitgehend in Vergessenheit geraten. Hier beschrieb sie eine wichtige Zeitetappe im Leben des jungen Naturwissenschaftlers Alexander von Humboldt: seine Studien während seiner Aufenthalte in Jena im Jahr 1797 bei Justus Christian Loder (1753-1832), der seit 1778 Professor der Medizin, Anatomie und Chirurgie an der Universität von Jena war. Nach seinen naturwissenschaftlichen und kameralistischen Studien in Frankfurt/Oder, Göttingen, Hamburg und Freiberg in Sachsen hatte Humboldt 1792 eine Anstellung als Assessor im preußischen Bergdienst angetreten, die er bis Ende 1796 innehatte. Während dieser Zeit beschäftigte er sich außerdem mit wissenschaftlichen Studien. Insbesondere versuchte er, durch galvanische Experimente (darunter auch schmerzhafte Selbstversuche), dem Geheimnis der Lebenskraft, einem damals hochaktuellen Thema, auf die Spur zu kommen. In dem Zusammenhang wurde sein erster Besuch 1794 bei seinem Bruder Wilhelm in Jena, einem wichtigen Zentrum der fortschrittlichen und durch die Aufklärung geprägten Wissenschaften jener Zeit, zu einem Schlüsselerlebnis für den jungen Forscher. Besonders Humboldts dritter Aufenthalt dort im Jahre 1797 war von der intensiven Arbeit gemeinsam mit Goethe und Loder geprägt. Bei letzterem hatte sein Bruder Wilhelm bereits 1794 anatomische Vorlesungen gehört. Im Leben Alexander von Humboldts fällt dieser Aufenthalt bereits in eine neue Phase. Er hatte nach Beendigung seiner Anstellung im Bergdienst und begünstigt durch das Erbe, das ihm nach dem Tod seiner Mutter 1796 zugefallen war, den Entschluss gefasst, eine große Forschungsreise zu unternehmen. Nun orientieren sich seine Interessen an diesem neuen Ziel: der wissenschaftlichen Vorbereitung dieser Reise. Auch deshalb intensivierte er seine anatomischen Studien bei Loder: die Teilnahme an Anatomievorlesungen und an einem Präparierkurs wurde 1797 seine Hauptbeschäftigung, wie er mehrfach in Briefen betonte (siehe unten, S. 95). Für Alexander von Humboldt, der zwei Jahre später zu seiner berühmten Amerikareise aufbrechen sollte, hatte dieser Aufenthalt also ebenso wie die in derselben Phase stattfindenden kleineren Reisen oder seine Beschäftigung mit Messinstrumenten einen prägenden Einfluss auf seine künftige Forschungskonzeption, die durch die Betonung von Experiment, Erfahrung und Vergleich gekennzeichnet ist. So wandte er beispielsweise in seinem Werk über seine galvanischen und chemischen Experimente „Versuche über die gereizte Muskel- und Nervenfaser“ bereits die für ihn später typische komparatistische Methode an. Der erste Band des Buchs, das er selbst sein „physiologisches Werke über den Lebensprocess“ nannte, erschien ebenfalls 1797 und war beeinflusst durch die physiologischen Experimente in dieser Phase. Ilse Jahn beleuchtete in dem vorliegenden Text die scientific community der Jenaer Klassik, in der vielseitig gebildete Größen der Kulturgeschichte gemeinsam intensive naturwissenschaftliche Studien trieben, praktische Experimente durchführten und Schlussfolgerungen diskutierten. Nicht nur wegen der besonderen fachlichen Zusammenarbeit und gegenseitigen Befruchtung ist die Schilderung von Interesse, sondern auch, weil diese Forschertätigkeit beispielhaft den zu der Zeit in den Naturwissenschaften, insbesondere in Biologie und Physiologie, stattfindenden paradigmatischen Wandel, die Emanzipation von der allgemeineren Naturkunde, beleuchtet. Hervorzuheben ist im folgenden Text ebenfalls die Betonung der gemeinsamen Tätigkeit, jedoch unterschiedlichen Blickrichtung der beiden Brüder, die ja sonst in der Literatur eher selten gemeinsam betrachtet oder verglichen werden. Die Beschäftigung der Autorin mit der Thematik der Zusammenarbeit und gegenseitigen Beeinflussung, aber auch der unterschiedlichen Ansichten und Methoden, die sie hier am Beispiel Loder, der Brüder Humboldt und Goethe darlegte, zog sich wie ein roter Faden durch ihre verschiedenen Arbeiten über Alexander von Humboldt bis zu der mehr als 30 Jahre später von ihr initiierten Leopoldina-Tagung „Das Allgemeine und das Einzelne – Johann Wolfgang von Goethe und Alexander von Humboldt im Gespräch“. Hier trafen sich 1999 in Halle Experten der Goethe- und Humboldt-Editionen zu einem fruchtbaren Meinungsaustausch. Wie Ilse Jahn betonte, ging es „um die wissenschaftliche Kommunikation selbst, um den Erfahrungsaustausch und den wissenschaftlichen Meinungsstreit [...] also gleichsam [...] um ein Ideal der akademischen Gemeinschaft.“ (Acta Historica Leopoldina, Bd. 38, S. 173) Von diesem Ideal legt nicht nur das gemeinsame Experimentieren in Jena 1797, sondern ebenso jene großartige Tagung 200 Jahre später, und, nicht zuletzt, die lange Zusammenarbeit Ilse Jahns mit der A.-v.-Humboldt-Forschungsstelle Zeugnis ab. Der verständliche und auch stilistisch angenehm lesbare Text, der bis heute nicht seine Aktualität eingebüßt hat, wird ohne zusätzliche Anmerkungen oder Erläuterungen mit der originalen Seitenzählung wiedergegeben. Lediglich kleinere Druckfehler wurden stillschweigend korrigiert. Ulrike Leitner
Über den Einsatz bewaffneter Bundeswehrsoldaten im Ausland entscheidet der Bundestag. Die demokratische Legitimität von Bundeswehreinsätzen beruht daher auf der parlamentarischen Mehrheitsentscheidung. Doch durch die Auslagerung von Entscheidungen auf multinationale Sicherheitssysteme, wie die NATO und die EU, ergeben sich Handlungsbeschränkungen für das deutsche Parlament. In dieser Publikation analysiert die Politikwissenschaftlerin Martina Kolanoski die tatsächliche Entscheidungsmacht des Bundestags am Beispiel von Bundeswehreinsätzen im Rahmen der Europäische Sicherheits- und Verteidigungspolitik (ESVP). Sie zeigt, weshalb die parlamentarischen Einflüssmöglichkeiten nur sehr begrenzt sind und argumentiert damit gegen die These des Parlamentarischen Friedens. Die Weiterentwicklung der ESVP durch den Vertrag von Lissabon, die multinationale Streitkräfteintegration, das Konzept der European Battlegroups und der deutsche Entscheidungsprozess zur EU-Mission EUFOR RD Congo werden auf die Frage hin untersucht, ob die Einsatzentscheidung durch politische und/oder militärische Integration vorweg genommen wird.
I. Zankapfel „Dienstleistungsrichtlinie“ II. Regelungsmotive und Eckpunkte der Dienstleistungsrichtlinie III. Regelungsmotive und Eckpunkte des 4. VwVfÄndG IV. Ausgewählte Problemfelder der Dienstleistungsrichtlinie und ihrer Umsetzung aus kommunaler Perspektive V. Innovationsimpuls „Dienstleistungsrichtlinie“
Die europäische Dienstleistungsrichtlinie (Richtlinie 2006/123/EG des Europäischen Parlaments und des Rates vom 12. Dezember 2006 über Dienstleistungen im Binnenmarkt), die bis zum 28. Dezember 2009 in innerstaatliches Recht umgesetzt werden musste, stellt die Kommunen vor enorme rechtliche, verwaltungsorganisatorische und technische Herausforderungen. Zwei zentrale Anliegen der Richtlinie sind die Verpflichtung zur Einrichtung eines Einheitlichen Ansprechpartners, über den im Anwendungsbereich der Richtlinie sämtliche erforderlichen Verfahren und Formalitäten abgewickelt werden können, sowie die Gewährleistung einer elektronischen Verfahrensabwicklung. Die Entscheidung über die konkrete verwaltungsorganisatorische Verortung des Einheitlichen Ansprechpartners ist von den Bundesländern zu treffen, die dabei durchaus unterschiedliche Wege gehen. Der vorliegende Tagungsband der 15. Jahrestagung des Kommunalwissenschaftlichen Institutes (KWI) der Universität Potsdam thematisierte die Instrumente der Dienstleistungsrichtlinie, diskutierte Strategien der Umsetzung und regte damit zu einem Erfahrungsaustausch zwischen Wissenschaft und Praxis an.
Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und bestätigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgefügen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorgänger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorgänger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zusätzlich konnte vermutet werden, dass ein beträchtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterstützung des wirtschaftlich mächtigen VEB Carl Zeiss Jena zurückzuführen war. Um diesen Zusammenhängen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielräumen der beiden Thüringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere Förderung des DFV bzw. des DTSB für einen Schwerpunktclub wie Jena überhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abhängig, wer förderte sie durch welche Leistungen? Wie wurden diese Beschlüsse vor Ort umgesetzt? Wer waren die Trägerbetriebe und in welchem Maße und wodurch engagierten sich diese für den Fußball in Erfurt und Jena? Wie kamen die häufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals für die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung bestätigen das bereits von Hans Joachim Teichler als grundlegend für den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteiräson“. Eigenmächtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktionäre in den Trägerbetrieben konnten beispielsweise in Erfurt bei der eigenmächtigen Erhöhung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Trägerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die über die Clubs an die Spieler weitergereicht wurden. Für die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorgänge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schlüssel für den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. für den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen Möglichkeiten die entscheidende Gründe für die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund für die Stärke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit.
Die Gasversorgung Europas
(2010)
Die Abhängigkeit der EU von Russlands Gaslieferungen sowie die Zuverlässigkeit des Transitlandes Ukraine ist hochgradig umstritten. Für den Politikwissenschaftler Jacopo Pepe, zeigen sich dabei jedoch keine existentiellen Bedrohungen für die Versorgungssicherheit Europas, sondern konstruierte Diskurse. Er argumentiert, dass es sich hier nicht um geopolitisches sondern um ein ökonomisches Problem handelt. Dieses wurzelt in dem ukrainisch-russisch Gasgeschäft der 1990er Jahre. Geopolitische Fragen und belastete politischen Beziehungen haben die Krise zugespitzt und die russische Reaktion verschärft. Erst so konnte das Umfeld für einen „Securitization“ Diskurs entstehen, der mit geostrategischen Zielen der USA übereinstimmt. Die Lösung muss sowohl (geo)ökonomisch als auch geopolitisch erfolgen: Geoökonomisch, durch die Gründung eines europäisch-russisch-ukrainischen Konsortium für die Verwaltung des International Transport System der Ukraine; geopolitisch durch eine kooperative Neuvermessung des Verhältnisses der EU mit Russland. Nur dadurch kann ein erneutes Scheitern der Gasversorgung Europas verhindert werden.
Im Mittelpunkt des fünften Bandes der Reihe Perspektiven historischen Denkens und Lernens steht eine Epoche des Umbruchs und des Überganges, die Frühe Neuzeit. Traditionelle historische Begriffe werden auf den Prüfstand neuerer Forschungsansätze gestellt. Der französischen Revolution werden neue Aspekte beigefügt, wie die Mentalitätsgeschichte. Auch die Amerikanische Revolution nimmt einen gebührenden Platz ein. Ganz neue Facetten der Geschichte enthält das abschließende Kapitel zur Kulturgeschichte.
In diesem Beitrag werden das hochschuldidaktische Instrument der „Lehrhospitation“ und seine Relevanz im Professionalisierungsprozess von Hochschullehrenden als subjektwissenschaftlich begründetes vorgestellt. Damit richtet sich der Beitrag an Praktikerinnen und Praktiker in der hochschuldidaktischen Weiterbildung, deren Gegenstand die Professionalisierung des Lehrhandelns von Hochschullehrenden ist sowie an interessierte Hochschullehrende, die ihre Handlungsoptionen in der Lehre professionalisieren möchten.
I. Einleitung II. Die Zusammenführung von Arbeitslosen und Sozialhilfe als Paradigmenwechsel III. Verfassungsrechtliche Grundlage der Weiterentwicklung, Art. 91e GG IV. Überblick über die wichtigsten allgemeinen Regelungsinhalte V. Gemeinsame Einrichtung – „Jobcenter“ V.1. Struktur V.2. Personal V.3. Aufsicht V.4. IT; Datenschutz VI. Optionskommunen VI.1. Entfristung der bestehenden 69 Optionskommunen VI.2. Neuzulassungen in begrenztem Umfang und unter bestimmten Voraussetzungen VI.3. Gebietsreform VI.4. Aufsicht, Zielvereinbarungssystem VI.5. Finanzkontrolle VII. Übergreifende Strukturen VII.1. Kooperationsausschüsse auf Landesebene VII.2. Bund-Länder-Ausschuss VII.3. Örtliche Beiräte VII.4. Zielsteuerung, Benchmarking und Controlling VIII. Ausblick
Inhalt: Die Osterweiterung der Europäischen Union – Die anomischen Konsequenzen der deutschen Wiedervereinigung Die theoretische Debatte über die Osterweiterung der Europäischen Union Deutsche Wiedervereinigung und europäische Integration Schwach sozialisierte Akteure in diffusen Entscheidungskontexten Diffuse Entscheidungskontexte und die Osterweiterung der Europäischen Union Schlussfolgerungen Literatur
Inhalt: Theoretische Grundlagen der Verfassungsgesetzgebung ; Verfassungsgesetzgebung und Verfassungsbedeutung ; Europäischer Verfassungsgebungsprozess ; Verfassungsausarbeitung , Verfassungsdiskussion , Akt der Verfassungsgebung , Verfassungsbedeutung, symbolische Funktionen und Identitätsstiftung , Eine Verfassung für die EU-Bürger ; Die europäische Verfassung aus polnischer Sicht ; Erarbeitung der europäischen Verfassung im Konvent ; Eine europäische Verfassung für die Bürger? ; Ratifikation der europäischen Verfassung ; Identitätsstiftung durch eine europäische Verfassung? ; Vertrag statt Verfassung ; Literatur
Am 22. Oktober 1565 beauftragte der Herzog Julius von Braunschweig-Wolfenbüttel seinen Prediger Martin Chemnitz, das literarische Oeuvre des Magisters Cyriacus Spangenberg auf dem Buchmarkt ausfindig zu machen, prunkvoll binden zu lassen und in den herzöglichen Bibliotheksbestand aufzunehmen. 64 Werke mit gut 6000 Seiten hatte der Mansfelder Generaldekan Spangenberg zu diesem Zeitpunkt bereits verfasst, seine Amtskollegen in der sächsischen Grafschaft hatten ihrerseits 64 Bücher veröffentlicht. Bis zum Abgang Spangenbergs aus Mansfeld 1574 verdoppelte sich die Anzahl geistlicher Veröffentlichungen Mansfelder Provenienz. Obwohl zu Lebzeiten breit rezipiert, hat die Publizistik der geistlichen "Druckmetropole" Mansfeld in der Geschichte und Kirchengeschichte wenig Beachtung gefunden. Die vorliegende Dissertation will diese Forschungslücke schließen. Die Mansfelder Prediger verfassten Lehrpredigten, Festpredigten, Trostpredigten, Katechismen, theologische Disputationen, historische Abhandlungen und geistliche Spiele in hoher Zahl und publizierten diese unter geschickter Ausnutzung der Mechanismen der frühneuzeitlichen Buchmarktes reichsweit. Ihre Veröffentlichungen richteten sich an Theologen, "Weltkinder" und "Einfältige". Sie generierten Verbindungen zu den Kirchen und Potentaten Nord- und Süddeutschlands, Frankreichs und der Niederlande und führten zu Kontroversen mit den großen Bildungszentren Mitteldeutschlands Wittenberg, Leipzig und Jena und deren Landesherren. Die Frage nach der Motivation für das Engagement der Mansfelder Prediger auf dem Buchmarkt steht im Zentrum der Untersuchung, die in einem synoptischen Verfahren den Wunsch nach Teilhaberschaft an der Ausbildung der kirchlichen, herrschaftlichen, sozialen und kommunikativen Strukturen als zentrales Motiv der schreibenden Theologen herausarbeitet, aber auch die Absicht der Autoren beweist, der Grafschaft Mansfeld über das Medium Buch als lutherischem Bildungszentrum in Europa Geltung zu verschaffen.
Ziel dieser Arbeit ist die Überwindung einer Differenz, die zwischen der Theorie der Phase bzw. der Phasendynamik und ihrer Anwendung in der Zeitreihenanalyse besteht: Während die theoretische Phase eindeutig bestimmt und invariant unter Koordinatentransformationen bzw. gegenüber der jeweils gewählten Observable ist, führen die Standardmethoden zur Abschätzung der Phase aus gegebenen Zeitreihen zu Resultaten, die einerseits von den gewählten Observablen abhängen und so andererseits das jeweilige System keineswegs in eindeutiger und invarianter Weise beschreiben. Um diese Differenz deutlich zu machen, wird die terminologische Unterscheidung von Phase und Protophase eingeführt: Der Terminus Phase wird nur für Variablen verwendet, die dem theoretischen Konzept der Phase entsprechen und daher das jeweilige System in invarianter Weise charakterisieren, während die observablen-abhängigen Abschätzungen der Phase aus Zeitreihen als Protophasen bezeichnet werden. Der zentrale Gegenstand dieser Arbeit ist die Entwicklung einer deterministischen Transformation, die von jeder Protophase eines selbsterhaltenden Oszillators zur eindeutig bestimmten Phase führt. Dies ermöglicht dann die invariante Beschreibung gekoppelter Oszillatoren und ihrer Wechselwirkung. Die Anwendung der Transformation bzw. ihr Effekt wird sowohl an numerischen Beispielen demonstriert - insbesondere wird die Phasentransformation in einem Beispiel auf den Fall von drei gekoppelten Oszillatoren erweitert - als auch an multivariaten Messungen des EKGs, des Pulses und der Atmung, aus denen Phasenmodelle der kardiorespiratorischen Wechselwirkung rekonstruiert werden. Abschließend wird die Phasentransformation für autonome Oszillatoren auf den Fall einer nicht vernachlässigbaren Amplitudenabhängigkeit der Protophase erweitert, was beispielsweise die numerischen Bestimmung der Isochronen des chaotischen Rössler Systems ermöglicht.