Refine
Has Fulltext
- yes (257) (remove)
Year of publication
- 2012 (257) (remove)
Document Type
- Doctoral Thesis (100)
- Postprint (40)
- Monograph/Edited Volume (36)
- Preprint (27)
- Article (26)
- Part of Periodical (12)
- Master's Thesis (8)
- Habilitation Thesis (2)
- Other (2)
- Working Paper (2)
Language
- English (147)
- German (106)
- Multiple languages (2)
- Russian (1)
- Spanish (1)
Is part of the Bibliography
- yes (257) (remove)
Keywords
- Nachhaltigkeit (13)
- Climate Change Conference (12)
- Durban 2011 (12)
- Entwicklungspolitik (12)
- Klima (12)
- Klimakonferenz (12)
- Klimapolitik (12)
- NGO (12)
- Politik (12)
- Wirtschaft (12)
Institute
- Institut für Mathematik (30)
- Mathematisch-Naturwissenschaftliche Fakultät (23)
- Institut für Biochemie und Biologie (22)
- WeltTrends e.V. Potsdam (21)
- Institut für Physik und Astronomie (20)
- Institut für Chemie (19)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (13)
- Zentrum für Sprachen und Schlüsselkompetenzen (Zessko) (12)
- Humanwissenschaftliche Fakultät (11)
- Wirtschaftswissenschaften (11)
The potential increase in frequency and magnitude of extreme floods is currently discussed in terms of global warming and the intensification of the hydrological cycle. The profound knowledge of past natural variability of floods is of utmost importance in order to assess flood risk for the future. Since instrumental flood series cover only the last ~150 years, other approaches to reconstruct historical and pre-historical flood events are needed. Annually laminated (varved) lake sediments are meaningful natural geoarchives because they provide continuous records of environmental changes > 10000 years down to a seasonal resolution. Since lake basins additionally act as natural sediment traps, the riverine sediment supply, which is preserved as detrital event layers in the lake sediments, can be used as a proxy for extreme discharge events. Within my thesis I examined a ~ 8.50 m long sedimentary record from the pre-Alpine Lake Mondsee (Northeast European Alps), which covered the last 7000 years. This sediment record consists of calcite varves and intercalated detrital layers, which range in thickness from 0.05 to 32 mm. Detrital layer deposition was analysed by a combined method of microfacies analysis via thin sections, Scanning Electron Microscopy (SEM), μX-ray fluorescence (μXRF) scanning and magnetic susceptibility. This approach allows characterizing individual detrital event layers and assigning a corresponding input mechanism and catchment. Based on varve counting and controlled by 14C age dates, the main goals of this thesis are (i) to identify seasonal runoff processes, which lead to significant sediment supply from the catchment into the lake basin and (ii) to investigate flood frequency under changing climate boundary conditions. This thesis follows a line of different time slices, presenting an integrative approach linking instrumental and historical flood data from Lake Mondsee in order to evaluate the flood record inferred from Lake Mondsee sediments. The investigation of eleven short cores covering the last 100 years reveals the abundance of 12 detrital layers. Therein, two types of detrital layers are distinguished by grain size, geochemical composition and distribution pattern within the lake basin. Detrital layers, which are enriched in siliciclastic and dolomitic material, reveal sediment supply from the Flysch sediments and Northern Calcareous Alps into the lake basin. These layers are thicker in the northern lake basin (0.1-3.9 mm) and thinner in the southern lake basin (0.05-1.6 mm). Detrital layers, which are enriched in dolomitic components forming graded detrital layers (turbidites), indicate the provenance from the Northern Calcareous Alps. These layers are generally thicker (0.65-32 mm) and are solely recorded within the southern lake basin. In comparison with instrumental data, thicker graded layers result from local debris flow events in summer, whereas thin layers are deposited during regional flood events in spring/summer. Extreme summer floods as reported from flood layer deposition are principally caused by cyclonic activity from the Mediterranean Sea, e.g. July 1954, July 1997 and August 2002. During the last two millennia, Lake Mondsee sediments reveal two significant flood intervals with decadal-scale flood episodes, during the Dark Ages Cold Period (DACP) and the transition from the Medieval Climate Anomaly (MCA) into the Little Ice Age (LIA) suggesting a linkage of transition to climate cooling and summer flood recurrences in the Northeastern Alps. In contrast, intermediate or decreased flood episodes appeared during the MWP and the LIA. This indicates a non-straightforward relationship between temperature and flood recurrence, suggesting higher cyclonic activity during climate transition in the Northeast Alps. The 7000-year flood chronology reveals 47 debris flows and 269 floods, with increased flood activity shifting around 3500 and 1500 varve yr BP (varve yr BP = varve years before present, before present = AD 1950). This significant increase in flood activity shows a coincidence with millennial-scale climate cooling that is reported from main Alpine glacier advances and lower tree lines in the European Alps since about 3300 cal. yr BP (calibrated years before present). Despite relatively low flood occurrence prior to 1500 varve yr BP, floods at Lake Mondsee could have also influenced human life in early Neolithic lake dwellings (5750-4750 cal. yr BP). While the first lake dwellings were constructed on wetlands, the later lake dwellings were built on piles in the water suggesting an early flood risk adaptation of humans and/or a general change of the Late Neolithic Culture of lake-dwellers because of socio-economic reasons. However, a direct relationship between the final abandonment of the lake dwellings and higher flood frequencies is not evidenced.
In the context of cosmological structure formation sheets, filaments and eventually halos form due to gravitational instabilities. It is noteworthy, that at all times, the majority of the baryons in the universe does not reside in the dense halos but in the filaments and the sheets of the intergalactic medium. While at higher redshifts of z > 2, these baryons can be detected via the absorption of light (originating from more distant sources) by neutral hydrogen at temperatures of T ~ 10^4 K (the Lyman-alpha forest), at lower redshifts only about 20 % can be found in this state. The remain (about 50 to 70 % of the total baryons mass) is unaccounted for by observational means. Numerical simulations predict that these missing baryons could reside in the filaments and sheets of the cosmic web at high temperatures of T = 10^4.5 - 10^7 K, but only at low to intermediate densities, and constitutes the warm-hot intergalactic medium (WHIM). The high temperatures of the WHIM are caused by the formation of shocks and the subsequent shock-heating of the gas. This results in a high degree of ionization and renders the reliable detection of the WHIM a challenging task. Recent high-resolution hydrodynamical simulations indicate that, at redshifts of z ~ 2, filaments are able to provide very massive galaxies with a significant amount of cool gas at temperatures of T ~ 10^4 K. This could have an important impact on the star-formation in those galaxies. It is therefore of principle importance to investigate the particular hydro- and thermodynamical conditions of these large filament structures. Density and temperature profiles, and velocity fields, are expected to leave their special imprint on spectroscopic observations. A potential multiphase structure may act as tracer in observational studies of the WHIM. In the context of cold streams, it is important to explore the processes, which regulate the amount of gas transported by the streams. This includes the time evolution of filaments, as well as possible quenching mechanisms. In this context, the halo mass range in which cold stream accretion occurs is of particular interest. In order to address these questions, we perform particular hydrodynamical simulations of very high resolution, and investigate the formation and evolution of prototype structures representing the typical filaments and sheets of the WHIM. We start with a comprehensive study of the one-dimensional collapse of a sinusoidal density perturbation (pancake formation) and examine the influence of radiative cooling, heating due to an UV background, thermal conduction, and the effect of small-scale perturbations given by the cosmological power spectrum. We use a set of simulations, parametrized by the wave length of the initial perturbation L. For L ~ 2 Mpc/h the collapse leads to shock-confined structures. As a result of radiative cooling and of heating due to an UV background, a relatively cold and dense core forms. With increasing L the core becomes denser and more concentrated. Thermal conduction enhances this trend and may lead to an evaporation of the core at very large L ~ 30 Mpc/h. When extending our simulations into three dimensions, instead of a pancake structure, we obtain a configuration consisting of well-defined sheets, filaments, and a gaseous halo. For L > 4 Mpc/h filaments form, which are fully confined by an accretion shock. As with the one-dimensional pancakes, they exhibit an isothermal core. Thus, our results confirm a multiphase structure, which may generate particular spectral tracers. We find that, after its formation, the core becomes shielded against further infall of gas onto the filament, and its mass content decreases with time. In the vicinity of the halo, the filament's core can be attributed to the cold streams found in other studies. We show, that the basic structure of these cold streams exists from the very beginning of the collapse process. Further on, the cross section of the streams is constricted by the outwards moving accretion shock of the halo. Thermal conduction leads to a complete evaporation of the cold stream for L > 6 Mpc/h. This corresponds to halos with a total mass higher than M_halo = 10^13 M_sun, and predicts that in more massive halos star-formation can not be sustained by cold streams. Far away from the gaseous halo, the temperature gradients in the filament are not sufficiently strong for thermal conduction to be effective.
Background
High blood glucose and diabetes are amongst the conditions causing the greatest losses in years of healthy life worldwide. Therefore, numerous studies aim to identify reliable risk markers for development of impaired glucose metabolism and type 2 diabetes. However, the molecular basis of impaired glucose metabolism is so far insufficiently understood. The development of so called 'omics' approaches in the recent years promises to identify molecular markers and to further understand the molecular basis of impaired glucose metabolism and type 2 diabetes. Although univariate statistical approaches are often applied, we demonstrate here that the application of multivariate statistical approaches is highly recommended to fully capture the complexity of data gained using high-throughput methods.
Methods
We took blood plasma samples from 172 subjects who participated in the prospective Metabolic Syndrome Berlin Potsdam follow-up study (MESY-BEPO Follow-up). We analysed these samples using Gas Chromatography coupled with Mass Spectrometry (GC-MS), and measured 286 metabolites. Furthermore, fasting glucose levels were measured using standard methods at baseline, and after an average of six years. We did correlation analysis and built linear regression models as well as Random Forest regression models to identify metabolites that predict the development of fasting glucose in our cohort.
Results
We found a metabolic pattern consisting of nine metabolites that predicted fasting glucose development with an accuracy of 0.47 in tenfold cross-validation using Random Forest regression. We also showed that adding established risk markers did not improve the model accuracy. However, external validation is eventually desirable. Although not all metabolites belonging to the final pattern are identified yet, the pattern directs attention to amino acid metabolism, energy metabolism and redox homeostasis.
Conclusions
We demonstrate that metabolites identified using a high-throughput method (GC-MS) perform well in predicting the development of fasting plasma glucose over several years. Notably, not single, but a complex pattern of metabolites propels the prediction and therefore reflects the complexity of the underlying molecular mechanisms. This result could only be captured by application of multivariate statistical approaches. Therefore, we highly recommend the usage of statistical methods that seize the complexity of the information given by high-throughput methods.
The Riemann hypothesis is equivalent to the fact the the reciprocal function 1/zeta (s) extends from the interval (1/2,1) to an analytic function in the quarter-strip 1/2 < Re s < 1 and Im s > 0. Function theory allows one to rewrite the condition of analytic continuability in an elegant form amenable to numerical experiments.
Abschied von KyotoPlus?
(2012)
Die Ergebnisse des Klimagipfels von Kopenhagen sind eine bittere
Enttäuschung für die EU. Ihr ist es nicht gelungen, ihren Führungsambitionen
beim globalen Klimaschutz gerecht zu werden und die
Konferenz zur Weichenstellung für ein rechtsverbindliches Klimaabkommen
nach 2012 zu nutzen. Damit steht die Union vor grundlegenden
strategischen Fragen zum Kurs ihrer Klimapolitik.
The field of machine learning studies algorithms that infer predictive models from data. Predictive models are applicable for many practical tasks such as spam filtering, face and handwritten digit recognition, and personalized product recommendation. In general, they are used to predict a target label for a given data instance. In order to make an informed decision about the deployment of a predictive model, it is crucial to know the model’s approximate performance. To evaluate performance, a set of labeled test instances is required that is drawn from the distribution the model will be exposed to at application time. In many practical scenarios, unlabeled test instances are readily available, but the process of labeling them can be a time- and cost-intensive task and may involve a human expert. This thesis addresses the problem of evaluating a given predictive model accurately with minimal labeling effort. We study an active model evaluation process that selects certain instances of the data according to an instrumental sampling distribution and queries their labels. We derive sampling distributions that minimize estimation error with respect to different performance measures such as error rate, mean squared error, and F-measures. An analysis of the distribution that governs the estimator leads to confidence intervals, which indicate how precise the error estimation is. Labeling costs may vary across different instances depending on certain characteristics of the data. For instance, documents differ in their length, comprehensibility, and technical requirements; these attributes affect the time a human labeler needs to judge relevance or to assign topics. To address this, the sampling distribution is extended to incorporate instance-specific costs. We empirically study conditions under which the active evaluation processes are more accurate than a standard estimate that draws equally many instances from the test distribution. We also address the problem of comparing the risks of two predictive models. The standard approach would be to draw instances according to the test distribution, label the selected instances, and apply statistical tests to identify significant differences. Drawing instances according to an instrumental distribution affects the power of a statistical test. We derive a sampling procedure that maximizes test power when used to select instances, and thereby minimizes the likelihood of choosing the inferior model. Furthermore, we investigate the task of comparing several alternative models; the objective of an evaluation could be to rank the models according to the risk that they incur or to identify the model with lowest risk. An experimental study shows that the active procedure leads to higher test power than the standard test in many application domains. Finally, we study the problem of evaluating the performance of ranking functions, which are used for example for web search. In practice, ranking performance is estimated by applying a given ranking model to a representative set of test queries and manually assessing the relevance of all retrieved items for each query. We apply the concepts of active evaluation and active comparison to ranking functions and derive optimal sampling distributions for the commonly used performance measures Discounted Cumulative Gain and Expected Reciprocal Rank. Experiments on web search engine data illustrate significant reductions in labeling costs.
Duplicate detection is the task of identifying all groups of records within a data set that represent the same real-world entity, respectively. This task is difficult, because (i) representations might differ slightly, so some similarity measure must be defined to compare pairs of records and (ii) data sets might have a high volume making a pair-wise comparison of all records infeasible. To tackle the second problem, many algorithms have been suggested that partition the data set and compare all record pairs only within each partition. One well-known such approach is the Sorted Neighborhood Method (SNM), which sorts the data according to some key and then advances a window over the data comparing only records that appear within the same window. We propose several variations of SNM that have in common a varying window size and advancement. The general intuition of such adaptive windows is that there might be regions of high similarity suggesting a larger window size and regions of lower similarity suggesting a smaller window size. We propose and thoroughly evaluate several adaption strategies, some of which are provably better than the original SNM in terms of efficiency (same results with fewer comparisons).
In the limit we analyze the generators of families of reversible jump processes in the n-dimensional space associated with a class of symmetric non-local Dirichlet forms and show exponential decay of the eigenfunctions. The exponential rate function is a Finsler distance, given as solution of certain eikonal equation. Fine results are sensitive to the rate functions being twice differentiable or just Lipschitz. Our estimates are similar to the semiclassical Agmon estimates for differential operators of second order. They generalize and strengthen previous results on the lattice.
Inhalt: 1 Einleitung 2 Familienpolitik 2.1 Was ist „Familie“? 2.2 Begriffsbestimmung - Familienpolitik 2.2.1 Kurzer Rückblick: Wandel der familialen Lebensform im Industriezeitalter 2.2.2 Warum Familienpolitik? Strukturelle Veränderungen der familialen Lebensform 2.2.3 Familienpolitische Wirkung auf die Bevölkerung 2.3 Wohlfahrtslogiken nach Gøsta Esping-Andersen 2.4 Familienpolitische Leistungen in Schweden, Großbritannien und Deutschland 2.4.1 Monetäre Leistungen und Fiskalpolitik 2.4.2 Zeitwerte Anrechte 2.4.3 Infrastrukturelle Angebote der Kinderbetreuung 3 Fazit und Ausblick
Aktuelle Fragen des Menschenrechtsschutzes : 1. Potsdamer Menschenrechtstag am 26. Oktober 2011
(2012)
Aus Anlass der Neubesetzung des Menschenrechtszentrums mit den Direktoren Prof. Dr. Andreas Zimmermann, LL.M. (Harvard) und Prof. Dr. Logi Gunnarsson fand am 26.10.2011 der Potsdamer Menschenrechtstag unter der Themenstellung „Aktuelle Fragen des Menschenrechtsschutzes“ statt. Ganz im Sinne der interdisziplinären Ausrichtung des MenschenRechtsZentrums der Universität Potsdam beschäftigten sich die beiden Direktoren in ihren Einführungsvorträgen aus ihrer jeweiligen Disziplin heraus mit philosophischen und rechtlichen Problemstellungen der Menschenrechte und ihres Schutzes.
Die Tötung Osama bin Ladens durch ein US-Sonderkommando Anfang Mai 2011, wenige Monate vor dem zehnten Jahrestag der verheerenden Terroranschläge vom 11. September, erhielt ein großes Maß an medialer Aufmerksamkeit. Der Tod des Mannes, der für die Terroranschläge verantwortlich gemacht wurde, führte zu einer erneuten Auseinandersetzung mit diesem Ereignis und dessen individuellen und globalen Folgen. Ausgangspunkt der Untersuchung dieses Pressediskurses ist die Annahme, dass eine solche gedankliche und sprachliche Auseinandersetzung, wie sie in der Presse kreiert und reflektiert wird, insbesondere auch von Metaphern bestimmt wird. Die Untersuchung stützt sich auf die Erkenntnisse kognitiver Metapherntheorien. Sie orientiert sich aber vor allem auch an jüngeren Untersuchungen innerhalb der Metaphernforschung, die speziell die sprachliche Dimension der Metapher wieder mehr in den Vordergrund rücken. Der Arbeit liegt daher ein multidimensionales Verständnis der Metapher zugrunde. Die kognitive Funktion der Metapher ermöglicht das Begreifbarmachen abstrakter bzw. unbekannter Phänomene. Metaphern können aber zugleich auch Indikatoren für die bewusste wie auch unbewusste Bewertung von Ereignissen, Handlungen und Personen sein. Die Untersuchung verfolgt einen vergleichenden Ansatz, der auf der Grundlage eines Arbeitskorpus aus US-amerikanischen und französischen Pressetexten zur Tötung bin Ladens den Metapherngebrauch in den beiden Ländern anhand ausgewählter Themenaspekte gegenüberstellt. Ziel der Untersuchung ist es, Gemeinsamkeiten und Unterschiede zwischen den beiden Landespressen zu identifizieren und diesbezüglich mögliche Interpretationen anzugeben. Dabei wird der Sprachgebrauch im Terror-Diskurs nach 9/11 einer kritischen Betrachtung unterzogen, um ein Bewusstsein für möglicherweise unbewusste metaphorische Konzeptualisierungen zu entwickeln. Im Vergleich des Metapherngebrauchs in der US-amerikanischen und französischen Presse werden deutliche Gemeinsamkeiten festgestellt. Die analysierten Unterschiede sind häufig sprachlich bedingt. Teilweise können sie aber auch im Hinblick auf Differenzen in der Positionierung der beiden Länder in Bezug auf bin Ladens Tötung interpretiert werden. Die weitgehende Übereinstimmung in den Metaphern lässt sich zum einen auf die Nähe der beiden Sprachen, zum anderen auf den ähnlichen politischen Hintergrund der beiden westlichen Länder zurückführen. Darüber hinaus wird die Hypothese aufgestellt, dass der verstärkt stattfindende internationale Austausch von Nachrichten, vor allem über Presseagenturen, auch zunehmend zu einer Globalisierung auf dem Gebiet der Metapher führt.
Wie stark sich im Verlauf des zurückliegenden Vierteljahrhunderts der Bekanntheitsgrad Alexander von Humboldts in der deutschsprachigen Öffentlichkeit verändert hat, zeigen nicht nur Fernsehumfragen zu den berühmtesten Deutschen, in denen Alexander von Humboldt mittlerweile figuriert, oder Fernsehserien, die über aktuelle Expeditionen berichten und auf Humboldts Namen zurückgreifen. Am deutlichsten vielleicht belegt dies der enorme Erfolg von Daniel Kehlmanns Roman Die Vermessung der Welt, der ohne die zuvor skizzierte Entwicklung nicht denkbar gewesen wäre. Es ist vor diesem Hintergrund nicht nur reizvoll, sondern aufschlußreich, sich mit dem großen Erfolg dieses kleinen Romans zu beschäftigen. Worum geht es in Die Vermessung der Welt? Und wie läßt sich das »Phänomen Kehlmann« aus etwas größerer Distanz erklären?
All's well that ends well
(2012)
The transition from cell proliferation to cell expansion is critical for determining leaf size. Andriankaja et al. (2012) demonstrate that in leaves of dicotyledonous plants, a basal proliferation zone is maintained for several days before abruptly disappearing, and that chloroplast differentiation is required to trigger the onset of cell expansion.
Die Dissertation befasst sich mit einem aktuellen Thema, das im Überschneidungsbereich von Politischer Geographie und Sozialgeographie angesiedelt ist. Es geht um die Frage, wie alltägliche Prozesse der Aneignung des Raumes durch die Wohnbevölkerung entlang der rumänisch-moldauischen Grenze funktionieren, und zwar unter den Bedingungen, die seit dem Beitritt Rumäniens zur EU am 1. Januar 2007 gegeben sind. Seitdem gelten für die Staatsbürger der Republik Moldau verschärfte Regeln für die Einreise in Rumänien. Denn die Grenze zwischen den beiden Staaten ist nun auch EU-Außengrenze. Bei der Beantwortung dieser Frage werden in der Arbeit die seit der Unabhängigkeit der Republik Moldau im Jahre 1991 und den Beitritten Rumäniens zur NATO und zur EU sich verändernden politischen Rahmenbedingungen im Zusammenhang mit ökonomischen Strukturen und Prozessen sowie nationalen und nationalistischen Ideologien und ihren Wirkungen in der Republik Moldau und in Rumänien berücksichtigt. Dabei wird besonders beachtet, dass 1. auf beiden Seiten der Grenze Rumänisch gesprochen wird sowie aus Sicht des Panrumänismus ein und dieselbe Nation lebt und dass 2. in der Republik Moldau seit den 1990er Jahren vor allem von Seiten der Politik ein moldauisches Nation-Building betrieben wird. Aus den Untersuchungsergebnissen werden Handlungsempfehlungen für Politik und Verwaltung abgeleitet, welche auf die Verbesserung der Lebensbedingungen der Grenzraumbevölkerung abzielen.
One of the major problems for the implementation of water resources planning and management in arid and semi-arid environments is the scarcity of hydrological data and, consequently, research studies. In this thesis, the hydrology of dryland river systems was analyzed and a semi-distributed hydrological model and a forecasting approach were developed for flow transmission processes in river-systems with a focus on semi-arid conditions. Three different sources of hydrological data (streamflow series, groundwater level series and multi-temporal satellite data) were combined in order to analyze the channel transmission losses of a large reach of the Jaguaribe River in NE Brazil. A perceptual model of this reach was derived suggesting that the application of models, which were developed for sub-humid and temperate regions, may be more suitable for this reach than classical models, which were developed for arid and semi-arid regions. Summarily, it was shown that this river reach is hydraulically connected with groundwater and shifts from being a losing river at the dry and beginning of rainy seasons to become a losing/gaining (mostly losing) river at the middle and end of rainy seasons. A new semi-distributed channel transmission losses model was developed, which was based primarily on the capability of simulation in very different dryland environments and flexible model structures for testing hypotheses on the dominant hydrological processes of rivers. This model was successfully tested in a large reach of the Jaguaribe River in NE Brazil and a small stream in the Walnut Gulch Experimental Watershed in the SW USA. Hypotheses on the dominant processes of the channel transmission losses (different model structures) in the Jaguaribe river were evaluated, showing that both lateral (stream-)aquifer water fluxes and ground-water flow in the underlying alluvium parallel to the river course are necessary to predict streamflow and channel transmission losses, the former process being more relevant than the latter. This procedure not only reduced model structure uncertainties, but also reported modelling failures rejecting model structure hypotheses, namely streamflow without river-aquifer interaction and stream-aquifer flow without groundwater flow parallel to the river course. The application of the model to different dryland environments enabled learning about the model itself from differences in channel reach responses. For example, the parameters related to the unsaturated part of the model, which were active for the small reach in the USA, presented a much greater variation in the sensitivity coefficients than those which drove the saturated part of the model, which were active for the large reach in Brazil. Moreover, a nonparametric approach, which dealt with both deterministic evolution and inherent fluctuations in river discharge data, was developed based on a qualitative dynamical system-based criterion, which involved a learning process about the structure of the time series, instead of a fitting procedure only. This approach, which was based only on the discharge time series itself, was applied to a headwater catchment in Germany, in which runoff are induced by either convective rainfall during the summer or snow melt in the spring. The application showed the following important features: • the differences between runoff measurements were more suitable than the actual runoff measurements when using regression models; • the catchment runoff system shifted from being a possible dynamical system contaminated with noise to a linear random process when the interval time of the discharge time series increased; • and runoff underestimation can be expected for rising limbs and overestimation for falling limbs. This nonparametric approach was compared with a distributed hydrological model designed for real-time flood forecasting, with both presenting similar results on average. Finally, a benchmark for hydrological research using semi-distributed modelling was proposed, based on the aforementioned analysis, modelling and forecasting of flow transmission processes. The aim of this benchmark was not to describe a blue-print for hydrological modelling design, but rather to propose a scientific method to improve hydrological knowledge using semi-distributed hydrological modelling. Following the application of the proposed benchmark to a case study, the actual state of its hydrological knowledge and its predictive uncertainty can be determined, primarily through rejected hypotheses on the dominant hydrological processes and differences in catchment/variables responses.
ASP modulo CSP
(2012)
We present the hybrid ASP solver clingcon, combining the simple modeling language and the high performance Boolean solving capacities of Answer Set Programming (ASP) with techniques for using non-Boolean constraints from the area of Constraint Programming (CP). The new clingcon system features an extended syntax supporting global constraints and optimize statements for constraint variables. The major technical innovation improves the interaction between ASP and CP solver through elaborated learning techniques based on irreducible inconsistent sets. A broad empirical evaluation shows that these techniques yield a performance improvement of an order of magnitude.
Asymptotic solutions of the Dirichlet problem for the heat equation at a characteristic point
(2012)
The Dirichlet problem for the heat equation in a bounded domain is characteristic, for there are boundary points at which the boundary touches a characteristic hyperplane t = c, c being a constant. It was I.G. Petrovskii (1934) who first found necessary and sufficient conditions on the boundary which guarantee that the solution is continuous up to the characteristic point, provided that the Dirichlet data are continuous. This paper initiated standing interest in studying general boundary value problems for parabolic equations in bounded domains. We contribute to the study by constructing a formal solution of the Dirichlet problem for the heat equation in a neighbourhood of a characteristic boundary point and showing its asymptotic character.
Aufstiege aus der Mittelschicht : soziale Aufstiegsmobilität von Haushalten zwischen 1984 und 2010
(2012)
Die Dissertation widmet sich den intragenerationalen Aufstiegsprozessen von Haushalten aus der Mittelschicht zu den Wohlhabenden. Intragenerationale Mobilitätsforschung wird bislang vor allem als arbeitsmarktbezogene Inidivualmobilität angesehen. Diese Dissertation erweitert den Ansatz auf die Ebene des Haushaltes. Dem liegt der Gedanke zugrunde, dass die soziale Position eines Individuums nicht allein durch sein Erwerbseinkommen determiniert wird. Ebenso entscheidend ist der Kontext des Haushaltes. Dieser bestimmt darüber, wie viele Personen zum Einkommen beitragen können und wie viele daran partizipieren. Weiterhin kommt der Haushaltsebene in Paar-Haushalten die Rolle des Aushandlungsortes zu. Hier wird über Familienplanung, Kinderwunsch und damit in Zusammenhang stehend auch über die Erwerbsbeteiligung der Partner entscheiden. Die vorliegende Dissertation untersucht diese Annahmen mithilfe von Daten des Sozioökonomischen Panels (SOEP) der Jahre 1984 bis 2010. Der Fokus liegt auf der Erwerbsbeteiligung und dem Bildungsniveau des Haushaltes, seiner Struktur, sowie dem Beruf des Haushaltsvorstandes. Es wird davon ausgegangen, dass dies die Hauptfaktoren sind, die über die finanziellen Möglichkeiten eines Haushaltes entscheiden. Ein weiterer Schwerpunkt der Arbeit liegt in der Berücksichtigung des historischen Kontextes, da anzunehmen ist, dass die oben benannten Faktoren sich und ihren Einfluss auf die Aufstiegsmöglichkeiten von Haushalten im historischen Verlauf verändert haben.
Estimation of the self-similarity exponent has attracted growing interest in recent decades and became a research subject in various fields and disciplines. Real-world data exhibiting self-similar behavior and/or parametrized by self-similarity exponent (in particular Hurst exponent) have been collected in different fields ranging from finance and human sciencies to hydrologic and traffic networks. Such rich classes of possible applications obligates researchers to investigate qualitatively new methods for estimation of the self-similarity exponent as well as identification of long-range dependencies (or long memory). In this thesis I present the Bayesian estimation of the Hurst exponent. In contrast to previous methods, the Bayesian approach allows the possibility to calculate the point estimator and confidence intervals at the same time, bringing significant advantages in data-analysis as discussed in this thesis. Moreover, it is also applicable to short data and unevenly sampled data, thus broadening the range of systems where the estimation of the Hurst exponent is possible. Taking into account that one of the substantial classes of great interest in modeling is the class of Gaussian self-similar processes, this thesis considers the realizations of the processes of fractional Brownian motion and fractional Gaussian noise. Additionally, applications to real-world data, such as the data of water level of the Nile River and fixational eye movements are also discussed.
In this thesis, different aspects within the research field of protein spectro- and electro-chemistry on nanostructured materials are addressed. On the one hand, this work is related to the investigation of nanostructured transparent and conductive metal oxides as platform for the immobilization of electroactive enzymes. On the other hand the second part of this work is related to the immobilization of sulfite oxidase on gold nanoparticles modified electrode. Finally direct and mediated spectroelectrochemistry protein with high structure complexity such as the xanthine dehydrogenase from Rhodobacter capsulatus and its high homologues the mouse aldehyde oxidase homolog 1. Stable immobilization and reversible electrochemistry of cytochrome c in a transparent and conductive tin-doped and tin-rich indium oxide film with a well-defined mesoporosity is reported. The transparency and good conductivity, in combination with the large surface area of these materials, allow the incorporation of a high amount of electroactive biomolecules (between 250 and 2500 pmol cm-2) and their electrochemical and spectroscopic investigation. Both, the electrochemical behavior and the immobilization of proteins are influenced by the geometric parameters of the porous material, such as the structure and pore shape, the surface chemistry, as well as the protein size and charge. UV-Vis and resonance Raman spectroscopy, in combination with direct protein voltammetry, are employed for the characterization of cytochrome c immobilized in the mesoporous indium tin oxide and reveal no perturbation of the structural integrity of the redox protein. A long term protein immobilization is reached using these unmodified mesoporous indium oxide based materials, i.e. more than two weeks even at high ionic strength. The potential of this modified material as an amperometric biosensor for the detection of superoxide anions is demonstrated. A sensitivity of about 100 A M-1 m-2, in a linear measuring range of the superoxide concentration between 0.13 and 0.67 μM, is estimated. In addition an electrochemical switchable protein-based optical device is designed with the core part composed of cytochrome c immobilized on a mesoporous indium tin oxide film. A color developing redox sensitive dye is used as switchable component of the system. The cytochrome c-catalyzed oxidation of the dye by hydrogen peroxide is spectroscopically investigated. When the dye is co-immobilized with the protein, its redox state is easily controlled by application of an electrical potential at the supporting material. This enables to electrochemical reset the system to the initial state and repetitive signal generation. The case of negative charged proteins, which does not have a good interaction with the negative charged indium oxide based films, is also explored. The modification of an indium tin oxide film with a positive charged polymer and the employment of a antimony doped tin oxide film were investigated in this work in order to overcome the repulsion induced by similar charges of the protein and electrode. Human sulfite oxidase and its separated heme-containing domain are able to direct exchange electrons with the supporting material. A study of a new approach for sulfite biosensing, based on enhanced direct electron transfer of a human sulfite oxidase immobilized on a gold nanoparticles modified electrode is reported. The spherical gold nanoparticles were prepared via a novel method by reduction of HAuCl4 with branched poly(ethyleneimine) in an ionic liquid resulting in particles of about 10 nm in hydrodynamic diameter. These nanoparticles were covalently attached to a mercaptoundecanoic acid modified Au-electrode and act as platform where human sulfite oxidase is adsorbed. An enhanced interfacial electron transfer and electrocatalysis is therefore achieved. UV-Vis and resonance Raman spectroscopy, in combination with direct protein voltammetry, were employed for the characterization of the system and reveal no perturbation of the structural integrity of the redox protein. The proposed biosensor exhibited a quick steady-state current response, within 2 s and a linear detection range between 0.5 and 5.4 μM with high sensitivity (1.85 nA μM-1). The investigated system provides remarkable advantages, since it works at low applied potential and at very high ionic strength. Therefore these properties could make the proposed system useful in the development of bioelectronic devices and its application in real samples. Finally protein with high structure complexity such as the xanthine dehydrogenase from Rhodobacter capsulatus and the mouse aldehyde oxidase homolog 1 were spectroelectrochemically studied. It could be demonstrated that different cofactors present in the protein structure, like the FAD and the molybdenum cofactor, are able to directly exchange electrons with an electrode and are displayed as a single peak in a square wave voltammogram. Protein mutants bearing a serine substituted to the cysteines, bounding to the most exposed iron sulfur cluster additionally showed direct electron transfer which can be attributable to this cluster. On the other hand a mediated spectroelectrochemical titration of the protein bound FAD cofactor was performed in presence of transparent iron and cobalt complex mediators. The results showed the formation of the stable semiquinone and the fully reduced flavin. Two formal potentials for each single electron exchange step were then determined.
Carbohydrate recognition is a ubiquitous principle underlying many fundamental biological processes like fertilization, embryogenesis and viral infections. But how carbohydrate specificity and affinity induce a molecular event is not well understood. One of these examples is bacteriophage P22 that binds and infects three distinct Salmonella enterica (S.) hosts. It recognizes and depolymerizes repetitive carbohydrate structures of O antigen in its host´s outer membrane lipopolysaccharide molecule. This is mediated by tailspikes, mainly β helical appendages on phage P22 short non contractile tail apparatus (podovirus). The O antigen of all three Salmonella enterica hosts is built from tetrasaccharide repeating units consisting of an identical main chain with a distinguished 3,6 dideoxyhexose substituent that is crucial for P22 tailspike recognition: tyvelose in S. Enteritidis, abequose in S. Typhimurium and paratose in S. Paratyphi. In the first study the complexes of P22 tailspike with its host’s O antigen octasaccharide were characterized. S. Paratyphi octasaccharide binds less tightly (ΔΔG≈7 kJ/mol) to the tailspike than the other two hosts. Crystal structure analysis of P22 tailspike co crystallized with S. Paratyphi octasaccharides revealed different interactions than those observed before in tailspike complexes with S. Enteritidis and S. Typhimurium octasaccharides. These different interactions occur due to a structural rearrangement in the S. Paratyphi octasaccharide. It results in an unfavorable glycosidic bond Φ/Ψ angle combination that also had occurred when the S. Paratyphi octasaccharide conformation was analyzed in an aprotic environment. Contributions of individual protein surface contacts to binding affinity were analyzed showing that conserved structural waters mediate specific recognition of all three different Salmonella host O antigens. Although different O antigen structures possess distinct binding behavior on the tailspike surface, all are recognized and infected by phage P22. Hence, in a second study, binding measurements revealed that multivalent O antigen was able to bind with high avidity to P22 tailspike. Dissociation rates of the polymer were three times slower than for an octasaccharide fragment pointing towards high affinity for O antigen polysaccharide. Furthermore, when phage P22 was incubated with lipopolysaccharide aggregates before plating on S. Typhimurium cells, P22 infectivity became significantly reduced. Therefore, in a third study, the function of carbohydrate recognition on the infection process was characterized. It was shown that large S. Typhimurium lipopolysaccharide aggregates triggered DNA release from the phage capsid in vitro. This provides evidence that phage P22 does not use a second receptor on the Salmonella surface for infection. P22 tailspike binding and cleavage activity modulate DNA egress from the phage capsid. DNA release occurred more slowly when the phage possessed mutant tailspikes with less hydrolytic activity and was not induced if lipopolysaccharides contained tailspike shortened O antigen polymer. Furthermore, the onset of DNA release was delayed by tailspikes with reduced binding affinity. The results suggest a model for P22 infection induced by carbohydrate recognition: tailspikes position the phage on Salmonella enterica and their hydrolytic activity forces a central structural protein of the phage assembly, the plug protein, onto the host´s membrane surface. Upon membrane contact, a conformational change has to occur in the assembly to eject DNA and pilot proteins from the phage to establish infection. Earlier studies had investigated DNA ejection in vitro solely for viruses with long non contractile tails (siphovirus) recognizing protein receptors. Podovirus P22 in this work was therefore the first example for a short tailed phage with an LPS recognition organelle that can trigger DNA ejection in vitro. However, O antigen binding and cleaving tailspikes are widely distributed in the phage biosphere, for example in siphovirus 9NA. Crystal structure analysis of 9NA tailspike revealed a complete similar fold to P22 tailspike although they only share 36 % sequence identity. Moreover, 9NA tailspike possesses similar enzyme activity towards S. Typhimurium O antigen within conserved amino acids. These are responsible for a DNA ejection process from siphovirus 9NA triggered by lipopolysaccharide aggregates. 9NA expelled its DNA 30 times faster than podovirus P22 although the associated conformational change is controlled with a similar high activation barrier. The difference in DNA ejection velocity mirrors different tail morphologies and their efficiency to translate a carbohydrate recognition signal into action.
We study boundary value problems for linear elliptic differential operators of order one. The underlying manifold may be noncompact, but the boundary is assumed to be compact. We require a symmetry property of the principal symbol of the operator along the boundary. This is satisfied by Dirac type operators, for instance. We provide a selfcontained introduction to (nonlocal) elliptic boundary conditions, boundary regularity of solutions, and index theory. In particular, we simplify and generalize the traditional theory of elliptic boundary value problems for Dirac type operators. We also prove a related decomposition theorem, a general version of Gromov and Lawson's relative index theorem and a generalization of the cobordism theorem.
One of the most exciting predictions of Einstein's theory of gravitation that have not yet been proven experimentally by a direct detection are gravitational waves. These are tiny distortions of the spacetime itself, and a world-wide effort to directly measure them for the first time with a network of large-scale laser interferometers is currently ongoing and expected to provide positive results within this decade. One potential source of measurable gravitational waves is the inspiral and merger of two compact objects, such as binary black holes. Successfully finding their signature in the noise-dominated data of the detectors crucially relies on accurate predictions of what we are looking for. In this thesis, we present a detailed study of how the most complete waveform templates can be constructed by combining the results from (A) analytical expansions within the post-Newtonian framework and (B) numerical simulations of the full relativistic dynamics. We analyze various strategies to construct complete hybrid waveforms that consist of a post-Newtonian inspiral part matched to numerical-relativity data. We elaborate on exsisting approaches for nonspinning systems by extending the accessible parameter space and introducing an alternative scheme based in the Fourier domain. Our methods can now be readily applied to multiple spherical-harmonic modes and precessing systems. In addition to that, we analyze in detail the accuracy of hybrid waveforms with the goal to quantify how numerous sources of error in the approximation techniques affect the application of such templates in real gravitational-wave searches. This is of major importance for the future construction of improved models, but also for the correct interpretation of gravitational-wave observations that are made utilizing any complete waveform family. In particular, we comprehensively discuss how long the numerical-relativity contribution to the signal has to be in order to make the resulting hybrids accurate enough, and for currently feasible simulation lengths we assess the physics one can potentially do with template-based searches.
Taking advantage of ATRP and using functionalized initiators, different functionalities were introduced in both α and ω chain-ends of synthetic polymers. These functionalized polymers could then go through modular synthetic pathways such as click cycloaddition (copper-catalyzed or copper-free) or amidation to couple synthetic polymers to other synthetic polymers, biomolecules or silica monoliths. Using this general strategy and designing these co/polymers so that they are thermoresponsive, yet bioinert and biocompatible with adjustable cloud point values (as it is the case in the present thesis), the whole generated system becomes "smart" and potentially applicable in different branches. The applications which were considered in the present thesis were in polymer post-functionalization (in situ functionalization of micellar aggregates with low and high molecular weight molecules), hydrophilic/hydrophobic tuning, chromatography and bioconjugation (enzyme thermoprecipitation and recovery, improvement of enzyme activity). Different α-functionalized co/polymers containing cholesterol moiety, aldehyde, t-Boc protected amine, TMS-protected alkyne and NHS-activated ester were designed and synthesized in this work.
Die gewaltigen Strukturveränderungen im Bereich des Gesundheitswesens, die in den letzten Jahren bereits erfolgten und die, die noch bevorstehen, zwingen Unternehmen, mit geplanten und gesteuerten Veränderungsprozessen die Voraussetzungen für eine kontinuierliche Anpassung an die neuen Gegebenheiten zu schaffen und somit ihre Zukunftsfähigkeit sicherzustellen. Vor diesem Hintergrund wird gezeigt, wie das Excellence-Modell der EFQM als Instrument für Veränderungsprozesse eingesetzt werden kann und es geeignet ist, Veränderungsziele zu definieren und die Zielerreichung zu bewerten. Referenzobjekt der Fallstudienanalyse, die einen Zeitraum von 13 Jahren umfasst, ist der Medizinische Dienst der Krankenversicherung Rheinland-Pfalz. Neben der Analyse und Darstellung von theoretischen Grundlagen wird an einem Unternehmen des Gesundheitswesens beispielhaft gezeigt, wie die Umsetzung in der Praxis unter Einsatz des EFQM-Modells erfolgen kann. Da das EFQM-Modell mit seiner Systematik unternehmensunabhängig eingesetzt werden kann, sind Lern- und Übertragungsmöglichkeiten strukturiert möglich. Es wird der Nachweis erbracht, dass sich das EFQM-Modell im Rahmen eines Management- und Qualitätssteue-rungsmodells als Universalmethode nutzen lässt, sofern das Management über die Kompe-tenz branchenspezifischer Anpassung verfügt. Auf dem Weg zu organisatorischer Excel-lence wird gezielt an Planungs- und Prognosetechniken des strategischen Managements (SWOT, Szenario-Analyse, Portfolio-Analyse) angeknüpft und auf das VRIO-Paradigma des Resource-based View Bezug genommen. Das EFQM-Modell wird dem Stresstest des ressourcenstrategischen Ansatzes unterzogen, um so zu zeigen, dass es sich beim EFQM-Modell um ein einzigartiges, schwer imitierbares, kaum zu substituierendes, organisatorisch verankertes und kundennutzen-stiftendes Er-folgspotenzial handeln kann. Die Arbeit liefert Impulse und konkrete Anregungen, die zu einem hohen managementprakti-schen Erkenntniszuwachs für den erfolgreichen Umgang mit dem EFQM-Modell und dem Einsatz von Qualitätsmanagementsystemen führen können.
This work investigates diffusion in nonlinear Hamiltonian systems. The diffusion, more precisely subdiffusion, in such systems is induced by the intrinsic chaotic behavior of trajectories and thus is called chaotic diffusion''. Its properties are studied on the example of one- or two-dimensional lattices of harmonic or nonlinear oscillators with nearest neighbor couplings. The fundamental observation is the spreading of energy for localized initial conditions. Methods of quantifying this spreading behavior are presented, including a new quantity called excitation time. This new quantity allows for a more precise analysis of the spreading than traditional methods. Furthermore, the nonlinear diffusion equation is introduced as a phenomenologic description of the spreading process and a number of predictions on the density dependence of the spreading are drawn from this equation. Two mathematical techniques for analyzing nonlinear Hamiltonian systems are introduced. The first one is based on a scaling analysis of the Hamiltonian equations and the results are related to similar scaling properties of the NDE. From this relation, exact spreading predictions are deduced. Secondly, the microscopic dynamics at the edge of spreading states are thoroughly analyzed, which again suggests a scaling behavior that can be related to the NDE. Such a microscopic treatment of chaotically spreading states in nonlinear Hamiltonian systems has not been done before and the results present a new technique of connecting microscopic dynamics with macroscopic descriptions like the nonlinear diffusion equation. All theoretical results are supported by heavy numerical simulations, partly obtained on one of Europe's fastest supercomputers located in Bologna, Italy. In the end, the highly interesting case of harmonic oscillators with random frequencies and nonlinear coupling is studied, which resembles to some extent the famous Discrete Anderson Nonlinear Schroedinger Equation. For this model, a deviation from the widely believed power-law spreading is observed in numerical experiments. Some ideas on a theoretical explanation for this deviation are presented, but a conclusive theory could not be found due to the complicated phase space structure in this case. Nevertheless, it is hoped that the techniques and results presented in this work will help to eventually understand this controversely discussed case as well.
We investigate properties of quantum mechanical systems in the light of quantum information theory. We put an emphasize on systems with infinite-dimensional Hilbert spaces, so-called continuous-variable systems'', which are needed to describe quantum optics beyond the single photon regime and other Bosonic quantum systems. We present methods to obtain a description of such systems from a series of measurements in an efficient manner and demonstrate the performance in realistic situations by means of numerical simulations. We consider both unconditional quantum state tomography, which is applicable to arbitrary systems, and tomography of matrix product states. The latter allows for the tomography of many-body systems because the necessary number of measurements scales merely polynomially with the particle number, compared to an exponential scaling in the generic case. We also present a method to realize such a tomography scheme for a system of ultra-cold atoms in optical lattices. Furthermore, we discuss in detail the possibilities and limitations of using continuous-variable systems for measurement-based quantum computing. We will see that the distinction between Gaussian and non-Gaussian quantum states and measurements plays an crucial role. We also provide an algorithm to solve the large and interesting class of naturally occurring Hamiltonians, namely frustration free ones, efficiently and use this insight to obtain a simple approximation method for slightly frustrated systems. To achieve this goals, we make use of, among various other techniques, the well developed theory of matrix product states, tensor networks, semi-definite programming, and matrix analysis.
Charakterisierung der neuen centrosomalen Proteine CP148 und CP55 in Dictyostelium discoideum
(2012)
Das im Cytosol liegende Dictyostelium Centrosom ist aus einer geschichteten Core-Region aufgebaut, die von einer Mikrotubuli-nukleierenden Corona umgeben ist. Zudem ist es über eine spezifische Verbindung eng an den Kern geknüpft und durch die Kernmembran hindurch mit den geclusterten Centromeren verbunden. Beim G2/M Übergang dissoziiert die Corona vom Centrosom und der Core verdoppelt sich so dass zwei Spindelpole entstehen. CP55 und CP148 wurden in einer Proteom-Analyse des Centrosoms identifiziert. CP148 ist ein neues coiled-coil Protein der centrosomalen Corona. Es zeigt eine zellzyklusabhängige An- und Abwesenheit am Centrosom, die mit der Dissoziation der Corona in der Prophase und ihrer Neubildung in der Telophase korreliert. Während der Telophase erschienen in GFP-CP148 exprimierenden Zellen viele, kleine GFP-CP148-Foci im Cytoplasma, die zum Teil miteinander fusionierten und zum Centrosom wanderten. Daraus resultierte eine hypertrophe Corona in Zellen mit starker GFP-CP148 Überexpression. Ein Knockdown von CP148 durch RNAi führte zu einem Verlust der Corona und einem ungeordneten Interphase Mikrotubuli-Cytoskelett. Die Bildung der mitotischen Spindel und der astralen Mikrotubuli blieb davon unbeeinflusst. Das bedeutet, dass die Mikrotubuli-Nukleationskomplexe während der Interphase und Mitose über verschiedene Wege mit dem Core assoziiert sind. Des Weiteren bewirkte der Knockdown eine Dispersion der Centromere sowie eine veränderte Sun1 Lokalisation in der Kernhülle. Somit spielt CP148 ebenso eine Rolle in der Centrosomen-Centromer-Verbindung. Zusammengefasst ist CP148 ein essentielles Protein für die Bildung und Organisation der Corona, welche wiederum für die Centrosom/Centromer Verbindung benötigt wird. CP55 wurde als Protein der Core-Region identifiziert und verbleibt während des Zellzyklus am Centrosom. Dort besitzt es strukturelle Aufgaben, da die Mehrheit der GFP-CP55 Moleküle in der Interphase keine Mobilität zeigten. Die GFP-CP55 Überexpression führte zur Bildung von überzähligen Centrosomen mit der üblichen Ausstattung an Markerproteinen der Corona und des Cores. CP55 Knockout-Zellen waren durch eine erhöhte Ploidie, eine weniger strukturierte und leicht vergrößerte Corona sowie zusätzliche cytosolische Mikrotubuli-organisierende Zentren charakterisiert. Letztere entstanden in der Telophase und enthielten nur Corona- aber keine Core-Proteine. In CP55 k/o Zellen erfolgte die Rekrutierung des Corona-Organisators CP148 an den Spindelpol bereits in der frühen Metaphase anstatt, wie üblich, erst in der Telophase. Außerdem zeigten die Knockout-Zellen Wachstumsdefekte, deren Grund vermutlich Schwierigkeiten bei der Centrosomenverdopplung in der Prophase durch das Fehlen von CP55 waren. Darüber hinaus konnten die Knockout-Zellen phagozytiertes Material nicht verwerten, obwohl der Vorgang der Phagozytose nicht beeinträchtigt war. Dieser Defekt kann dem im CP55 k/o auftretenden dispergierten Golgi-Apparat zugeschrieben werden.
Die Fähigkeit, mit anderen Zellen zu kommunizieren, ist eine grundlegende Eigenschaft aller lebenden Zellen und essentiell für die normale Funktionsweise vielzelliger Organismen. Die Speicheldrüsen der Schmeißfliege Calliphora vicina bilden ein ausgezeichnetes physiologisches Modellsystem um zelluläre Signaltransduktionsprozesse an einem intakten Organ zu untersuchen. Die Speichelsekretion wird dabei hormonell durch das biogene Amin Serotonin (5-Hydroxytryptamin; 5-HT) reguliert. 5-HT aktiviert in den sekretorischen Zellen der Drüsen über die Bindung an mindestens zwei membranständige G-Protein gekoppelte Rezeptoren (GPCR) zwei separate Signalwege, den IP3/Ca2+- und den cAMP-Signalweg. Zur Identifizierung und Charakterisierung der 5-HT-Rezeptoren in den Speicheldrüsen von Calliphora wurden unter Anwendung verschiedener Klonierungsstrategien zwei cDNAs (Cv5-ht2α und Cv5-ht7) isoliert, die große Ähnlichkeit zu 5-HT2- und 5-HT7-Rezeptoren aus Säugetieren aufweisen. Die Hydropathieprofile der abgeleiteten Aminosäuresequenzen postulieren die für GPCRs charakteristische heptahelikale Architektur. Alle Aminosäuremotive, die für die Ligandenbindung, die Rezeptoraktivierung und die Kopplung an G-Proteine essentiell sind, liegen konserviert vor. Interessanterweise wurde für den Cv5-HT7-Rezeptor eine zusätzliche hydrophobe Domäne im N Terminus vorhergesagt. Die Cv5-HT2α-mRNA liegt in zwei alternativ gespleißten Varianten vor. Mittels RT-PCR-Experimenten konnte die Expression beider Rezeptoren in Gehirn und Speicheldrüsen adulter Fliegen nachgewiesen werden. Ein Antiserum gegen den Cv5-HT7 Rezeptor markiert in den Speicheldrüsen die basolaterale Plasmamembran. Die Expression der Rezeptoren in einem heterologen System (HEK 293-Zellen) bestätigte diese als funktionelle 5-HT Rezeptoren. So führte die Stimulation mit Serotonin für den Cv5-HT2α zu einer dosis-abhängigen Erhöhung der intrazellulären Ca2+ Konzentration ([Ca2+]i, EC50 = 24 nM). In Cv5-HT7-exprimierenden Zellen löste 5-HT dosisabhängig (EC50 = 4,1 nM) einen Anstieg der intrazellulären cAMP Konzentration ([cAMP]i) aus. Für beide heterolog exprimierten Rezeptoren wurden pharmakologische Profile erstellt. Liganden, die eine Rezeptorsubtyp-spezifische Wirkung vermuten ließen, wurden daraufhin auf ihre Wirkung auf das transepitheliale Potential (TEP) intakter Speicheldrüsenpräparate getestet. Drei 5-HT-Rezeptoragonisten: AS 19, R-(+)-Lisurid und 5-Carboxamidotryptamin führten zu einer cAMP-abhängigen Positivierung des TEP durch eine selektive Aktivierung der 5 HT7-Rezeptoren. Eine selektive Aktivierung des Ca2+-Signalweges durch den Cv5-HT2 Rezeptor ist mit Hilfe von 5-Methoxytryptamin möglich. Dagegen konnte Clozapin im TEP als selektiver Cv5-HT7-Rezeptorantagonist bestätigt werden. Die Kombination eines molekularen Ansatzes mit physiologischen Messungen ermöglichte somit die Identifikation selektiver Liganden für 5-HT2- bzw. 5-HT7-Rezeptoren aus Calliphora vicina. Dies ermöglicht zukünftig eine separate Aktivierung der 5-HT-gesteuerten Signalwege und erleichtert dadurch die weitere Erforschung der intrazellulären Signalwege und ihrer Wechselwirkungen.
China und Indien
(2012)
Der Artikel analysiert die neue Rolle aufsteigender Schwellenländer
in den internationalen Klimaverhandlungen am Beispiel Chinas und
Indiens. Die Ablehnung verbindlicher Reduktionsziele für Treibhausgase
wurde in Kopenhagen als Blockadepolitik beider Länder gewertet.
China und Indien können sich in ihrer Position behaupten, da ihr
gestiegenes Gewicht in der multipolaren Weltordnung und die Untätigkeit
führender Industrieländer ihre Verhandlungsposition stärkt. Die
Autorin diskutiert Kooperationsmöglichkeiten auf subnationaler Ebene,
die die Blockadeposition nationaler Regierungen umgehen können.
We consider orthogonal connections with arbitrary torsion on compact Riemannian manifolds. For the induced Dirac operators, twisted Dirac operators and Dirac operators of Chamseddine-Connes type we compute the spectral action. In addition to the Einstein-Hilbert action and the bosonic part of the Standard Model Lagrangian we find the Holst term from Loop Quantum Gravity, a coupling of the Holst term to the scalar curvature and a prediction for the value of the Barbero-Immirzi parameter.
The clumping of massive star winds is an established paradigm, which is confirmed by multiple lines of evidence and is supported by stellar wind theory. We use the results from time-dependent hydrodynamical models of the instability in the line-driven wind of a massive supergiant star to derive the time-dependent accretion rate on to a compact object in the Bondi-Hoyle-Lyttleton approximation. The strong density and velocity fluctuations in the wind result in strong variability of the synthetic X-ray light curves. Photoionization of inhomogeneous winds is different from the photoinization of smooth winds. The degree of ionization is affected by the wind clumping. The wind clumping must also be taken into account when comparing the observed and model spectra of the photoionized stellar wind.
Chemische und physikalische Eigenschaften von Polymeren können verschiedene Zelltypen unterschiedlich, z. B. hinsichtlich Adhärenz oder Funktionalität, beeinflussen. Die Elastizität eines Polymers beeinflusst vor allem, welche Zugkräfte eine Zelle gegenüber ihrem Substrat entwickeln kann. Das Zellverhalten wird dann über intrazelluläre Rückkopplungsmechanismen reguliert. Die Oberflächenladung und/oder Hydrophilie eines Polymers beeinflusst zunächst die Adsorption von Ionen, Proteinen und anderen Molekülen. Vor allem über die Zusammensetzung, Dichte und Konformation der adsorbierten Komponenten werden anschließend die Wechselwirkungen mit den Zellen vermittelt. Des Weiteren können verschiedene Zelltypen unterschiedliche membranassoziierte Proteine, Zucker und Lipide aufweisen, so dass Polymereigenschaften zellspezifische Effekte bewirken können. Für biotechnologische Anwendungen und für den Einsatz in der regenerativen Medizin gewinnen Polymere, die spezifische Zellreaktionen regulieren können, immer weiter an Bedeutung. Die Isolierung und Kultur von primären Keratinozyten ist noch immer anspruchsvoll und die adäquate Heilung von Hautwunden stellt eine fortwährende medizinische Herausforderung dar. Ein Polymer, das eine bevorzugte Adhärenz von Keratinozyten bei gleichzeitig verminderter Anheftung dermaler Fibroblasten ermöglicht, würde erhebliche Vorteile für den Einsatz in der Keratinozyten-Zellkultur und als Wundauflage bieten. Um den potentiell spezifischen Einfluss bestimmter Polymereigenschaften auf primäre humane Keratinozyten und dermale Fibroblasten zu untersuchen, wurde in der vorliegenden Arbeit ein Zellkultursystem für die Mono- und Cokultur beider Zelltypen entwickelt. Das Testsystem wurde als Screening konzipiert, um den Einfluss unterschiedlicher Polymereigenschaften in mehreren Abstufungen auf die Zellen zu untersuchen. Folgende Parameter wurden untersucht: 1. Vitalität und Dichte adhärenter und nicht-adhärierter Zellen, 2. Schädigung der Zellmembran, 3. selektive Adhärenz von Keratinozyten in Cokultur durch die spezifische immunzytochemische Färbung von Keratin14 und Vimentin. Für die Polymere mit variabler Elastizität wurden zusätzlich die Ablagerung extrazellulärer Matrixkomponenten und die Sekretion löslicher Faktoren durch die Zellen untersucht. Als Modellpolymere für die Variation der Elastizität wurden vernetzte Poly(n-butylacrylate) (cPnBA) verwendet, da deren Elastizität durch den Anteil des Vernetzers eingestellt werden kann. Auf dem weniger elastischen cPnBA zeigte sich in der Cokultur ein doppelt so hohes Verhältnis von Keratinozyten zu Fibroblasten wie auf dem elastischeren cPnBA, so dass ein leichter zellselektiver Effekt angenommen werden kann. Acrylnitril-basierte Copolymere wurden als Modellpolymere für die Variation der Oberflächenladung und Hydrophilie verwendet, da die Eigenschaften durch Art und molaren Anteil des Comonomers eingestellt werden können. Durch Variation des molaren Anteils der Comonomere mit positiver bzw. negativer Ladung, Methacrylsäure-2-aminoethylester-hydrochhlorid (AEMA) und N-3-Aminopropyl-methacrylamid-hydro-chlorid (APMA) bzw. Natriumsalz der 2-Methyl-2-propen-1-sulfonsäure (NaMAS), wurde der Anteil der positiven bzw. negativen Ladung im Copolymer variiert. Durch die Erhöhung des molaren Anteils des hydrophilen Comonomers N-Vinylpyrrolidon (NVP) wurde die Hydrophilie des Copolymers gesteigert. Die Erhöhung des molaren Anteils an positiv geladenem Comonomer AEMA im Copolymer führte tendenziell zu einer höheren Keratinozytendichte, wobei die Fibroblastendichte unverändert blieb. Durch die Erhöhung des molaren Anteils des positiv geladenen Comonomers APMA ergaben sich keine deutlichen Unterschiede in Dichte, Vitalität oder Selektivität der Zellen. Durch die stufenweise Erhöhung des molaren Anteils des negativ geladenen Comonomers NaMAS konnte, wie im Falle von AEMA, eine Tendenz zur verbesserten Keratinozytenadhärenz beobachtet werden. Die Steigerung der Hydrophilie der Copolymere führte sowohl für Keratinozyten als auch für Fibroblasten zu einer reduzierten Adhärenz und Vitalität. In der vorliegenden Doktorarbeit wurde ein Testverfahren etabliert, das die Untersuchung von primären humanen Keratinozyten und primären humanen Fibroblasten in Monokultur und Cokultur auf verschiedenen Polymeren ermöglicht. Die bisherigen Ergebnisse zeigen, dass sich durch die gezielte Modifizierung verschiedener Polymereigenschaften die Adhärenz und Vitalität beider Zelltypen beeinflussen lässt. Die Reduktion der Elastizität sowie die Erhöhung des molaren Anteils geladener Comonomere führten zu einer Zunahme der Keratinozytenadhärenz. Da die Fibroblasten unbeeinflusst blieben, zeigte sich für einige der untersuchten Polymere eine leichte Zellselektivität. Diese könnte durch die weitere Erhöhung der Steifigkeit oder des Anteils geladener Comonomere möglicherweise weiter gesteigert werden.
This paper develops a spatial model to analyze the stability of a market sharing agreement between two firms. We find that the stability of the cartel depends on the relative market size of each firm. Collusion is not attractive for firms with a small home market, but the incentive for collusion increases when the firm’s home market is getting larger relative to the home market of the competitor. The highest stability of a cartel and additionally the highest social welfare is found when regions are symmetric. Further we can show that a monetary transfer can stabilize the market sharing agreement.
We consider the Dirichlet, Neumann and Zaremba problems for harmonic functions in a bounded plane domain with nonsmooth boundary. The boundary curve belongs to one of the following three classes: sectorial curves, logarithmic spirals and spirals of power type. To study the problem we apply a familiar method of Vekua-Muskhelishvili which consists in using a conformal mapping of the unit disk onto the domain to pull back the problem to a boundary problem for harmonic functions in the disk. This latter is reduced in turn to a Toeplitz operator equation on the unit circle with symbol bearing discontinuities of second kind. We develop a constructive invertibility theory for Toeplitz operators and thus derive solvability conditions as well as explicit formulas for solutions.
The size of plant organs, such as leaves and flowers, is determined by an interaction of genotype and environmental influences. Organ growth occurs through the two successive processes of cell proliferation followed by cell expansion. A number of genes influencing either or both of these processes and thus contributing to the control of final organ size have been identified in the last decade. Although the overall picture of the genetic regulation of organ size remains fragmentary, two transcription factor/microRNA-based genetic pathways are emerging in the control of cell proliferation. However, despite this progress, fundamental questions remain unanswered, such as the problem of how the size of a growing organ could be monitored to determine the appropriate time for terminating growth. While genetic analysis will undoubtedly continue to advance our knowledge about size control in plants, a deeper understanding of this and other basic questions will require including advanced live-imaging and mathematical modeling, as impressively demonstrated by some recent examples. This should ultimately allow the comparison of the mechanisms underlying size control in plants and in animals to extract common principles and lineage-specific solutions.
Data dependencies, or integrity constraints, are used to improve the quality of a database schema, to optimize queries, and to ensure consistency in a database. In the last years conditional dependencies have been introduced to analyze and improve data quality. In short, a conditional dependency is a dependency with a limited scope defined by conditions over one or more attributes. Only the matching part of the instance must adhere to the dependency. In this paper we focus on conditional inclusion dependencies (CINDs). We generalize the definition of CINDs, distinguishing covering and completeness conditions. We present a new use case for such CINDs showing their value for solving complex data quality tasks. Further, we define quality measures for conditions inspired by precision and recall. We propose efficient algorithms that identify covering and completeness conditions conforming to given quality thresholds. Our algorithms choose not only the condition values but also the condition attributes automatically. Finally, we show that our approach efficiently provides meaningful and helpful results for our use case.
Cyber-physical systems achieve sophisticated system behavior exploring the tight interconnection of physical coupling present in classical engineering systems and information technology based coupling. A particular challenging case are systems where these cyber-physical systems are formed ad hoc according to the specific local topology, the available networking capabilities, and the goals and constraints of the subsystems captured by the information processing part. In this paper we present a formalism that permits to model the sketched class of cyber-physical systems. The ad hoc formation of tightly coupled subsystems of arbitrary size are specified using a UML-based graph transformation system approach. Differential equations are employed to define the resulting tightly coupled behavior. Together, both form hybrid graph transformation systems where the graph transformation rules define the discrete steps where the topology or modes may change, while the differential equations capture the continuous behavior in between such discrete changes. In addition, we demonstrate that automated analysis techniques known for timed graph transformation systems for inductive invariants can be extended to also cover the hybrid case for an expressive case of hybrid models where the formed tightly coupled subsystems are restricted to smaller local networks.
Dario Fos "Morte accidentale di un anarchico" und seine Adaptationen in Frankreich und Deutschland
(2012)
Dario Fo (Nobelpreis 1997) ist einer der herausragendsten Erneuerer des italienischen Theaters des 20. Jahrhunderts. Ein Überblick über die wichtigsten Stationen seines künstlerischen Schaffens zeugt zunächst von Fos stetem Bemühen um innovative Ansätze in Bezug auf Theaterkonzeption und –praxis: immer gilt es, sich von den Konventionen des literarischen, bürgerlichen, subventionierten, weitgehend passiv rezipierten Theaters abzugrenzen und das Theater für das Publikum wieder ganzheitlich erfahrbar zu machen. Doch nicht selten geraten er und seine Truppe dabei in Konflikt mit den herrschenden politischen und gesellschaftlichen Umständen. Dies trifft auch auf sein Stück "Morte accidentale di un anarchico" (1970) zu, dessen Analyse im Zentrum dieser Arbeit steht. Ein realhistorischer Fall, der "Fall Pinelli" (bzw. "la strage di Piazza Fontana") 1969, diente Fo als Grundlage seiner sehr zeitnah entstandenen grotesken Farce, die aufgrund ihrer politischen Brisanz für Aufruhr sorgte und die auch im Ausland bis heute immer wieder auf den Spielplänen zu finden ist. Die Arbeit geht daher nicht nur auf die Produktion, Inszenierung und Rezeption des Stücks in Italien ein, sondern nimmt auch die Adaptationen und deren Rezeption in Frankreich und Deutschland in den Blick, wobei die italienspezifische Ausrichtung von Fos Theater (Rekurs auf Traditionen des italienischen Volkstheaters, Verarbeitung (tages)politischen Geschehens etc.) eine besondere Herausforderung für die fremdsprachige Bearbeitung des Stückes und seine Inszenierung darstellt. Neben den produktions- und rezeptionsästhetischen Grundbedingungen des Textes von Dario Fo werden in diesem Zusammenhang auch Spezifika der Bühnenübersetzung beleuchtet und Alternativen hierzu aufgezeigt, die auch bereits von Fos Truppe genutzt werden.
Wissenschaft hat einen großen Anteil daran, internationale Umweltprobleme auf die politische Tagesordnung zu bringen und Maßnahmen zu ihrer technischen Lösung zu entwerfen. Dies gilt sowohl für den Abbau der Ozonschicht als auch für den Klimawandel. So relevant die Generierung von wissenschaftlichen Erkenntnissen in diesen Feldern ist, so komplex ist die Interaktion zwischen Wissenschaft und Politik und so schwierig ist es, Verlässliches darüber zu sagen. Thomas Hickmann analysiert das Verhältnis von Wissenschaft und Politik in internationalen Umweltregimen aus einer neuen Perspektive. Er untersucht nicht den Einfluss wissenschaftlicher Erkenntnisse auf die Politik, sondern rückt die Frage in den Fokus, inwieweit Regierungen Einfluss auf die Wissenschaft nehmen, um nationale Interessen durchzusetzen. Diese Perspektive wurde in der Forschung bislang weitgehend vernachlässigt, weshalb eine systematische Analyse dieser Frage in der Literatur fehlt.
Meiner nichtreduktionistischen Lesart Gadamers, derzufolge eine wechselseitige konstitutive Relation zwischen „Sprache“ und „Erfahrung“ besteht, ist es gestattet, den Vorwurf, die Sprachphilosophie Gadamers führe in den Relativismus, den man häufig gegenüber sprachphilosophischen Positionen erhebt, abzuweisen. Manchen Denkern zufolge haben die Philosophen der Postmoderne, zu denen auch Gadamer gezählt wurde, eine einfache Umkehrung der beiden Pole des modernen Verhältnisses „Sprache“ – „Erfahrung“ vollzogen: Während die Sprache in der Moderne in ihrer Bedingtheit zur Erfahrung und als bloßes Ausdrucksmittel verstanden wurde, wurde dieses Verhältnis in der neueren Philosophie nur umgekehrt, insofern die Philosophie in der Sprache das Fundament für die Erfahrung sehe, wonach die Erfahrung als ein Ausdruck der Sprache erscheine. Die vorliegende Arbeit setzt sich mit diesem Relativismusvorwurf auseinander und beabsichtigt, eine wechselseitige Abhängigkeit zwischen Sprache und Erfahrung ausgehend von Hans-Georg Gadamers Werk zu entwickeln. Um das zu erreichen, wurden zunächst eine doppelte negative-positive Erfahrungsstruktur und dann einige phänomenologische und transzendentale Merkmale der Erfahrung auf dem historischen Hintergrund für Gadamers Erfahrungsbegriff herausgearbeitet. Somit machte sich die konstitutive Sprachlichkeit der Erfahrung erkennbar. In einer Auseinandersetzung mit dem Sprachbegriff auf der anderen Seite wurde sein dialogischer und welterschließender Charakter veranschaulicht, so dass auch seine Angewiesenheit auf die Welterfahrung offenkundig wurde.
De cómicos e histéricos
(2012)
La popularidad de Alejandro de Humboldt ha cambiado profundamente dentro del último cuarto de siglo en la opinión pública de habla alemana. Prueba de esto son no sólo las encuestas televisivas sobre los alemanes más famosos, dentro de las cuales figura en estos momentos Alejandro de Humboldt, o programas de televisión sobre expediciones actuales, en los que continuamente se retoma el nombre de Humboldt; quizás la comprobación más clara de este cambio es el éxito enorme de la novela Die Vermessung der Welt de Daniel Kehlmann. Éxito que sería impensable sin el proceso esbozado más arriba. Ante este trasfondo, estudiar el gran éxito de esta pequeña novela resulta no sólo atractivo, sino además revelador. ¿De qué se trata Die Vermessung der Welt? ¿Cómo se puede explicar el »fenómeno Kehlmann« desde una distancia relativamente mayor?
Governments at central and sub-national levels are increasingly pursuing participatory mechanisms in a bid to improve governance and service delivery. This has been largely in the context of decentralization reforms in which central governments transfer (share) political, administrative, fiscal and economic powers and functions to sub-national units. Despite the great international support and advocacy for participatory governance where citizen’s voice plays a key role in decision making of decentralized service delivery, there is a notable dearth of empirical evidence as to the effect of such participation. This is the question this study sought to answer based on a case study of direct citizen participation in Local Authorities (LAs) in Kenya. This is as formally provided for by the Local Authority Service Delivery Action Plan (LASDAP) framework that was established to ensure citizens play a central role in planning and budgeting, implementation and monitoring of locally identified services towards improving livelihoods and reducing poverty. Influence of participation was assessed in terms of how it affected five key determinants of effective service delivery namely: efficient allocation of resources; equity in service delivery; accountability and reduction of corruption; quality of services; and, cost recovery. It finds that the participation of citizens is minimal and the resulting influence on the decentralized service delivery negligible. It concludes that despite the dismal performance of citizen participation, LASDAP has played a key role towards institutionalizing citizen participation that future structures will build on. It recommends that an effective framework of citizen participation should be one that is not directly linked to politicians; one that is founded on a legal framework and where citizens have a legal recourse opportunity; and, one that obliges LA officials both to implement what citizen’s proposals which meet the set criteria as well as to account for their actions in the management of public resources.
We study the Dirichlet problem in a bounded plane domain for the heat equation with small parameter multiplying the derivative in t. The behaviour of solution at characteristic points of the boundary is of special interest. The behaviour is well understood if a characteristic line is tangent to the boundary with contact degree at least 2. We allow the boundary to not only have contact of degree less than 2 with a characteristic line but also a cuspidal singularity at a characteristic point. We construct an asymptotic solution of the problem near the characteristic point to describe how the boundary layer degenerates.
Der Einfluss unterschiedlich aggressiver Fusarium culmorum- und F. graminearum-Isolate auf die Schadbildausprägung bei Winterweizen sowie die Möglichkeit der Befallskontrolle mit Mykorrhiza Die durch Pilzarten der Gattung Fusarium spp. hervorgerufene partielle Taubährigkeit ist ein ernstes Problem im weltweiten Weizenanbau. Eine für die Schaderreger günstige feuchte Witterung zum Zeitpunkt der Weizenblüte in Kombination mit befallsfördernden agrotechnischen Maßnahmen löst immer wieder Epidemien aus. Hauptsächlich verursacht durch F. culmorum und F. graminearum führt eine Erkrankung zu Ertrags- und Qualitätseinbußen sowie zu einer Belastung des Ernteguts mit Mykotoxinen, die bereits in niedrigen Konzentrationen toxisch auf den tierischen und menschlichen Organismus wirken. Die am häufigsten vorkommenden Fusarium-Toxine in Weizen sind Deoxynivalenol (DON) und Zearalenon (ZEA). Isolate von F. graminearum- und F. culmorum können in ihrem DON- und ZEA-Bildungsvermögen und ihrem Potential, Nekrosen zu verursachen, stark variieren. In Laborversuchen (in vitro) wurden F. graminearum- und F. culmorum-Isolate hinsichtlich dieser Eigenschaften (hier als Aggressivität bezeichnet) charakterisiert und anschließend wurde im Feldversuch überprüft, ob die in vitro-ermittelte Aggressivität die Schadbildausprägung bei Weizenpflanzen beeinflusst. Nur im ersten Versuchsjahr, das durch hohe Niederschläge gekennzeichnet war, konnte ein Einfluss der Aggressivität und einer zusätzlichen Beregnung im Feldversuch nachgewiesen werden. Die als hoch-aggressiv eingestuften Fusarium-Isolate reduzierten unter dem Einfluss der Beregnung den Ertrag und das Tausendkorngewicht. Die Beregnung führte zu einer Erhöhung des Pilzwachstums und der DON- und ZEA-Produktion. Ein extrem trockener Sommer verhinderte die Infektion der Weizenpflanzen durch die beimpften Fusarium-Isolate und ein anschließendes Pilzwachstum in den Ähren im zweiten Versuchsjahr. Um den Befall von Weizenpflanzen mit Fusarium spp. vorzubeugen, stehen verschiedene pflanzenbauliche Maßnahmen zur Verfügung. Eine Möglichkeit stellen in diesem Zusammenhang die symbiotischen Mykorrhizapilze (MP) dar. Die Pilze sind in der Lage, Pflanzen zu stärken und antagonistisch auf pilzliche Schaderreger zu wirken. Um zu überprüfen, ob MP dazu beitragen könnten, den Befall von Weizenpflanzen mit Fusarium spp. niedrig zu halten, wurden Weizenpflanzen mit MP und Fusarium spp. beimpft und die Auswirkungen der Interaktionen auf die Weizenpflanzen in einem Klimakammer- und einem Feldversuch getestet. In der Klimakammer wurde eine Reduzierung des Fusarium-Befalls nachgewiesen. Die mykorrhizierten Weizenpflanzen wiesen außerdem höhere Photosyntheseraten, höhere Sprosstrockenmassen und mehr Ähren im Vergleich zu den nicht-mykorrhizierten und mit Fusarium-beimpften Weizenpflanzen auf. Insgesamt wurde durch die Mykorrhizierung der negative Einfluss von Fusarium spp. kompensiert. Im Freiland konnte kein Einfluss der MP auf Fusarium spp. beobachtet werden. Im ersten Versuchsjahr führte das Beimpfen der Weizenpflanzen mit MP zu höheren Wurzel- und Sprosstrockenmassen sowie zu höheren Tausendkorngewichten im Vergleich zu den mit Fusarium spp.-beimpften Weizenpflanzen. Im zweiten Versuchsjahr konnte dieses Ergebnis nicht wiederholt werden.
In der aktuellen Performance-Management-Forschung wurden bereits eine Vielzahl von Einflussfaktoren untersucht, die eine zielgerichtete Verwendung von Kennzahlen beeinflussen. Verwaltungskultur spielte hierbei nur eine nachgeordnete Rolle. Die vorliegende Untersuchung verwendet die Daten einer Umfrage in allen kreisfreien Städten Deutschlands, um den Zusammenhang zwischen verschiedenen Kulturtypen und der Verwendung von Kennzahlen zu untersuchen. Als Analyseschema für Verwaltungskultur wird die Grid/Group-Analysis verwendet. Die Ergebnisse sind zum Teil überraschend. Individualistische Kulturen scheinen einen negativen, hierarchistische Kulturen einen positiven Einfluss zu haben. Dennoch wird das Fehlen eines geeigneten Operationalisierungsschemas bemängelt.
Fußverkehr findet im gesamten öffentlichen Raum statt und ermöglicht die lückenlose Verbindung von Tür zu Tür. Jeder Mensch steht vor Beginn einer Fortbewegung vor den Fragen „Wo bin ich?“, „Wo liegt mein Ziel?“ und „Wie komme ich dahin?“. Ein Großteil der auf dem Markt befindlichen Navigationssysteme für Fußgänger stellen reduzierte Varianten aus Fahrzeugen dar und basieren auf 2D- Kartendarstellungen oder bilden die Realität als dreidimensionales Modell ab. Navigationsprobleme entstehen dann, wenn es dem Nutzer nicht gelingt, die Information aus der Anweisung auf die Wirklichkeit zu beziehen und umzusetzen. Ein möglicher Grund dafür liegt in der Visualisierung der Navigationsanweisung. Die räumliche Wahrnehmung des Menschen erfolgt ausgehend von einem bestimmten Betrachtungsstandpunkt und bringt die Lage von Objekten und deren Beziehung zueinander zum Ausdruck. Der Einsatz von Augmented Reality (erweiterte Realität) entspricht dem Erscheinungsbild der menschlichen Wahrnehmung und ist für Menschen eine natürliche und zugleich vertraute Ansichtsform. Im Unterschied zu kartographischer Visualisierung wird die Umwelt mittels Augmented Reality nicht modelliert, sondern realitätsgetreu abgebildet und ergänzt. Das Ziel dieser Arbeit ist ein Navigationsverfahren, das der natürlichen Fort-bewegung und Sichtweise von Fußgängern gerecht wird. Das Konzept basiert auf dem Einsatz einer Kombination aus Realität und virtueller Realität zu einer erweiterten Ansicht. Da keine Darstellungsform als die Route selbst besser geeignet ist, um einen Routenverlauf zu beschreiben, wird die Realität durch eine virtuelle Route erweitert. Die perspektivische Anpassung der Routendarstellung erfordert die sensorische Erfassung der Position und Lage des Betrachtungsstandpunktes. Das der Navigation zu Grunde liegende Datenmodell bleibt dem Betrachter dabei verborgen und ist nur in Form der erweiterten Realität sichtbar. Der im Rahmen dieser Arbeit entwickelte Prototyp trägt die Bezeichnung RealityView. Die Basis bildet ein freies und quelloffenes Navigationssystem, das für die Fußgängernavigation modular erweitert wurde. Das Ergebnis ist ein smartphonebasierter Navigationsprototyp, in dem die Ansichtsform einer zweidimensionalen Bildschirmkarte im Grundriss und die Darstellung einer erweiterten Realität im Aufriss kombiniert werden. Die Evaluation des Prototyps bestätigt die Hypothese, dass der Einsatz von Augmented Reality für die Navigation von Fußgängern möglich ist und von der Nutzergruppe akzeptiert wird. Darüber hinaus bescheinigen Wissenschaftler im Rahmen von Experten-interviews den konzeptionellen Ansatz und die prototypische Umsetzung des RealityView. Die Auswertung einer Eye-Tracking-Pilotstudie erbrachte den Nachweis, dass Fußgänger die Navigationsanweisung auf markante Objekte der Umwelt beziehen, deren Auswahl durch den Einsatz von Augmented Reality begünstigt wird.