Filtern
Volltext vorhanden
- ja (204) (entfernen)
Erscheinungsjahr
- 2005 (204) (entfernen)
Dokumenttyp
- Dissertation (93)
- Monographie/Sammelband (37)
- Postprint (22)
- Ausgabe (Heft) zu einer Zeitschrift (12)
- Arbeitspapier (11)
- Rezension (9)
- Wissenschaftlicher Artikel (6)
- Habilitation (5)
- Sonstiges (4)
- Preprint (4)
Sprache
- Deutsch (124)
- Englisch (79)
- Mehrsprachig (1)
Gehört zur Bibliographie
- ja (204) (entfernen)
Schlagworte
- Modellierung (6)
- Selbstorganisation (5)
- Verwaltung (5)
- Arabidopsis (4)
- Polyelektrolyt (4)
- Anthropogene Klimaänderung (3)
- Blockcopolymere (3)
- Enterprise-Resource-Planning (3)
- Klimawandel (3)
- Ländlicher Raum (3)
Institut
- Institut für Physik und Astronomie (25)
- Wirtschaftswissenschaften (24)
- Institut für Biochemie und Biologie (23)
- MenschenRechtsZentrum (19)
- Institut für Chemie (17)
- Extern (12)
- Sozialwissenschaften (9)
- Department Psychologie (7)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (6)
- Institut für Ernährungswissenschaft (6)
Collisions of black holes and neutron stars, named mixed binaries in the following, are interesting because of at least two reasons. Firstly, it is expected that they emit a large amount of energy as gravitational waves, which could be measured by new detectors. The form of those waves is expected to carry information about the internal structure of such systems. Secondly, collisions of such objects are the prime suspects of short gamma ray bursts. The exact mechanism for the energy emission is unknown so far. In the past, Newtonian theory of gravitation and modifications to it were often used for numerical simulations of collisions of mixed binary systems. However, near to such objects, the gravitational forces are so strong, that the use of General Relativity is necessary for accurate predictions. There are a lot of problems in general relativistic simulations. However, systems of two neutron stars and systems of two black holes have been studies extensively in the past and a lot of those problems have been solved. One of the remaining problems so far has been the use of hydrodynamic on excision boundaries. Inside excision regions, no evolution is carried out. Such regions are often used inside black holes to circumvent instabilities of the numerical methods near the singularity. Methods to handle hydrodynamics at such boundaries have been described and tests are shown in this work. One important test and the first application of those methods has been the simulation of a collapsing neutron star to a black hole. The success of these simulations and in particular the performance of the excision methods was an important step towards simulations of mixed binaries. Initial data are necessary for every numerical simulation. However, the creation of such initial data for general relativistic situations is in general very complicated. In this work it is shown how to obtain initial data for mixed binary systems using an already existing method for initial data of two black holes. These initial data have been used for evolutions of such systems and problems encountered are discussed in this work. One of the problems are instabilities due to different methods, which could be solved by dissipation of appropriate strength. Another problem is the expected drift of the black hole towards the neutron star. It is shown, that this can be solved by using special gauge conditions, which prevent the black hole from moving on the computational grid. The methods and simulations shown in this work are only the starting step for a much more detailed study of mixed binary system. Better methods, models and simulations with higher resolution and even better gauge conditions will be focus of future work. It is expected that such detailed studies can give information about the emitted gravitational waves, which is important in view of the newly built gravitational wave detectors. In addition, these simulations could give insight into the processes responsible for short gamma ray bursts.
The occurrence of earthquakes is characterized by a high degree of spatiotemporal complexity. Although numerous patterns, e.g. fore- and aftershock sequences, are well-known, the underlying mechanisms are not observable and thus not understood. Because the recurrence times of large earthquakes are usually decades or centuries, the number of such events in corresponding data sets is too small to draw conclusions with reasonable statistical significance. Therefore, the present study combines both, numerical modeling and analysis of real data in order to unveil the relationships between physical mechanisms and observational quantities. The key hypothesis is the validity of the so-called "critical point concept" for earthquakes, which assumes large earthquakes to occur as phase transitions in a spatially extended many-particle system, similar to percolation models. New concepts are developed to detect critical states in simulated and in natural data sets. The results indicate that important features of seismicity like the frequency-size distribution and the temporal clustering of earthquakes depend on frictional and structural fault parameters. In particular, the degree of quenched spatial disorder (the "roughness") of a fault zone determines whether large earthquakes occur quasiperiodically or more clustered. This illustrates the power of numerical models in order to identify regions in parameter space, which are relevant for natural seismicity. The critical point concept is verified for both, synthetic and natural seismicity, in terms of a critical state which precedes a large earthquake: a gradual roughening of the (unobservable) stress field leads to a scale-free (observable) frequency-size distribution. Furthermore, the growth of the spatial correlation length and the acceleration of the seismic energy release prior to large events is found. The predictive power of these precursors is, however, limited. Instead of forecasting time, location, and magnitude of individual events, a contribution to a broad multiparameter approach is encouraging.
We investigate the rotational and thermal properties of star-forming molecular clouds using hydrodynamic simulations. Stars form from molecular cloud cores by gravoturbulent fragmentation. Understanding the angular momentum and the thermal evolution of cloud cores thus plays a fundamental role in completing the theoretical picture of star formation. This is true not only for current star formation as observed in regions like the Orion nebula or the ρ-Ophiuchi molecular cloud but also for the formation of stars of the first or second generation in the universe. In this thesis we show how the angular momentum of prestellar and protostellar cores evolves and compare our results with observed quantities. The specific angular momentum of prestellar cores in our models agree remarkably well with observations of cloud cores. Some prestellar cores go into collapse to build up stars and stellar systems. The resulting protostellar objects have specific angular momenta that fall into the range of observed binaries. We find that collapse induced by gravoturbulent fragmentation is accompanied by a substantial loss of specific angular momentum. This eases the "angular momentum problem" in star formation even in the absence of magnetic fields. The distribution of stellar masses at birth (the initial mass function, IMF) is another aspect that any theory of star formation must explain. We focus on the influence of the thermodynamic properties of star-forming gas and address this issue by studying the effects of a piecewise polytropic equation of state on the formation of stellar clusters. We increase the polytropic exponent γ from a value below unity to a value above unity at a certain critical density. The change of the thermodynamic state at the critical density selects a characteristic mass scale for fragmentation, which we relate to the peak of the IMF observed in the solar neighborhood. Our investigation generally supports the idea that the distribution of stellar masses depends mainly on the thermodynamic state of the gas. A common assumption is that the chemical evolution of the star-forming gas can be decoupled from its dynamical evolution, with the former never affecting the latter. Although justified in some circumstances, this assumption is not true in every case. In particular, in low-metallicity gas the timescales for reaching the chemical equilibrium are comparable or larger than the dynamical timescales. In this thesis we take a first approach to combine a chemical network with a hydrodynamical code in order to study the influence of low levels of metal enrichment on the cooling and collapse of ionized gas in small protogalactic halos. Our initial conditions represent protogalaxies forming within a fossil HII region -- a previously ionized HII region which has not yet had time to cool and recombine. We show that in these regions, H2 is the dominant and most effective coolant, and that it is the amount of H2 formed that controls whether or not the gas can collapse and form stars. For metallicities Z <= 10<sup>-3 Zsun, metal line cooling alters the density and temperature evolution of the gas by less than 1% compared to the metal-free case at densities below 1 cm<sup>-3 and temperatures above 2000 K. We also find that an external ultraviolet background delays or suppresses the cooling and collapse of the gas regardless of whether it is metal-enriched or not. Finally, we study the dependence of this process on redshift and mass of the dark matter halo.
To investigate eye-movement control in reading, the present thesis examined three phenomena related to the eyes’ landing position within words, (1) the optimal viewing position (OVP), (2) the preferred viewing location (PVL), and (3) the Fixation-Duration Inverted-Optimal Viewing Position (IOVP) Effect. Based on a corpus-analytical approach (Exp. 1), the influence of variables word length, launch site distance, and word frequency was systematically explored. In addition, five experimental manipulations were conducted. First, word center was identified as the OVP, that is the position within a word where refixation probability is minimal. With increasing launch site distance, however, the OVP was found to move towards the word beginning. Several possible causes of refixations were discussed. The issue of refixation saccade programming was extensively investigated, suggesting that pre-planned and directly controlled refixation saccades coexist. Second, PVL curves, that is landing position distributions, show that the eyes are systematically deviated from the OVP, due to visuomotor constraints. By far the largest influence on mean and standard deviation of the Gaussian PVL curve was exhibited by launch site distance. Third, it was investigated how fixation durations vary as a function of landing position. The IOVP effect was replicated: Fixations located at word center are longer than those falling near the edges of a word. The effect of word frequency and/or launch site distance on the IOVP function mainly consisted in a vertical displacement of the curve. The Fixation-Duration IOVP effect is intriguing because word center (the OVP) would appear to be the best place to fixate and process a word. A critical part of the current work was devoted to investigate the origin of the effect. It was suggested that the IOVP effect arises as a consequence of mislocated fixations, i.e. fixations on unintended words, which are caused by saccadic errors. An algorithm for estimating the proportion of mislocated fixations from empirical data was developed, based on extrapolations of landing position distributions beyond word boundaries. As a new central theoretical claim it was suggested that a new saccade program is started immediately if the intended target word is missed. On average, this will lead to decreased durations for mislocated fixations. Because mislocated fixations were shown to be most prevalent at the beginning and end of words, the proposed mechanism generated the inverted U-shape for fixation durations when computed as a function of landing position. The proposed mechanism for generating the effect is generally compatible with both oculomotor and cognitive models of eye-movement control in reading.
Die effektive Erzeugung von Wissen ist eine der zentralen Herausforderungen des 21. Jahrhunderts. Informations- und Kommunikationstechnologien, wie die Neuen Medien, durchdringen alle Bereiche des täglichen Lebens. Sie ermöglichen den Zugriff auf gigantische Datenmengen, die die Grundvoraussetzung für die Generierung von Wissen darstellen, aber gleichzeitig eine Datenflut bedeuten, der wir ohnmächtig gegenüberstehen. Innerhalb der raumwissenschaftlichen Fachdisziplinen spielen die Neuen Medien für die Kommunikation von Sachinformation eine wichtige Rolle. Die internetbasierte Distribution von Karten, angereichert mit zusätzlichen Informationen in Form von Audiosequenzen oder Filmausschnitten, spiegelt diese Entwicklung wieder. Vor diesem Hintergrund erfolgt die Untersuchung der Frage, ob Neue Medien dazu genutzt werden können, raumwissenschaftliche Fachinhalte zu vermitteln. Von besonderem Interesse ist dabei die Frage, ob durch den Einsatz Neuer Medien in der Lehre ein Mehrwert für die Benutzer entsteht. Der Ausgangspunkt dieser Forschungsfrage besteht in der herausragenden Bedeutung von Visualisierung zur leicht verständlichen Darstellung komplexer Sachverhalte, sowie der entsprechenden Werkzeug- und Methodenkompetenz für die Nutzung Neuer Medien in den raumwissen-schaftlichen Disziplinen. Die Grundlage für die Entwicklung von mehrwertigen Lernangeboten ist die Betrachtung von Lernen als Kommunikationsprozess zur Konstruktion von Wissen, was bedeutet, dass der Entwickler derartiger Angebote über Möglichkeiten zur Optimierung dieses Kommunikationsprozesses verfügt. Auf dieser Basis erfolgt eine Erweiterung des in den raumwissenschaftlichen Disziplinen verwendeten Kommunikationsbegriffs um den Aspekt der Lehre von Fachinhalten. Als relevante Ansatzpunkte für die Optimierung der Kommunikation von Fachinhalten werden die didaktische und die mediale Aufbereitung identifiziert. Diese können zum einen die Motivation der Lernenden positiv beeinflussen und zum anderen durch Wirkung auf die Wahrnehmung der Lernenden zu einem vereinfachten Verständnis beitragen. Im Mittelpunkt der didaktischen Aufbereitung steht die problemorientierte Vermittlung der Inhalte, d.h. sie werden anhand konkreter Problemsituationen aus der Praxis vermittelt und gelten deshalb als besonders anschaulich und anwendungsorientiert. Bei der medialen Aufbereitung steht die Verwendung einer Kombination aus Text und Graphik/Animation im Mittelpunkt, die darauf abzielt, das Verstehen komplexer Sachverhalte zu erleichtern. Zur Überprüfung der Forschungsfrage haben Studierende raumwissenschaftlicher Studiengänge der Universität Potsdam das Lernangebot ausprobiert und anhand eines Fragebogens verschiedene Aspekte bewertet. Themenschwerpunkt dieser Evaluation waren die Akzeptanz, die Bedienbarkeit, die didak-tische und mediale Aufbereitung der Inhalte, die Auswahl und Verständlichkeit der Inhalte sowie die Praxistauglichkeit. Ein Großteil der Befragten hat dem Lernangebot einen Mehrwert gegenüber konventionellen Bildungsangeboten bescheinigt. Als Aspekte dieses Mehrwertes haben sich vor allem die Praxisnähe, die Unabhängigkeit von Zeit und Ort bei der Nutzung und die Vermittlung der Inhalte auf der Grundlage einer Kombination aus Text und interaktiven Animationen herauskristallisiert.
The scope of this study is to investigate the environmental change in the German part of the Elbe river basin, whereby the focus is on two water related problems: having too little water and having water of poor quality. The Elbe region is representative of humid to semi-humid landscapes in central Europe, where water availability during the summer season is the limiting factor for plant growth and crop yields, especially in the loess areas, where the annual precipitation is lower than 500 mm. It is most likely that water quantity problems will accelerate in future, because both the observed and the projected climate trend show an increase in temperature and a decrease in annual precipitation, especially in the summer. Another problem is nutrient pollution of rivers and lakes. In the early 1990s, the Elbe was one of the most heavily polluted rivers in Europe. Even though nutrient emissions from point sources have notably decreased in the basin due to reduction of industrial sources and introduction of new and improved sewage treatment facilities, the diffuse sources of pollution are still not sufficiently controlled. The investigations have been done using the eco-hydrological model SWIM (Soil and Water Integrated Model), which has been embedded in a model framework of climate and agro-economic models. A global scenario of climate and agro-economic change has been regionalized to generate transient climate forcing data and land use boundary conditions for the model. The model was used to transform the climate and land use changes into altered evapotranspiration, groundwater recharge, crop yields and river discharge, and to investigate the development of water quality in the river basin. Particular emphasis was given to assessing the significance of the impacts on the hydrology, taking into account in the analysis the inherent uncertainty of the regional climate change as well as the uncertainty in the results of the model. The average trend of the regional climate change scenario indicates a decrease in mean annual precipitation up to 2055 of about 1.5 %, but with high uncertainty (covering the range from -15.3 % to +14.8 %), and a less uncertain increase in temperature of approximately 1.4 K. The relatively small change in precipitation in conjunction with the change in temperature leads to severe impacts on groundwater recharge and river flow. Increasing temperature induces longer vegetation periods, and the seasonality of the flow regime changes towards longer low flow spells in summer. As a results the water availability will decrease on average of the scenario simulations by approximately 15 %. The increase in temperatures will improve the growth conditions for temperature limited crops like maize. The uncertainty of the climate trend is particularly high in regions where the change is the highest. The simulation results for the Nuthe subbasin of the Elbe indicate that retention processes in groundwater, wetlands and riparian zones have a high potential to reduce the nitrate concentrations of rivers and lakes in the basin, because they are located at the interface between catchment area and surface water bodies, where they are controlling the diffuse nutrient inputs. The relatively high retention of nitrate in the Nuthe basin is due to the long residence time of water in the subsurface (about 40 years), with good conditions for denitrification, and due to nitrate retention and plant uptake in wetlands and riparian zones. The concluding result of the study is that the natural environment and communities in parts of Central Europe will have considerably lower water resources under scenario conditions. The water quality will improve, but due to the long residence time of water and nutrients in the subsurface, this improvement will be slower in areas where the conditions for nutrient turn-over in the subsurface are poor.
Arabidopsis thaliana trichomes exhibit strong birefringence under polarized light, a characteristic of cell walls containing large amounts of highly ordered cellulose microfibrils. The tbr1 mutant of Arabidopsis lacks trichome birefringence and is deficient in secondary cell wall cellulose synthesis (Potikha and Delmer, 1995). The TBR gene was identified by recombinational mapping, candidate gene sequencing and molecular complementation using genomic cosmid clones, as well as a p35S:TBR genomic DNA construct, fully rescuing the mutant phenotype in both cases. The only mutant allele available (tbr-1) carries a substitution (G to E) in a conserved aminoacid domain of the protein. TBR gene structure was proved to have a longer size than the one found to be annotated at the time of identification in the data-base. A full cDNA clone containing the full transcript was available and also complementation experiments using different gene fragments (annotated and suggested) leaded to the result that TBR gene is indeed, longer. TBR encodes a novel plant-specific protein with predicted plasma membrane localization, therefore being consistent with idea that is required for-, or is a novel component of a functional cellulose synthase complex. TBR is part of an Arabidopsis gene/protein family, (TBL-trichome birefringence like) which, depending on homology, comprises up to 20 members, none of which has a biological or biochemical function attributed. T-DNA insertion lines in TBR gene and two close homologues have been screened by PCR, but no homozygous were found and no trichomes phenotype was identified. Promoter-GUS lines were produced for TBR, as well as for its two closest homologues (one being a segmentally duplicated gene on chromosome III), using 1.6-2 kb of promoter sequence upstream of the annotated start codons. The TBR promoter was the only one of the three that yielded trichome expression, this probably explaining the phenotype of the TBR mutant. Moreover, TBR is expressed in leaves, in growing lateral roots, and in vascular tissues of young Arabidopsis seedlings and plantlets. Later on, the expression appears in inflorescens, stems, flowers and green siliques. This expression pattern is largely overlapping with those of the two analyzed homologues and it corresponds with data of RT-PCR expression profiling performed for TBR and the two analyzed homologues in different tissues, at different developmental stages. Biochemical analysis of cell wall (leaves and trichomes), as GC and MALDI-TOF, were performed, but revealed no major differences between tbr1 and wild type plants. Scanning electron microscopy analysis and cell wall polysaccharides antibody labeling showed a clear difference in the trichomes cell wall structure between mutant plant and wild type.
Immobilisierung bzw. Mobilisierung und Transport von Schadstoffen in der Umwelt, besonders in den Kompartimenten Boden und Wasser, sind von fundamentaler Bedeutung für unser (Über)Leben auf der Erde. Einer der Hauptreaktionspartner für organische und anorganische Schadstoffe (Xenobiotika) in der Umwelt sind Huminstoffe (HS). HS sind Abbauprodukte pflanzlichen und tierischen Gewebes, die durch eine Kombination von chemischen und biologischen Ab- und Umbauprozessen entstehen. Bedingt durch ihre Genese stellen HS außerordentlich heterogene Stoffsysteme dar, die eine Palette von verschiedenartigen Wechselwirkungen mit Schadstoffen zeigen. Die Untersuchung der fundamentalen Wechselwirkungsmechanismen stellt ebenso wie deren quantitative Beschreibung höchste Anforderungen an die Untersuchungsmethoden. Zur qualitativen und quantitativen Charakterisierung der Wechselwirkungen zwischen HS und Xenobiotika werden demnach analytische Methoden benötigt, die bei der Untersuchung von extrem heterogenen Systemen aussagekräftige Daten zu liefern vermögen. Besonders spektroskopische Verfahren, wie z.B. lumineszenz-basierte Verfahren, besitzen neben der hervorragenden Selektivität und Sensitivität, auch eine Multidimensionalität (bei der Lumineszenz sind es die Beobachtungsgrößen Intensität IF, Anregungswellenlänge lex, Emissionswellenlänge lem und Fluoreszenzabklingzeit tF), die es gestattet, auch heterogene Systeme wie HS direkt zu untersuchen. Zur Charakterisierung können sowohl die intrinsischen Fluoreszenzeigenschaften der HS als auch die von speziell eingeführten Lumineszenzsonden verwendet werden. In beiden Fällen werden die zu Grunde liegenden fundamentalen Konzepte der Wechselwirkungen von HS mit Xenobiotika untersucht und charakterisiert. Für die intrinsische Fluoreszenz der HS konnte gezeigt werden, dass neben molekularen Strukturen besonders die Verknüpfung der Fluorophore im Gesamt-HS-Molekül von Bedeutung ist. Konformative Freiheit und die Nachbarschaft zu als Energieakzeptor fungierenden HS-eigenen Gruppen sind wichtige Komponenten für die Charakteristik der HS-Fluoreszenz. Die Löschung der intrinsischen Fluoreszenz durch Metallkomplexierung ist demnach auch das Resultat der veränderten konformativen Freiheit der HS durch die gebundenen Metallionen. Es zeigte sich, dass abhängig vom Metallion sowohl Löschung als auch Verstärkung der intrinsischen HS-Fluoreszenz beobachtet werden kann. Als extrinsische Lumineszenzsonden mit wohl-charakterisierten photophysikalischen Eigenschaften wurden polyzyklische aromatische Kohlenwasserstoffe und Lanthanoid-Ionen eingesetzt. Durch Untersuchungen bei sehr niedrigen Temperaturen (10 K) konnte erstmals die Mikroumgebung von an HS gebundenen hydrophoben Xenobiotika untersucht werden. Im Vergleich mit Raumtemperaturexperimenten konnte gezeigt werden, dass hydrophobe Xenobiotika an HS-gebunden in einer Mikroumgebung, die in ihrer Polarität analog zu kurzkettigen Alkoholen ist, vorliegen. Für den Fall der Metallkomplexierung wurden Energietransferprozesse zwischen HS und Lanthanoidionen bzw. zwischen verschiedenen, gebundenen Lanthanoidionen untersucht. Basierend auf diesen Messungen können Aussagen über die beteiligten elektronischen Zustände der HS einerseits und Entfernungen von Metallbindungsstellen in HS selbst angeben werden. Es ist dabei zu beachten, dass die Experimente in Lösung bei realen Konzentrationen durchgeführt wurden. Aus Messung der Energietransferraten können direkte Aussagen über Konformationsänderungen bzw. Aggregationsprozesse von HS abgeleitet werden.
Polymere sind zweifelsohne der Werkstoff in unserer Zeit. Ein bedeutender Anteil der heute industriell produzierten Polymere wird durch Emulsionspolymerisation hergestellt. Obwohl die Emulsionspolymerisation breite Anwendung findet, sind die involvierten Mechanismen von Teilchenbildung und -wachstum noch heute Gegenstand heftiger Kontroversen. Ein Spezialfall der Emulsionspolymerisation ist die emulgatorfreie Emulsionspolymerisation. Hierbei handelt es sich um ein scheinbar einfacheres System der Emulsionspolymerisation, weil diese Methode ohne Zusatz von Emulgatoren auskommt. Die Teilchenbildung ist ein fundamentaler Vorgang im Verlauf der Emulsionspolymerisation, da sie zur Ausbildung der polymeren Latexphase führt. Detaillierte Kenntnisse zum Mechanismus der Nukleierung ermöglichen eine bessere Kontrolle des Reaktionsverlaufes und damit der Eigenschaften des Endproduktes der Emulsionspolymerisation, dem Polymer-Latex. Wie bereits vorangegangene Arbeiten auf dem Gebiet der emulgatorfreien Emulsionspolymerisation von Styrol sowie Methylmethacrylat und Vinylacetat zeigen konnten, verläuft die Teilchenbildung in diesen Systemen über den Mechanismus der aggregativen Nukleierung. Im Zusammenhang mit den Ergebnissen der genannten Arbeiten tauchte dabei immer wieder ein interessanter Effekt im Bereich der Partikelnukleierung auf. Dieses als JUMBO-Effekt bezeichnete Phänomen zeigte sich reproduzierbar in einem Anstieg der Transmission im Bereich der Teilchenbildung von emulgatorfreien Emulsionspolymerisationen von Styrol, MMA und VAc. Nach der Initiierung der Polymerisation in einer wässrigen Monomerlösung durch Kaliumperoxodisulfat steigt die Durchlässigkeit bei 546 nm auf über 100 % an. Für diese „Abnahme der optischen Dichte“ wurden verschiedene Erklärungsmöglichkeiten vorgeschlagen, jedoch blieb ein Nachweis der Ursache für den JUMBO-Effekt bisher aus. Dieser Mangel an Aufklärung eines offenbar grundlegenden Phänomens in der emulgatorfreien Emulsionspolymerisation bildet den „Nukleus“ für die vorlie¬gende Arbeit. Durch die vorliegende Dissertation konnte das Verständnis für Phänomene der Teilchenbildung in der emulgatorfreien Emulsionspolymerisation von Styrol mit KPS erweitert werden. In diesem Rahmen wurde das Online-Monitoring des Polymerisationsvorganges verbessert und um verschiedene Methoden erweitert: Zur simultanen Erfassung von Trübungsdaten bei verschiedenen Wellenlängen konnte ein modernes Spektrometer in Kombination mit einer Lichtleitersonde in die Reaktionsapparatur integriert werden. Es wurde ein verbesserter Algorithmus zur Datenbearbeitung für die Partikelgrößenbestimmung mittels faseroptischer dynamischer Lichtstreuung entwickelt. Es wurden Online-Partikelgrößenanalysen mittels statischer Vielwinkellichtstreuung bei Polymerisationen direkt in entsprechenden Lichtstreuküvetten durchgeführt. Diese zur Beschreibung des untersuchten Systems eingeführten Methoden sowie ein zeitlich vollständiges Monitoring des gesamten Polymerisationsverlaufes, beginnend mit der Zugabe von Monomer zu Wasser, führten zu neuen Erkenntnissen zur emulgatorfreien Emulsionspolymerisation. Es wurden große Monomeraggregate, die sog. Nanotröpfchen, in wässriger Lösung (emulgatorfrei) nachgewiesen. Diese Aggregate bilden sich spontan und treten verstärkt in entgastem Wasser auf. Die Existenz von Nanotröpfchen in Verbindung mit Trübungs- und gaschromatografischen Messungen lässt auf eine molekular gelöste „Wirkkonzentration“ von Styrol in Wasser schließen, die bedeutend geringer ist als die absolute Sättigungskonzentration. Es konnten Hinweise auf eine Reaktion höherer Ordnung im System Wasser/Styrol/KPS gefunden werden. Es konnte gezeigt werden, dass eine präzise Einstellung der Nukleierungsdauer über die Zeit der Equilibrierung von Wasser mit Styrol möglich ist. Der JUMBO-Effekt, dem in dieser Arbeit ein besonderes Interesse galt, konnte in gewisser Weise entmystifiziert werden. Es konnte gezeigt werden, dass die Durchlässigkeit der Reaktionsmischung bereits beim Lösen von Styrol in Wasser durch Bildung von Styrolaggregaten abnimmt. Der darauf folgende kurzzeitige Transmissionsanstieg im Zusammenhang mit der Nukleierung erreicht dabei nicht mehr 100 % des Referenzwertes von reinem Wasser. Alle experimentellen Daten sprechen für die Nanotröpfchen als Ursache des JUMBO-Effekts. Wie die Ergebnisse dieser Arbeit zeigen, ist selbst das relativ „einfache“ System der emulgatorfreien Emulsionspolymerisation komplizierter als angenommen. Die Existenz von großen Styrolaggregaten in wässriger Lösung erfordert eine neue Betrachtungsweise des Reaktionssystems, in die auch der Lösungszustand des Monomers mit einbezogen werden muss.
Die Tailspike Proteine (TSP) der Bakteriophagen P22, Sf6 und HK620 dienen der Erkennung von Kohlenhydratstrukturen auf ihren gram-negativen Wirtsbakterien und zeigen, von den ersten 110 Aminosäuren des N-Terminus abgesehen, keine Sequenzübereinstimmung. Mit Röntgenkristallstrukturanalyse konnte gezeigt werden, dass HK620TSP und Sf6TSP ebenfalls zu einer parallelen, rechtsgängigen beta-Helix falten, wie dies schon für P22TSP bekannt war. Die Kohlenhydratbindestelle ist bei Sf6TSP im Vergleich zu P22TSP zwischen die Untereinheiten verschoben.
Das Borna Disease Virus (BDV, Bornavirus) besitzt ein einzelsträngiges RNA-Genom negativer Polarität und ist innerhalb der Ordnung Mononegavirales der Prototyp einer eigenen Virusfamilie, die der Bornaviridae. Eine außergewöhnliche Eigenschaft des Virus ist seine nukleäre Transkription und Replikation, eine weitere besteht in seiner Fähigkeit, als neurotropes Virus sowohl in vivo als auch in vitro persistente Infektionen zu etablieren. Die zugrunde liegenden Mechanismen sowohl der Replikation als auch der Persistenz sind derzeit noch unzureichend verstanden, auch deshalb, weil das Virus noch relativ „jung“ ist: Erste komplette Sequenzen des RNA-Genoms wurden 1994 publiziert und erst vor einigen Monaten gelang die Generierung rekombinanter Viren auf der Basis klonierter cDNA. Im Mittelpunkt dieser Arbeit standen das p10 Protein und das Phosphoprotein (P), die von der gemeinsamen Transkriptionseinheit II in überlappenden Leserahmen kodiert werden. Als im Kern der Wirtszelle replizierendes Virus ist das Bornavirus auf zelluläre Importmechanismen angewiesen, um den Kernimport aller an der Replikation beteiligten viralen Proteine zu gewährleisten. Das p10 Protein ist ein negativer Regulator der viralen RNA-abhängigen RNA-Polymerase (L). In vitro Importexperimente zeigten, dass p10 über den klassischen Importin alpha/beta abhängigen Kernimportweg in den Nukleus transportiert wird. Dies war unerwartet, da p10 kein vorhersagbares klassisches Kernlokalisierungssignal (NLS) besitzt und weist darauf hin, dass der zelluläre Importapparat offensichtlich flexibler ist als allgemein angenommen. Die ersten 20 N-terminalen AS vermitteln sowohl Kernimport als auch die Bindung an den Importrezeptor Importin alpha. Durch Di-Alanin-Austauschmutagenese wurden die für diesen Transportprozess essentiellen AS identifiziert und die Bedeutung hydrophober und polarer AS-Reste demonstriert. Die Fähigkeit des Bornavirus, persistente Infektionen zu etablieren, wirft die Frage auf, wie das Virus die zellulären antiviralen Abwehrmechanismen, insbesondere das Typ I Interferon (IFN)-System, unterwandert. Das virale P Protein wurde in dieser Arbeit als potenter Antagonist der IFN-Induktion charakterisiert. Es verhindert die Phosphorylierung des zentralen Transkriptionsfaktors IRF3 durch die zelluläre Kinase TBK1 und somit dessen Aktivierung. Der Befund, dass P mit TBK1 Komplexe bildet und zudem auch als Substrat für die zelluläre Kinase fungiert, erlaubt es, erstmalig einen Mechanismus zu postulieren, in dem ein virales Protein (BDV-P) als putatives TBK1-Pseudosubstrat die IRF3-Aktivierung kompetitiv hemmt.
In recent years, the aim of supramolecular syntheses is not only the creation of particular structures but also the introduction of specific functions in these supramolecules. The present work describes the use of the ionic self-assembly (ISA) route to generate nanostructured materials with integrated functionality. Since the ISA strategy has proved to be a facile method for the production of liquid-crystalline materials, we investigated the phase behaviour, physical properties and function of a variety of ISA materials comprising a perylene derivative as the employed oligoelectrolyte. Functionality was introduced into the materials through the use of functional surfactants. In order to meet the requirements to produce functional ISA materials through the use of functional surfactants, we designed and synthesized pyrrole-derived monomers as surfactant building blocks. Owing to the presence of the pyrrole moiety, these surfactants are not only polymerizable but are also potentially conductive when polymerized. We adopted single-tailed and double-tailed N-substituted pyrrole monomers as target molecules. Since routine characterization analysis of the double-tailed pyrrole-containing surfactant indicated very interesting, complex phase behaviour, a comprehensive investigation of its interfacial properties and mesophase behavior was conducted. The synthesized pyrrole-derived surfactants were then employed in the synthesis of ISA complexes. The self-assembled materials were characterized and subsequently polymerized by both chemical and electrochemical methods. The changes in the structure and properties of the materials caused by the in-situ polymerization were addressed. In the second part of this work, the motif investigated was a property rather than a function. Since chiral superstructures have obtained much attention during the last few years, we investigated the possibility of chiral ISA materials through the use of chiral surfactants. Thus, the work involved synthesis of novel chiral surfactants and their incorporation in ISA materials with the aim of obtaining ionically self-assembled chiral superstructures. The results and insights presented here suggest that the presented synthesis strategy can be easily extended to incorporate any kind of charged tectonic unit with desired optical, electrical, or magnetic properties into supramolecular assemblies for practical applications.
The major aim of this work was the identification of new phloem sap proteins and a metabolic characterisation of this transport fluid. The experiments were performed on the three plant species C. sativus, C. maxima and B. napus. To characterise the phloem samples from B. napus, a new model plant for phloem analysis, western blot tests together with metabolite profiling were performed. GC-MS metabolite profiling and enzyme assays were used for measuring metabolites in the phloem of B. napus. Results from the phloem sap measurements showed, as expected, a typical sugar distribution for apoplasmic phloem loaders with sucrose being the predominant sugar. In stem extracts, the most abundant sugar was glucose with much lower fructose and sucrose levels. With the GC-MS approach it was possible to identify a number of metabolites which showed a differential distribution when phloem and stem tissue extracts were compared. For protein identification, two different approaches were employed (i) screening expression libraries with total phloem protein specific antisera and (ii) protein separation on 2 DE gels followed by ESI-MS/MS sequence analyses. For the first approach, three different phloem protein-specific antisera were produced and expression libraries were constructed. Phloem protein antisera were tested for specificity and some attempts to estimate specific epitopes were undertaken. Screening of the libraries resulted in the identification of 14 different proteins from all investigated species. Analyses of B. napus phloem sap proteins from 2 DE with ESI-MS/MS resulted in the identification of 5 different proteins. The phloem localisation of the identified proteins was additionally confirmed by western blot tests using specific antibodies. In order to functionally characterise some selected phloem proteins from B. napus, the group of potential calcium-binding polypeptides was analysed for functional Ca<sup>+2 binding properties and several Ca<sup>+2–binding proteins could be isolated. However, their sequences could as yet not be determined. Another approach used for functional protein characterisation was the analysis of Arabidopsis T-DNA insertion mutants. Four available mutants with insertions in phloem protein-specific genes were chosen from the SALK and GABI-Kat collections and selected homozygous lines were tested for the presence of the investigated proteins. In order to verify if the product of one of the mutated gene (GRP 7) is transported through the phloem, grafting experiments were performed followed by western blot analyses. Although the employed antiserum against GRP 7 protein did not allow distinguishing between the mutant and the wild type plants, successful Arabidopsis grafting could be established as a promising method for further studies on protein translocation through the phloem.
Die Honigbiene Apis mellifera gilt seit langem als Modell-Organismus zur Untersuchung von Lern- und Gedächtnisvorgängen sowie zum Studium des Sozialverhaltens und der Arbeitsteilung. Bei der Steuerung und Regulation dieser Verhaltensweisen spielt das Indolalkylamin Serotonin eine wesentliche Rolle. Serotonin entfaltet seine Wirkung durch die Bindung an G-Protein-gekoppelte Rezeptoren (GPCRs). In der vorliegenden Arbeit wird der erste Serotonin-Rezeptor aus der Honigbiene molekular charakterisiert. Durch die Anwendung zwei verschiedener Klonierungsstrategien konnten drei cDNA-Sequenzen isoliert werden, die für potentielle Serotonin-Rezeptoren kodieren. Die Sequenzen weisen die größte Ähnlichkeit zu dem 5-HT7- und 5-HT2-Rezeptor von Drosophila melanogaster bzw. dem 5-HT1-Rezeptor von Panulirus interruptus auf. Die isolierten Serotonin-Rezeptoren der Honigbiene wurden dementsprechend Am(Apis mellifera)5-HT1, Am5-HT2 und Am5-HT7 benannt. Das Hydropathieprofil des Am5-HT1-, Am5-HT2- und Am5-HT7-Rezeptors deutet auf das Vorhandensein des charakteristischen heptahelikalen Aufbaus G-Protein-gekoppelter Rezeptoren hin. Die abgeleiteten Aminosäuresequenzen zeigen typische Merkmale biogener Amin-Rezeptoren. Aminosäuren, die eine Bedeutung bei der Bildung der Liganden-Bindungstasche, der Rezeptor-Aktivierung und der Kopplung eines G-Proteins an den Rezeptor haben, sind in allen drei Rezeptoren konserviert. Interessanterweise ist jedoch das in den meisten biogenen Amin-Rezeptoren vorhandene DRY-Motiv in dem Am5-HT2- und Am5-HT7-Rezeptor nicht konserviert. Das Vorhandensein einer PDZ-Domäne in dem Am5-HT1- und Am5-HT7-Rezeptor lässt vermuten, dass diese Rezeptoren als Adapterproteine fungieren, die Signalmoleküle zu einem Signaltransduktionskomplex vereinigen. RT-PCR-Experimente zeigen die Expression der Rezeptoren in verschiedenen Geweben der Honigbiene. Auffallend ist die hohe Expression im Zentralgehirn. Des Weiteren konnte die Expression der Serotonin-Rezeptoren in den optischen Loben, Antennalloben sowie in der Peripherie, d.h. in der Flugmuskulatur und den Malpighischen Gefäßen nachgewiesen werden. Durch in situ Hybridisierungen wurde die Expression in Gefrierschnitten von Gehirnen adulter Sammlerinnen im Detail untersucht. Transkripte der Rezeptoren sind in den Somata von intrinsischen Pilzkörperzellen, Neuronen der optischen Loben und Neuronen der Antennalloben vorhanden. In einem heterologen Expressionssystem wurde der intrazelluläre Signalweg des Am5-HT7-Rezeptors untersucht. Die Aktivierung des stabil exprimierten Rezeptors durch Serotonin führt zur Bildung von cAMP. Der 5-HT7-Rezeptor spezifische Agonist 5-CT zeigt eine mit Serotonin vergleichbare Fähigkeit, die intrazelluläre cAMP-Konzentration zu erhöhen. Am5-HT7 gehört daher funktionell zu der Gruppe der 5-HT7-Rezeptoren. Der EC50-Wert von 1,06~nM (5-HT), ist im Vergleich zu anderen 5-HT7-Rezeptoren äußert niedrig. Des Weiteren wurde gezeigt, dass das basale cAMP-Niveau in den transfizierten Zellen im Vergleich zu nicht transfizierten Zellen deutlich erhöht ist. Das heißt, dass der Rezeptor auch in der Abwesenheit eines Liganden aktiv ist. Diese konstitutive Aktivität ist auch von anderen biogenen Amin-Rezeptoren bekannt. Methiothepin wurde als wirksamer inverser Agonist des Am5-HT7-Rezeptors identifiziert, da es in der Lage ist, der konstitutiven Aktivität entgegenzuwirken. Die Ergebnisse der vorliegenden Arbeit deuten darauf hin, dass die Serotonin-Rezeptoren in verschiedenen Regionen des ZNS der Honigbiene an der Informationsverarbeitung beteiligt sind. Es kann eine Beeinflussung von Lern- und Gedächtnisprozessen sowie des olfaktorischen und visuellen Systems durch diese Rezeptoren vermutet werden. Mit der Klonierung und funktionellen Charakterisierung des ersten Serotonin-Rezeptors der Honigbiene ist eine Grundlage für die Untersuchung der molekularen Mechanismen der serotonergen Signaltransduktion geschaffen worden.
Der Adhäsionsprozess an Cellulosefasern sollte bis hin zur molekularen Ebene aufgeklärt werden. Zuerst wurde eine definierte Celluloseoberfläche durch Aufschleudern hergestellt und eingehend charakterisiert wurde. Die Beschaffenheit der Oberfläche ist stark abhängig von der Konzentration Celluloselösung, die für das Aufschleudern benutzt wurde. Für geringe Konzentrationen bildete sich ein Netzwerk von Cellulosefibrillen über die Siliziumoberfläche aus. In einem mittleren Bereich wurden geschlossene Filme mit Dicken zwischen 1,5 und ca. 10 nm erhalten. Diese Filme wiesen eine Rauhigkeit unter 2 nm auf, was der Größe eines Cellulosemoleküls entspräche. Mit höheren Konzentrationen wurden die Filme dicker und auch rauer. Die molekular glatten Cellulosefilme wurden zur Untersuchung der Adhäsionseigenschaften zwischen Celluloseoberflächen und ihrer Modifikation durch den Einfluss von Haftvermittlern (Polyelektrolyte) eingesetzt. Dafür wurde das Haftungsvermögen von Celluloseperlen auf der glatten Celluloseoberfläche analysiert. Die Adhäsion der Celluloseperlen hängt dabei von der Menge und von der Art des adsorbierten Polyelektrolyts ab. Geringe Polyelektrolytkonzentrationen ermöglichen wegen der teilweisen Bedeckung der Celluloseoberflächen eine Verstärkung der Haftvermittlung (Adhäsion). Höhere Konzentrationen an Polyelektrolyten bedecken die Celluloseoberfläche komplett, so dass die Symmetrie der Polyelektrolytadsorption entscheidend wird. Wenn Celluloseperlen und glatte Celluloseoberfläche gleichzeitig mit Polyelektrolyten beschichtet werden verringert sich bei hohen Konzentrationen die Adhäsion erheblich. Ein hohes Maß an Adhäsion wird dagegen erreicht, wenn nur eine der beiden gegenüberliegende Celluloseoberflächen separat beschichtet und dann in Kontakt mit der anderen gebracht Oberfläche wurde. Der Einfluss einer äußeren Kraft auf die haftenden Celluloseperlen wurde untersucht, um eine Aussage über die auftretenden Adhäsionskräfte machen zu können. Dafür wurde eine spezielle Strömungszelle entwickelt, mit der die Bewegung von Celluloseperlen beobachtet werden kann. Je nach Ausrichtung der Strömungszelle bewegten sich die Celluloseperlen unterschiedlich schnell. War die Strömungszelle horizontal ausgerichtet, wirkte zusätzlich zur Adhäsionskraft noch die Gravitation auf die Oberfläche, so dass hier eine wesentlich langsamere Durchschnittsgeschwindigkeit ermittelt wurde als für die Messungen in vertikaler Ausrichtung. Die Zugabe von verschiedenen Polyelektrolyten bei den Messungen mit der Strömungszelle hatte einen erheblichen Einfluss auf die Beweglichkeit der haftenden Celluloseperlen. Bei geringen Polyelektrolytkonzentrationen wurde das Potential der einzelnen Polyelektrolyten zur effektiven Haftvermittlung durch eine signifikant geringere Durchschnittsgeschwindigkeit der rollenden Celluloseperlen sichtbar. Aus der kritischen Anfangsgeschwindigkeit der rollenden Celluloseperlen wurde die Adhäsionsarbeit errechnet, die für die Bewegung nötig ist.
Hauptanliegen der Dissertation ist es, einen Entwurf einer praktischen Ästhetik zu lancieren, der an der Schnittstelle zwischen philosophischer Ästhetik und Kunst – genauer Performancekunst - im Zeichen der Bezugsgrösse der Verletzbarkeit steht. In jüngeren Ästhetikansätzen hat sich eine Auffassung herauskristallisiert, die nicht über, sondern mit Kunst reflektiert. Die Pointe im ‚Mit’ liegt darin, dass diese Ästhetiken die Kunst nicht erklären, sie bestimmen und damit ihre Bedeutung festlegen, sondern dass diese entlang der Kunst die Brüche, Widerstände und Zäsuren zwischen Wahrnehmen und Denken markieren und diese als produktiv bewerten. Diese Lesart etabliert ein Denken, das nicht aus der Distanz auf etwas schaut (theoria), sondern ästhetisch-reflektierend (zurückwendend, auch selbstkritisch) mit der Kunst denkt. Die Disziplin der Ästhetik - als aisthesis: Lehre der sinnlichen Wahrnehmung - nimmt innerhalb der Philosophie eine besondere Stellung ein, weil sie auf ebendiese Differenz verweist und deshalb sinnliche und nicht nur logisch-argumentatorische Denkfiguren stärkt. Als eine Möglichkeit, die Kluft, das Nicht-Einholbare, die brüchige Unzulänglichkeit des begrifflich Denkenden gegenüber ästhetischer Erfahrung zu stärken, schlage ich die Bezugsgrösse der Verletzbarkeit vor. Eine solche Ästhetik besteht aus dem Kreieren verletzbarer Orte, wobei diese auf zweierlei Weisen umkreist werden: Zum einen aus der Kunstpraxis heraus anhand der ästhetischen Figur des verletzbaren Körpes, wie er sich in der zeitgenössischen Performance zeigt. Zum anderen als ein Kreieren von Begriffen im Bewusstsein ihrer Verletzbarkeit. Ausgangspunkte sind die Denkentwürfe von Gilles Deleuze und Hans Blumenberg: Die Ästhetik von Gilles Deleuze entwirft eine konkrete Überschneidungsmöglichkeit von Kunst und Philosophie, aus der sich meine These des Mit-Kunst-Denkens entwickeln lässt. Sie kann aus der Grundvoraussetzung des Deleuzeschen Denkens heraus begründet werden, die besagt, dass nicht nur die Kunst, sondern auch die Philosophie eine schöpferische Tätigkeit ist. Beide Disziplinen beruhen auf dem Prinzip der creatio continua, durch welche die Kunst Empfindungen und die Philosophie Begriffe schöpft, wobei eben genau dieser schöpferische Prozess Kunst und Philosophie in ein produktives Verhältnis zueinander treten lässt. Wie Deleuze seine Begriffsarbeit entlang künstlerischer Praxis entwickelt, wird anhand der Analyse des bis heute wenig rezipierten Textes Ein Manifest weniger in Bezug auf das Theater von Carmelo Bene analysiert. Eine ganz anderen Zugang zum Entwurf einer praktischen Ästhetik liefert Hans Blumenberg, der eine Theorie der Unbegrifflichkeit in Aussicht stellt. Im Anschluss an seine Forderung, die Metapher wieder vermehrt in die philosophische Denkpraxis zu integrieren, radikalisiert er seine Forderung, auch das Nichtanschauliche zu berücksichtigen, indem er das gänzlich Unbegriffliche an die Seite des Begrifflichen stellt. Definitorische Schwäche zeigt sich als wahrhaftige Stärke, die in der Unbegrifflichkeit ihren Zenit erreicht. Der Schiffbruch wird von mir als zentrale Metapher – gewissermassen als Metapher der Metapher – verstanden, die das Auf-Grund-Laufen des Allwissenden veranschaulicht. Im Schiffbruch wird die produktive Kollision von Theorie und Praxis deutlich. Deleuze und Blumenberg zeigen über ‚creatio continua’ und ‚Unbegrifflichkeit’ die Grenzen des Begreifens, indem sie betonen, dass sich Ästhetik nicht nur auf künstlerische Erfahrungen bezieht, sondern selber in das Gegenwärtigmachen von Erfahrungen involviert ist. Daraus folgt, dass ästhetische Reflexion nicht nur begrifflich agieren muss. Die praktische Ästhetik animiert dazu, andere darstellerische Formen (Bilder, Töne, Körper) als differente und ebenbürtige reflexive Modi anzuerkennen und sie als verletzbarmachende Formate der Sprache an die Seite zu stellen. Diese Lesart betont den gestalterischen Aspekt der Ästhetik selber. Zur Verdeutlichung dieser Kluft zwischen (Körper-)Bild und Begriff ist der von mir mitgestaltete Film Augen blickeN der Dissertation als Kapitel beigefügt. Dieser Film zeigt Performer und Performerinnen, die sich bewusst entschieden haben, ihren ‚abweichenden’ Körper auf der Bühne zu präsentieren. Das Wort Verletzbarkeit verweist auf die paradoxe Situation, etwas Brüchiges tragfähig zu machen und dadurch auch auf eine besondere Beziehungsform und auf ein existenzielles Aufeinander-Verwiesensein der Menschen. Verletzbarkeit geht alle an, und stiftet deshalb eine Gemeinsamkeit besonderer Art. In diesem Sinne sind verletzbare Orte nicht nur ästhetische, sondern auch ethische Orte, womit die politische Dimension des Vorhabens betont wird.
Die Entwicklung von Dickdarmkrebs wird durch eine Reihe von Lebens- und Essgewohnheiten sowie Umweltfaktoren begünstigt. Den letzteren beiden sind Substanzen zuzurechnen, die bei der Zubereitung der Nahrung entstehen und mit ihr aufgenommen werden. Zu diesen Verbindungen gehört das 2-Amino-1-methyl-6-phenylimidazo[4,5-b]pyridin (PhIP) aus der Substanzklasse der heterozyklischen aromatischen Amine. Es entsteht bei der Erhitzung zahlreicher proteinhaltiger Nahrungsmittel und die Zielorgane in Nagerstudien stimmen mit der Häufung von Krebsinzidenzen in westlichen Industrienationen überein. Dieser Zusammenhang konnte jedoch bis heute nicht endgültig bewiesen werden. Fütterungsversuche mit Ratten wurden mit Konzentrationen der Substanz durchgeführt, die weit über der menschlichen Exposition liegen. Durch das Verfüttern einer humanrelevanten Dosis PhIP sollte geklärt werden, ob auch geringe Konzentrationen dickdarmkrebstypische Mutationen, präneoplastische Läsionen oder Tumore induzierten. Die mit humanrelevanten Dosen gefütterten Tiere wiesen weniger Läsionen als die Hoch-Dosis-PhIP-Gruppe auf, in der allerdings keinerlei maligne Tumoren des Dickdarms auftraten. Hinweise auf dickdarmkrebstypische Mutationen fanden sich ebenfalls in beiden Gruppen, wobei hier keine Dosisabhängigkeit beobachtet werden konnte. Die Sequenzierung ergab ein deutlich von Literaturdaten abweichendes Spektrum. In Bezug auf das verwendete Tiermodell wurden erhebliche Abweichungen in der Empfindlichkeit der Tiere gegenüber der Substanz im Vergleich zu ähnlichen Studien festgestellt. Beide Fütterungsgruppen zeigten deutlich weniger Läsionen; als mögliche Gründe wurden Unterschiede in der Futterzusammensetzung und –zubereitung sowie in der Tierhaltung und –herkunft ausgemacht. Es konnte erstmalig ein Zusammenhang zwischen PhIP in niedrigen Dosen in der Nahrung und der Induktion von Entzündungen gezeigt werden. Diese waren sowohl makroskopisch als auch histologisch sichtbar, der genaue Mechanismus ihrer Entstehung ist jedoch unbekannt. Die zusammenfassende Betrachtung aller Ergebnisse lässt vermuten, dass PhIP allein über lange Zeiträume aber in geringen Dosen verabreicht nicht für die hohe Zahl an Krebserkrankungen in westlichen Industrienationen ursächlich ist.
Ziel des Projekts war die Verbesserung des Verständnisses des Flow-Phänomens. Mit einer Flow-Erhebung unter Alltagsbedingungen(ESM-Studie) und Experimenten mit Computerspielen sollten Auftretensbedingungen und Korrelate von Flow sowie der Einfluss verschiedener Person- und Situationsmerkmale geklärt werden. Die Durchführung des Projektes konnte fast vollständig wie im Projektantrag formuliert realisiert werden. <b>Flow unter Alltagsbedingungen (ESM-Studie)</b> Wie erwartet ließ sich Flow-Erleben unter Alltagsbedingungen mit der Flow-Kurzskala (FKS) ökonomisch und reliabel erfassen. Es zeigte sich, dass Flow während der Arbeitszeit stärker auftritt als in der Freizeit. Trotzdem fühlten sich die Teilnehmer in der Freizeit glücklicher als während der Arbeit (Replikation des „Paradoxons der Arbeit“ mit adäquater Methode). Dabei scheint die Zielausrichtung laufender Aktivitäten eine Schlüsselrolle zu spielen. Sie wirkt sich auf Flow förderlich aus, auf Glück/Zufriedenheit aber eher dämpfend. Da nun Arbeitsaktivitäten häufiger zielgerichtet sind als Freizeitaktivitäten, ließ sich das „Paradoxon der Arbeit“ zu einem erheblichen Teil auf die Zielausrichtung zurückführen. Die Tätigkeiten, die zu den einzelnen Messzeitpunkt von den Untersuchungsteilnehmern angegeben wurden, unterscheiden sich deutlich in dem Ausmaß, in dem bei ihrer Ausübung Flow-Erleben auftritt. Dabei sind hohe Flow-Werte sowohl bei Arbeits-, als auch bei Freizeitaktivitäten möglich. Außerdem unterscheiden sich die angegebenen Tätigkeiten darin, wie sehr Flow in ihrem Vollzug von Glücksgefühlen begleitet ist („Glückspotential“ von Flow bei verschiedenen Aktivitäten). Eine der Bedingungen für Flow-Erleben ist die optimale Beanspruchung. Sie ergibt sich aus der Passung bzw. Balance zwischen Fähigkeit und Anforderung. Flow-Erleben war dann am höchsten, wenn Anforderungen und Fähigkeiten in Balance waren. Allerdings war der Passungseffekt viel zu schwach, als dass man allein über die Passung das Vorliegen von Flow diagnostizieren sollte. Zudem wirkte sich die Passung von Fähigkeit und Anforderung in Kombination mit der Zielausrichtung verschieden stark auf das Flow-Erleben von Erfolgszuversichtlichen vs. misserfolgsängstlichen Teilnehmern aus. Mit Blick auf den Zusammenhang zwischen Personmerkmalen und Flow interessierte uns der Einfluss der Motive auf Flow. In der Gesamtstichprobe wurde Flow während der Arbeit überraschenderweise am ehesten über das Anschlussmotiv des Teilnehmers vorhergesagt. Die Varianzaufklärung ist mit 8,3% aber eher mäßig. Betrachtet man bestimmte Berufsgruppen dieser Stichprobe getrennt, so gilt dieser Befund in verstärktem Maße für die Gruppe der Sekretärinnen/ SachbearbeiterInnen (12 % Varianzaufklärung). In der Berufsgruppe der Professoren/Leitern/Wiss. Mitarbeitern war Flow dagegen sehr deutlich über das Leistungsmotiv der Teilnehmer vorhersagbar (41 % Varianzaufklärung), während das Anschlussmotiv hier keine Rolle spielt. Außerdem suchten wir eine Klärung des Einflusses der motivationalen Kompetenz, also der Übereinstimmung von impliziten Motiven und motivationalen Selbstbildern auf Flow. Flow-Effekte der motivationalen Kompetenz zeigten sich lediglich beim (erfolgszuversichtlichen) Leistungsmotiv – nicht jedoch bei anderen Motiven. Dies gilt insbesondere, wenn sich (a) die Untersuchungsteilnehmer in Leistungssituationen befinden sowie (b) zur Gruppe der Professoren, Leitern und Wissenschaftlern gehören. Glücks- und Zufriedenheitserlebnisse (PANAVA) im Alltag lassen sich über das Anschlussmotiv aber nicht über das Leistungsmotiv einer Person vorhersagen. Das Leistungsmotiv sagt dagegen die Aktivierung (PANAVA) im Alltag vorher allerdings sowohl in positiver (PA) als auch in negativer (NA) Ausprägung. <b>Flow unter experimentellen Bedingungen</b> Mit zwei modifizierten Computerspielen (Roboguard und Pacman) gelang es, das Auftreten von Flow systematisch zu beeinflussen und seine Korrelate und Folgen untersuchbar zu machen. Im Wesentlichen wurde - teils in Replikationen – folgendes gezeigt: Zwischen Flow-Erleben und Anforderung besteht gemäß Csikszentmihalyis ursprünglichem Kanalmodell ein kurvelinearer Zusammenhang. Die angepassten mittleren Anforderungen erzeugen nicht nur die höchsten Flow-Werte, sondern sind bei freier Aufgabenwahl auch am attraktivsten. Am unattraktivsten sind zu geringe Anforderungen. Auf Seiten von Personmerkmalen hat erwartungsgemäß eine „Lernziel-Orientierung“ einen leicht förderlichen Einfluss auf das Flow-Erleben in einem Computerspiel. Überraschenderweise hat aber die „Performanz-Orientierung“ einen noch stärkeren Einfluss. Flowdämpfend scheint sich allenfalls die Subskala „Anerkennungssuche“ auszuwirken. Sie korreliert auch leicht positiv mit Besorgnissen während des Spiels. Das Zeiterleben ist erwartungsgemäß auf den flowförderlichen optimalen Anforderungsstufen verkürzt. Je nach Erfassungsmodalität korreliert dieses Erleben auch mit den FKS-Werten. Erwartungsgemäß korreliert Flow-Erleben (FKS) mit der Leistung bei Pacman auf optimalem Anforderungslevel deutlich positiv. Ein erwarteter Bezugsnorm-Effekt verschiedener Rückmeldungsbedingungen auf Flow-Erleben wurde nicht festgestellt. Allerdings waren die realisierten Rückmeldungen sehr unsensibel gegenüber Leistungsschwankungen, weswegen die resultierenden Rückmeldungen unter individueller Bezugsnorm ungeplantermaßen ein (zu) stabiles Leistungsbild ergaben. Insgesamt hat sich besonders das Computerspiel Pacman für Flow-Experimente bewährt, wenn man die Probanden (a) nicht zu lange auf demselben Schwierigkeitsgrad spielen lässt und (b) eine gewisse Asymmetrie in Rechnung stellt, wonach in bedrohungsfreien Spielsituationen zu schwierige Anforderungen attraktiver und flow-induzierender sind als zu leichte Anforderungen und wenn man schließlich (c) den optimalen mittleren Anforderungsgrad an die individuelle Spielkompetenz anpasst. Diese Befundstruktur wurde mit Pacman inzwischen von einer Bielefelder Arbeitsgruppe im Wesentlichen repliziert (Schiefele, pers. Mitteilung, Oktober 2005). <hr> Die elektronische Version des Abschlussberichtes erscheint ohne den Anhang. Der Anhang ist auf Anforderung bei Prof. Dr. Rheinberg erhältlich: <a href="mailto:rheinberg@uni-potsdam.de">rheinberg@uni-potsdam.de</a>
The papers in this volume were presented at the workshop Heterogeneity in Linguistic Databases', which took place on July 9, 2004 at the University of Potsdam. The workshop was organized by project D1: Linguistic Database for Information Structure: Annotation and Retrieval', a member project of the SFB 632, a collaborative research center entitled Information Structure: the Linguistic Means for Structuring Utterances, Sentences and Texts'. The workshop brought together both developers and users of linguistic databases from a number of research projects which work on an empirical basis, all of which have to cope with different sorts of heterogeneity: primary linguistic data and annotated information may be heterogeneous, as well as the data structures representing them. The first four papers (by Wagner, Schmidt, Lüdeling, and Witt) address aspects of heterogeneous data from the point of view of database developers; the remaining three papers (by Meyer, Smith, and Teich/Fankhauser) focus on data exploitation by the users.
Der vorliegende dritte Band der Serie "Interdisciplinary Studies on Information Structure" enthält sieben Beiträge aus verschiedenen Projekten des Sonderforschungsbereiches "Informationsstruktur: Die sprachlichen Mittel der Gliederung von Äußerung, Satz und Text" (SFB 632). Der Titel "Approaches and Findings in Oral, Written and Gestural Language" reflektiert die Bandbreite der Untersuchungen zum Thema Informationsstruktur. In ihrem Artikel hinterfragt Elke Kasimir die Zuverlässigkeit des sog. Frage-Antwort-Tests zur Bestimmung des fokussierten Elementes in Sätzen. Ihr alternativer Lösungsvorschlag wird in dem Kommentar von Thomas Weskott kritisch diskutiert. Der Artikel von Paul Elbourne befasst sich mit Phänomenen der Ellipse und bietet eine neue semantische Analyse an. Spezielle morphologisch stark markierte Fokuskonstruktionen aus fünf verschiedenen afrikanischen Sprachen der Gur- und Kwa-Sprachgruppe werden von Ines Fiedler und Anne Schwarz analysiert und diachronisch interpretiert. Ebenfalls sprachhistorisch ausgerichtet ist der Artikel von Roland Hinterhölzl, Svetlana Petrova und Michael Solf, die Belege für die Interaktion von Wortstellung und Informationsstruktur bereits in der althochdeutschen Tatian-Übersetzung fanden. Anke Sennema, Ruben van de Vijver, Susanne E. Carroll und Anne Zimmer-Stahl diskutieren anhand einer Serie von Experimenten die Nutzung von Prosodie, Wortlänge und –Stellung für die semantischen Interpretation in der Erst- und Zweitsprache. Die besondere Rolle von Gestik in Verbindung mit Intonation für die Strukturierung des sprachlichen Diskurses wird von Stefanie Jannedy und Norma Mendoza-Denton hervorgehoben.
Fachdidaktik
(2005)
Inhalt: Hartmut Giest: Zentrum für Lehrerbildung der Universität Potsdam Hartmut Giest: Fachdidaktik – Eine Standortbestimmung Thorid Rabe: Lernen von Physik am Computer, Textverständlichkeit und Aktivierung der Lernenden Antje Leisner: Modellkompetenz im Physikunterricht Christian Pießnack/ Adelbert Schübel: Untersuchungen zur orthographischen Kompetenz von Abiturientinnen und Abiturienten im Land Brandenburg Wolfram Meyerhöfer: Untersuchungen zum PISA – Mathematik – Test
Im Rahmen dieser Arbeit wurde ein besseres Verständnis der Kopplung der Troposphäre und der Stratosphäre in den mittleren und polaren Breiten der Nordhemisphäre (NH) auf Monatszeitskalen erzielt, die auf die Ausbreitung von quasi-stationären Wellen zurückzuführen ist. Der Schwerpunkt lag dabei auf den dynamisch aktiven Wintermonaten, welche die grösste Variabilität aufweisen. Die troposphärische Variabilität wird zum Grossteil durch bevorzugte Zirkulationsstrukturen, den Telekonnexionsmustern, bestimmt. Mittels einer rotierten EOF-Analyse der geopotenziellen Höhe in 500 hPa wurden die wichtigsten regionalen troposphärischen Telekonnexionsmuster der Nordhemisphäre berechnet. Diese lassen sich drei grossen geografischen Regionen zuordnen; dem nordatlantisch-europäischen Raum, Eurasien und dem pazifisch-nordamerikanischen Raum. Da es sich um die stärksten troposphärischen Variabilitätsmuster handelt, wurden sie als grundlegende troposphärische Grössen herangezogen, um dynamische Zusammenhänge zwischen der troposphärischen und der stratosphärischen Zirkulation zu untersuchen. Dabei wurde anhand von instantanen und zeitverzögerten Korrelationsanalysen der troposphärischen Muster mit stratosphärischen Variablen erstmalig gezeigt, dass unterschiedliche regionale troposphärische Telekonnexionsmuster unterschiedliche Auswirkungen auf die stratosphärische Zirkulation haben. Es ergaben sich für die pazifisch-nordamerikanischen Muster signifikante instantane Korrelationen mit quasi-barotropen Musterstrukturen und für die nordatlantisch-europäischen Muster zonalsymmetrische Ringstrukturen ab 1978 mit signifikanten Korrelationswerten über tropischen und subtropischen Breiten und inversen Korrelationswerten über polaren Gebieten. Bei einer Untersuchung des Einflusses der stratosphärischen Variabilität wurde gezeigt, dass sich die stärkste Kopplung von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation bei einem in Richtung Europa verschobenen Polarwirbel ergibt, wodurch die signifikanten Korrelationen ab 1978 erklärt werden können. Eine zonal gemittelte und vor allem lokale Untersuchung der Wellenausbreitungsbedingungen während dieser stratosphärischen Situation zeigt, dass es zu schwächeren Windgeschwindigkeiten in der Stratosphäre im Bereich von Nordamerika und des westlichen Nordatlantiks kommt und sich dadurch die Wellenausbreitungsbedingungen in diesem geografischen Bereich für planetare Wellen verbessern. Durch die stärkere Wellenausbreitung kommt es zu einer stärkeren Wechselwirkung mit dem Polarjet, wobei dieser abgebremst wird. Diese Abbremsung führt zu einer Verstärkung der meridionalen Residualzirkulation. D. h., wenn es zu einer verstärkten Wellenanregung im Nordatlantik und über Europa kommt, ist die Reaktion der Residualzirkulation bei einem nach Europa verschobenem Polarwirbel besonders stark. Die quasi-barotropen Korrelationsstrukturen, die sich bei den pazifisch-nordamerikanischen Mustern zeigen, weisen aufgrund von abnehmenden Störungsamplituden mit zunehmender Höhe, keiner Westwärtsneigung und einem negativen Brechungsindex im Pazifik auf verschwindende Wellen hin, die als Lösung der Wellengleichung bei negativem Brechungsindex auftreten. Dies wird durch den Polarjet, der im Bereich des Pazifiks stets sehr weit in Richtung Norden verlagert ist, verursacht. Abschliessend wurde in dieser Arbeit untersucht, ob die gefundenen Zusammenhänge von nordatlantisch-europäischen Telekonnexionsmustern mit der stratosphärischen Zirkulation auch von einem Atmosphärenmodell wiedergegeben werden können. Dazu wurde ein transienter 40-Jahre-Klimalauf des ECHAM4.L39(DLR)/CHEM Modells mit möglichst realistischen Antrieben erstmalig auf die Kopplung der Troposphäre und der Stratosphäre analysiert. Dabei konnten sowohl die troposphärischen, als auch die stratosphärischen Variabilitätsmuster vom Modell simuliert werden. Allerdings zeigen sich in den stratosphärischen Mustern Phasenverschiebungen in den Wellenzahl-1-Strukturen und ihre Zeitreihen weisen keinen signifikanten Trend ab 1978 auf. Die Kopplung der nordatlantisch-europäischen Telekonnexionsmuster mit der stratosphärischen Zirkulation zeigt eine wesentlich schwächere Reaktion der meridionalen Residualzirkulation. Somit stellte sich heraus, dass insbesondere die stratosphärische Zirkulation im Modell starke Diskrepanzen zu den Beobachtungen zeigt, die wiederum Einfluss auf die Wellenausbreitungsbedingungen haben. Es wird damit deutlich, dass für eine richtige Wiedergabe der Wellenausbreitung und somit der Kopplung der Troposphäre und Stratosphäre die stratosphärische Zirkulation eine wichtige Rolle spielt.
Der bemerkenswerte Transformationspfad der zentralstaatlichen Verwaltung in Estland von der Sowjetbürokratie hin zum mustergültigen EU-Beitrittsland wird anhand des Landwirtschaftsministeriums beschrieben. Für dieses Gebiet gibt es im Gegensatz zu den bekannteren und gut recherchierten Aspekten der Transformation wie Demokratisierung, Wirtschaftsumbau und Außenpolitik noch keine Fallstudie. Daher wird hier die Entwicklung der staatlichen Verwaltung im Zeitverlauf anhand des Wandels der estnischen Agrarpolitik und Landwirtschaftsverwaltung nachvollzogen. Am Ende werden Schlussfolgerungen formuliert und verdeutlicht, dass viele Erkenntnisse über das eigentliche Untersuchungsland hinausgehen und ebenso für andere Transformationsländer in MOE gelten.
This study is analysing the transformation of Slovak administration in the telecommunication sector between 1989 and 2004. The dynamic telecom sector forms a good example for the transition problems of post-socialist administration with special regard to the regulation regime change. After describing briefly the role of the telecom sector within economy, the Slovak sectoral policy is analysed. The focus is layed on telecom legislation (including the regulation framework), liberalization of the telecom market and privatisation of the former state owned telecom operator. The transformation of the organizational structure of the "Slovak telecommunication administration" is analysed in particular at the level of the ministry and the regulating agency.
Adsorption layers of soluble surfactants enable and govern a variety of phenomena in surface and colloidal sciences, such as foams. The ability of a surfactant solution to form wet foam lamellae is governed by the surface dilatational rheology. Only systems having a non-vanishing imaginary part in their surface dilatational modulus, E, are able to form wet foams. The aim of this thesis is to illuminate the dissipative processes that give rise to the imaginary part of the modulus. There are two controversial models discussed in the literature. The reorientation model assumes that the surfactants adsorb in two distinct states, differing in their orientation. This model is able to describe the frequency dependence of the modulus E. However, it assumes reorientation dynamics in the millisecond time regime. In order to assess this model, we designed a SHG pump-probe experiment that addresses the orientation dynamics. Results obtained reveal that the orientation dynamics occur in the picosecond time regime, being in strong contradiction with the two states model. The second model regards the interface as an interphase. The adsorption layer consists of a topmost monolayer and an adjacent sublayer. The dissipative process is due to the molecular exchange between both layers. The assessment of this model required the design of an experiment that discriminates between the surface compositional term and the sublayer contribution. Such an experiment has been successfully designed and results on elastic and viscoelastic surfactant provided evidence for the correctness of the model. Because of its inherent surface specificity, surface SHG is a powerful analytical tool that can be used to gain information on molecular dynamics and reorganization of soluble surfactants. They are central elements of both experiments. However, they impose several structural elements of the model system. During the course of this thesis, a proper model system has been identified and characterized. The combination of several linear and nonlinear optical techniques, allowed for a detailed picture of the interfacial architecture of these surfactants.
Textbook wisdom says that competition yields lower prices and higher consumer surplus than monopoly. We show in two versions of a simple location-product differentiation model with and without endogenous choice of products that these two results have to be qualified. In both models, more than half of the reasonable parameter values lead to higher prices with duopoly than with monopoly. If the product characteristics are exogenous to the firms, consumers may even be be better off with monopoly in average.
A model of the generation of pulses of local electric fields with characteristic time scales of 1–10 minutes is considered for atmospheric conditions above fracture regions of earthquakes. In the model, it is proposed that aerosols, increased ionization velocity and upstreaming air flows occur at night-time conditions. The pulses of local electric fields cause respective pulses of infrared emissions. But infrared emissions with time scales of 1–10 minutes were not observed up to now experimentally. The authors think, that the considered non-stationary field and radiation effects might be a new-type of applicable earthquake indicators and ask to perform special earth-based and satellite observations of the night-time atmosphere in seismoactive fracture regions.
Vorwort: Immer mehr Bürgerinnen und Bürger nutzen die vielfältigen Möglichkeiten der neuen elektronischen Medien. Dabei erfreut sich insbesondere das Internet einer zunehmenden Beliebtheit und steigender Nutzerzahlen. Damit verbunden steigt auch die Zahl der Webauftritte und Internetangebote. Doch einem Teil der Internet-Community bleibt der Zugang zu vielen dieser Angebote versagt. Dies sind vor allem Menschen mit Behinderungen, aber auch Nutzer, deren verwendete Hard- und Software zur Darstellung der angebotenen Inhalte seitens der Anbieter nicht unterstützt werden. Im Wesentlichen geht es um zwei Arten von „Barrieren“ bei der Nutzung von Informationstechnik: Zum einen um technische Barrieren bei der Darstellung und zum anderen um kognitive Barrieren bezüglich des Verstehens der dargestellten Inhalte. Die Schaffung barrierefreier Informationstechnik ist deshalb ein wichtiges Kriterium bei der Ausgestaltung öffentlicher Internetauftritte und -angebote. Hierzu gibt es eine Reihe rechtlicher Regelungen, unter anderem im Behindertengleichstellungsgesetz (BGG) oder der Barrierefreien Informationstechnikverordnung (BITV), deren Umsetzung in den einzelnen Bundesländern sehr unterschiedlich geregelt ist. Auch wenn die Kommunen in manchen Bundesländern – so auch in Brandenburg – von den gesetzlichen Regelungen ausgenommen sind, ist eine Realisierung barrierefreier Internetauftritte von Kommunen wünschenswert, um allen Bürgern einen gleichwertigen Zugang zu kommunalen Interangeboten zu ermöglichen. Um vor allem die kommunale Praxis bei der Erstellung barrierefreier Internetangebote zu unterstützen, hat das Kommunalwissenschaftliche Institut (KWI) der Universität Potsdam im Dezember 2004 einen Workshop unter dem Titel „Barrierefreie Internetauftritte – Aspekte der Umsetzung des Behindertengleichstellungsgesetzes in elektronischen Medien“ veranstaltet. Ziel war es, umfassende Informationen zum Thema „Barrierefreiheit“ zu vermitteln sowie Hinweise und Lösungsmöglichkeiten für die Realisierung barrierefreier Internetauftritte zu geben. Im Mittelpunkt standen dabei folgende Fragen: Was können und sollen kommunale Internetauftritte leisten? Was bedeutet Barrierefreiheit bezüglich „elektronischer Medien“ und welche Auswirkungen ergeben sich daraus für die Gestaltung von Internetauftritten? Welche gesetzlichen Regelungen gibt es und welche Geltungsbereiche haben sie im Einzelnen? Welche technischen Lösungen kommen für die Erstellung barrierefreier Internetseiten in Betracht? Das vorliegende Arbeitsheft ist Teil der Dokumentation der Ergebnisse des Workshops. Die einzelnen Beiträge fassen die Vorträge der Referenten zusammen.
Kommunalfinanzen
(2005)
Vorwort: Die finanzielle Ausstattung der Kommunen ist ein Dauerthema. Auch gerade die aktuellen Entwicklungen machen deutlich, wie existentiell wichtig dieses Thema ist und vor allem, wie es von politischen Entscheidungen auf Bundes- und Landesebene beeinflusst wird. Im vorliegenden Arbeitsheft „Kommunalfinanzen“ finden Sie Beiträge zur derzeitigen Debatte. In einem einleitenden Aufsatz wird der verfassungsrechtliche Anspruch der Kommunen auf finanzielle Mindestausstattung diskutiert. Dieser Anspruch ist zwar im Artikel 28 Abs. 2 Satz 3 GG verankert, bedarf aber der landesgesetzlichen Konkretisierung, die in allen Bundesländern unterschiedlich gestaltet ist. Helmut Seitz verdeutlicht in seinen Ausführungen die Herausforderungen, vor denen die öffentlichen Haushalte angesichts der demographischen Veränderungen stehen. Insbesondere die Kosten der sozialen Sicherung, wie sie derzeit gestaltet sind, werden die öffentlichen Haushalte in einem Maße belasten, dass bislang kaum abschätzbar noch schwieriger berechenbar ist. Thomas Lenk und Hans-Joachim Rudolph diskutieren – vor dem Hintergrund einer notwendigen Gemeindefinanzreform – die unterschiedlichen finanziellen Ausgleichssysteme der Bundesländer. Schwerpunkt sind dabei die Ausgleichsregelungen für kommunale Schlüsselzuweisungen bei mangelnder Deckung des Finanzbedarfs. Neben verallgemeinernden Überlegungen zu allkokativer und redistributiver Funktion der Finanzausgleichssysteme steht vor allem die praktische Ausgestaltung in den Bundesländern im Mittelpunkt. Oliver Klein stellt in seinem Beitrag die aktuellen Modelle zur Reform der Gemeindefinanzen vor und unterzieht sie einer kritischen Analyse. Im Mittelpunkt der meisten Vorschläge steht die Reform der Gewerbesteuer, die die Kommunen traditionell als „ihre“ Steuer begreifen. Ob eine solche selektive Maßnahme ausreicht, um die Gemeindefinanzen zukunftssicher zu gestalten, darf allerdings bezweifelt werden.
Vorwort des Autors: Die vorliegende Studie erging aus einer empirischen Untersuchung, die im Rahmen einer Dissertation zum Thema „Wettbewerb in kommunalen Inhousebetrieben“ bei Herrn Prof. Dr. Reichard am Lehrstuhl Public Management an der Universität Potsdam durchgeführt worden ist. Die gesonderte Veröffentlichung dieser empirischen Studie durch das Kommunalwissenschaftliche Institut verfolgt das Ziel, die äußerst interessanten Ergebnisse dieser empirischen Untersuchung einer breiten kommunalen Öffentlichkeit zugänglich zu machen. Hierbei bot sich die Chance, den Ergebnissen und Schlussfolgerungen einen weit größeren Raum zu gewähren als es im Rahmen der Dissertation möglich gewesen ist. Insofern handelt es sich hier nicht um einen Auszug der Dissertation, sondern um eine ausführlichere und teilweise auch weiterführende Betrachtung empirischer Befunde zur Frage, ob die Voraussetzungen für Marktwettbewerb zwischen internen Dienstleistungsbetrieben der Kommunen und externen Anbietern bereits gegeben sind. Da für Marktwettbewerb zahlreiche Reformaspekte des Neuen Steuerungsmodells gegeben sein müssen, bedeutete dies gleichsam die Frage nach dem Stand der kommunalen Verwaltungsreform, die im Zuge der empirischen Untersuchung den 87 Großen Kreisstädten in Baden-Württemberg gestellt worden ist. Um diese empirische Fragestellung verstehen zu können, behandelt diese Studie vorab die Frage, weshalb und in welchem Rahmen Marktwettbewerb für kommunale Inhousebetriebe sinnvoll sein kann und welche Unterschiede zu bisher angewandten Wettbewerbsformen bestehen.
Hartz IV und die Kommunen
(2005)
Vorbemerkungen: Seit Januar 2005 ist das „Hartz IV Gesetz“ in Kraft und wird in den Bundesländern und Kommunen umgesetzt. Mit der Zusammenführung von Arbeitslosen-und Sozialhilfe ist es die bisher grundlegendste und größte Arbeitsmarktreform in der Bundesrepublik. Liegen bereits erste Erfahrungen der Umsetzung von Hartz IV vor, so ist es dennoch zu früh, diese Reform umfassend zu bilanzieren und zu werten. Sowohl in der Wissenschaft als auch in der politischen Praxis werden die Konzepte und Umsetzungsstrategien mit ihrem Erfolgsaussichten konträr diskutiert. In dem vorliegenden KWI-Arbeitsheft werden unterschiedliche Positionen zum Reformwerk aus wissenschaftlicher und gesellschaftspolitischer Perspektive eingefangen. In den Beiträgen von Werner Jann und Günther Schmid sowie Dagmar Ziegler werden die Hartz-Reformen am Arbeitsmarkt in ihrem grundlegenden Strukturen und Zielstellungen sowie Strategien für Brandenburg vorgestellt. Rolf Seutemann diskutiert diese Fragen aus der Sicht der Bundesagentur fürArbeit. Hartmut Bauer und Hans-Günter Henneke untersuchen in ihren Beiträgen die verfassungsrechtlichen Fragestellungen von Hartz IV. Rolf Lindemann und Annett Fritz sowie Claudia Schiefelbein stellen erste Erfahrungen bei der Umsetzung von Hartz IV durch den Landkreis Elbe-Elster (Brandenburg) und die Stadt Potsdam mit der Potsdamer Arbeitsgemeinschaft zur Grundsicherung für Arbeitssuchende (PAGA) vor. Passend zur Thematik werden Ergebnisse einer Studie der Europäischen Union zu den Beziehungen zwischen Sozialsystemen und aktiven Arbeitsmarktpolitiken wiedergegeben.
Vorwort: Im vorliegenden Heft der Studien zu Grund- und Menschenrechten wird der Vortrag dokumentiert, den Prof. Dr. Georg Lohmann von der Ottovon- Guericke-Universität Magdeburg am 12. Mai 2004 im Rahmen der neu eingerichteten Reihe „Philosophie der Grund- und Menschenrechte“ an der Universität Potsdam gehalten hat. Die Veranstaltung bot Gelegenheit, die Frage zu erörtern, ob die unterschiedlichen Menschenrechte tatsächlich gleichgestellt sind oder doch eine Hierarchisierung von Menschenrechten stattfindet. Diese Diskussion soll in diesem Heft durch den Abdruck von drei Kommentaren zum Vortrag nachvollzogen werden. Inhalt: Die Menschenrechte: unteilbar und gleichgewichtig? (Georg Lohmann) Kommentare Sinn der Menschenrechte (Stefan Gosepath) Die Menschenrechte: teilbar und ungleichgewichtig! (Arnd Pollmann) Zur Unteilbarkeit der Menschenrechte – Anmerkungen aus juristischer, insbesondere völkerrechtlicher Sicht (Claudia Mahler/Norman Weiß)
Im Zuge des Transformations- und Globalisierungsprozesses in Rumänien kommt es in den letzten 15 Jahren zu einer Annäherung an westliche Lebensmuster und parallel dazu zu einer Binnendiversifizierung der Lebensverhältnisse. Allerdings wird das Land nicht flächendeckend von den internationalen ökonomischen Verflechtungen erfasst, sondern es lässt sich eine noch stärkere regionale Ausdifferenzierung als vor der Wende von 1989 beobachten. Traditionelle und moderne Gesellschaften leben nach wie vor nebeneinander. In vielen ländlichen Räumen Rumäniens, so besonders in der wirtschaftlich eher schwachen Dobrudscha, haben sich traditionelle Lebensweisen, Besitzstrukturen, Arbeitstechniken und Bewirtschaftungsformen bis in die heutige Zeit erhalten. Im September 2004 wurden im Rahmen eines Geländekurses unter Berücksichtigung der Raum- und Minderheitenforschung sechs ausgewählte ethnische Minderheiten der Kulturlandschaft Dobrudscha, die in der wissenschaftlichen Literatur meist nur am Rande untersucht wird, während des noch laufenden Transformationsprozesses genauer betrachtet. Dabei wurde mit Hilfe von Experten- und Betroffenen-Interviews die ethnische, ökonomische, politische und kulturelle Situation in der Region dargestellt und analysiert. Karten, Tabellen und 50 Farbfotografien ergänzen den Band.
Inhalt 1 Einleitung 2 Institutionen aus ökonomischer Sicht 3 Rolle der Institutionen in der ökonomischen Theorie 4 Institutioneller Wandel 5 Besonderer Fall der Institutionenökonomie: Transformationsländer 6 Formelle und informelle Institutuionen in den Transformationsländern: ein Fall der Inkomsistenz 7 Fazit
Inhalt 1 Ausgangslage 2 Regional- und industriepolitische Maßnahmen 2.1 Begriffliche Vorbemerkungen 2.2 Wichtige Maßnahmenbereiche 2.3 Brutto- und Nettotransfers 3 Auswirkungen 4 Regional- und industriepolitische Reformalternativen 4.1 Fortführung der Solidarpakts 4.2 Sonderwirtschaftszone Ost 4.3 Förderung der Infrastruktur 5 Fazit
Inhalt 1 Einleitung 2 Die Eisenbahnreform in Großbritaninien 2.1 Zum Bedarf einer Reorganisation von British Rail 2.2 Die Phase der Liberalisierung - Die Railtrack-Ära (1994 - 2001) 2.3 Die Problematik der Infrastrukturbetreiber 3 Das derzeitige britische Eisenbahnwesen 3.1 Die Hauptakteure und deren Beziehung zueinander 3.2 Die Marktstruktur des britischen Eisenbahnverkehrs 3.3 Das Marktverhalten der marktbeherrschenden Unternehmen 4 Die Performanceentwicklung des britischen Eisenbahnsystems seit dem Beginn der Bahnreform im Jahre 1994 4.1 Beschreibung der methodischen Herangehensweise 4.2 Die Entwicklung der Outout-IIndikatoren seit Beginn der Bahnreform 4.3 Die Entwicklung der Input-Indikatoren seit Beginn der Bahnreform 4.4 Ableitung eines Kosten-Nutzen-Trends seit Beginn der Bahnreform 5 Die aktuelle Reformpläne der britischen Regierung 6 Erfolgreiche Maßnahmen und Fehler der britischen Eisenbahnreform 7 Fazit
Instability in competition
(2005)
In this paper we show that Puu (2002) does not provide a stable solution to the location game, according to his own definition of stability. If the usual two-stage game is considered, where in the first stage a location is chosen once and forever, and in the second stage prices are determined, the equilibrium proves stable for a sizeable interval of parameters, however. Even though this procedure is most common in analyzing Hotelling's location problem, it is not satisfying because it exhibits an inconsistent informational structure. The search for a better concept of stability is imperative.
This paper analyses the structural change in Russia during the transition from the planned to a market economy. With regard to the famous three sector hypothesis, broad economic sectors were formed as required by this theory. The computation of their shares at GNP at market prices using Input-Output tables, and the adjustment of results from distortions, generated as side effects of tax avoidance practices, shows results that clearly reject claims that Russia would be on the road to a post-industrial service economy. Instead, at least until 2001, a tendency of "primarisation" could be observed, that presents Russia closer to less-developed countries.
Im Norddeutschen Tiefland wurde die Ausbreitung von Gefäßpflanzen durch Rehe, Dam- und Rothirsche sowie Wildschweine untersucht. Diese Tiere transportieren zahlreiche Pflanzenarten in teilweise erheblichen Mengen über größere Distanzen, sowohl durch den Kot nach Darmpassage (Endozoochorie) als auch durch Anheftung an Fell und Schalen (Epizoochorie). Besondere Bedeutung kommt dabei Wildschweinen zu, die potenziell fast alle Pflanzenarten ausbreiten können. Bevorzugt werden im Wald wie im Offenland vorkommende Pflanzen und Arten des Offenlands ausgebreitet, während Arten mit enger Waldbindung nur in geringem Maße transportiert werden. Zoochorie durch Schalenwild bietet Erklärungsansätze sowohl für Ausbreitungsphänomene wie auch für das weitgehend fehlende Ausbreitungspotenzial vieler Pflanzenarten. Der Einfluss des Schalenwilds auf die Artenzusammensetzung und Gefäßpflanzen-Diversität in der mitteleuropäischen Kulturlandschaft sollte in seine naturschutzfachliche Neubewertung miteinbezogen werden. Die Einschränkung von Aktionsradien der Tiere durch die Zerschneidung von Lebensräumen sowie die Wildfütterung können für Ausbreitungsprozesse bisher kaum beachtete Konsequenzen haben.
In this thesis the magnetohydrodynamic jet formation and the effects of magnetic diffusion on the formation of axisymmetric protostellar jets have been investigated in three different simulation sets. The time-dependent numerical simulations have been performed, using the magnetohydrodynamic ZEUS-3D code.
Die vorliegende Festschrift wird Frau Prof. Gabrielle Saupe anlässlich ihrer Verabschiedung aus dem Institut für Geographie der Universität Potsdam gewidmet. Bewegende Räume - damit sind emotionale, materielle und strukturelle Bewegungen in einem räumlichen Kontext gemeint. Die Vieldeutigkeit des Titels impliziert die Vielfalt der wissenschaftlichen Auseinandersetzung mit dem Raum. Ein illustres Autorenkollektiv deutscher Raumwissenschaftler verdeutlicht anhand von verschiedenen zum Teil essayartigen Artikeln sein Verständnis von Raum. Die interdisziplinäre Konzeption des Heftes soll das ständige Bemühen von Frau Saupe verdeutlichen, verschiedene Perspektiven, Herangehensweisen und Fachdisziplinen zur Bewältigung der Forschungsaufgaben zusammenzuführen. Hierbei sind die wichtigsten Forschungsprojekte von Frau Saupe ebenso vertreten wie einige der von ihr betreuten Qualifikationsarbeiten. Die Beiträge reichen von der Landschafts- bzw. Geoökologie bis zum Fußball und der Musik. Sie spannen einen Bogen von der Geographie als Regionalwissenschaft zu modernen stadtsoziologischen Fragestellungen, stellen Ergebnisse neuerer Forschungsprojekte vor und widmen sich der Entwicklung von nahen und fernen Räumen aus verschiedenen Perspektiven.
Die folgenden Fragen standen im Mittelpunkt der Dissertation: Wie handeln Grundschulkinder aus, wenn sie von ihren Peers ungerecht behandelt werden? Welche unmittelbaren Wirkungen hat ihr Vorgehen? In welchem Zusammenhang steht das Vorgehen in der Konfliktsituation mit der Stellung unter den Peers? Theoretische Grundlage waren die Entwicklungsmodelle zum Aushandeln von Yeates und Selman (1989) sowie Hawley (1999). Es nahmen 213 Dritt- und Fünftklässler an der Untersuchung teil. Eine Kombination qualitativer und quantitativer Methoden wurde verwendet. In einem individuellen Interview wurde erhoben, welche Taktiken (eine Handlungseinheit) sowie welche Strategien (Abfolge von Taktiken) die Kinder in einer hypothetischen Normbruchsituation einsetzen würden. Die Kinder wurden auch gefragt, welche unmittelbaren Wirkungen sie erwarten, wenn sie die vorgeschlagene Taktik einsetzen. Die Stellung der Kinder wurde sowohl bezüglich ihres Einflusses (Peerrating) als auch bezüglich ihrer Akzeptanz (Soziometrie) unter den Klassenkameraden erhoben. Die von den Kindern genannten Taktiken wurden vier übergeordneten Kategorien zugeordnet: Verhandeln, Erzwingen, Ausweichen und Aufgeben. Nach den Erwartungen der Kinder führen sowohl Verhandlungstaktiken als auch erzwingende Taktiken in um die Hälfte der Fälle zur Durchsetzung. Erzwingende Taktiken gehen jedoch häufig mit unfreundlichen Reaktionen einher. Einfluss und Akzeptanz der Kinder waren davon abhängig, welche Kombination und Sequenz von Taktiken (Strategie) sie wählten. Beispielsweise waren Kinder einflussreich und beliebt, die eine Reihe von Verhandlungstaktiken generierten oder die zunächst Verhandlungstaktiken vorschlugen und danach erzwingende Taktiken. Kinder, die sofort Zwang einsetzen würden, hatten wenig Einfluss und wurden abgelehnt. Außerdem fanden sich Geschlechts- und Altersunterschiede hinsichtlich des Vorgehens in der hypothetischen Normbruchsituation sowie der Zusammenhänge zwischen Taktiken und Stellung unter Peers.
Die Beschäftigung mit dem Thema Change Management erfordert die Auseinandersetzung mit einem heterogenen Feld von Ansätzen und fachlichen Perspektiven. Es besteht ein Mangel an systematischen empirischen Untersuchungen zu diesem Thema. Insbesondere fehlen Arbeiten, die mehr als eine "Schule" des Change Managements berücksichtigen. Unterschiede in den situativen Anforderungen werden zudem theoretisch und empirisch oft unzureichend berücksichtigt. Die Vermutung liegt nahe, dass das Scheitern von Veränderungsprozessen häufig durch die stereotype Anwendung generalisierender Empfehlungen gängiger Ansätze verursacht wird. Um diesen Defiziten zu begegnen, sollten in dieser Arbeit Kontingenzen von situativen Anforderungen und Change Management empirisch überprüft werden. Der Untersuchung liegt eine Konzeption zugrunde, die hinsichtlich des Projekterfolgs von der idealen Passung (Kontingenz) zwischen situativer Anforderung und Change Management ausgeht und damit einhergehende prozessbezogene Einflussfaktoren berücksichtigt. Erfolg wird im Sinne der Nachhaltigkeit als Wirkungen wirtschaftlicher, organisationsbezogener und qualifikatorischer Art definiert. In drei Teilstudien wurden Beratende und betriebliche Beteiligte jeweils projektbezogen schriftlich und mündlich zu betrieblicher Ausgangslage, Veränderungsprinzipien, Wirkungen und prozessbezogenen Einflussfaktoren befragt. Die erste Teilstudie umfasst vier Fallstudien. Hier wurden insgesamt 18 Projektbeteiligte, jeweils Beratende, betriebliche Projektleitende und –mitarbeitende, befragt. Die zweite Teilstudie umfasst die schriftliche und mündliche Befragung von 31 Beratenden verschiedener Schulen des Change Managements. In der dritten Teilstudie wurden 47 betriebliche Veränderungsverantwortliche schriftlich befragt. Die Projekte der zweiten und dritten Teilstudie liessen sich in jeweils zwei statistisch abgesicherte Erfolgsgruppen einteilen, wobei sich die Erfolgsgruppen nicht systematisch auf Merkmalen der betrieblichen Ausgangslage unterscheiden. Folgendes sind die wichtigsten Ergebnisse: Bei traditionell-bürokratischen Organisationsstrukturen geht ein langfristig-kontinuierliches, graduell-anpassendes, pragmatisch-lösungsorientiertes Vorgehen, in flexiblen Strukturen dagegen ein kurzfristiges, tiefgreifendes und integrativ-konzeptuelles Vorgehen mit Projekterfolg einher.In traditionell-hierarchischen Führungsstrukturen erweist sich ein wenig humanzentriertes und wenig selbstbeurteilendes Vorgehen mit standardisierter Vorgehensmethode, in flexiblen Führungsstrukturen ein stark humanzentriertes und ausgeprägt selbstbeurteilendes Vorgehen mit angepasster Vorgehensmethode als erfolgsversprechend.Bei grossem betrieblichem Veränderungswissen erweist sich ein selbstbeurteilendes Vorgehen, bei geringem Veränderungswissen ein wenig selbstbeurteilendes Vorgehen als erfolgsversprechend.Angesichts ökonomischer Anforderungen geht ein langfristig-kontinuierliches, schnelles und rollend geplantes Vorgehen mit einem tiefgreifenden und integrativ-konzeptuellen Ansatz, unter wenig Einbezug von Fremdbeurteilungen mit positiven Wirkungen einher.Bei technologischen Anforderungen ist ein langfristig-kontinuierliches, langsames und tiefgreifendes Vorgehen mit wenig Fremdbeurteilung erfolgsversprechend.Für soziokulturelle Anforderungen erweist sich ein langsames, selbstbeurteilendes, graduell anpassendes und pragmatisch-fokussiertes Vorgehen als erfolgreich. Angesichts politisch-rechtlicher Anforderungen geht ein linear geplantes, zielfokussiertes, fachberaterisches und wenig prozessorientiertes Vorgehen mit Erfolg einher.Bei Gesamtreorganisationen als innerorganisationale Anforderungen erweist sich ein linear geplantes, fach- und prozessberaterisches sowie tiefgreifendes Vorgehen als erfolgsversprechend.Bei innerorganisationalen Anforderungen durch Führungswechsel geht ein kurzfristig-temporäres, integrativ-konzeptuelles Vorgehen mit angepasster Vorgehensmethode mit Erfolg einher. Hinsichtlich prozessbezogener Einflussfaktoren erweisen sich situationsspezifisches Beratendenhandeln, unterstützendes Führungsverhalten, grosse Akzeptanz der/des Beratenden, umfassender Einbezug der Mitarbeitenden, aktive Beteiligung und Engagement der Mitarbeitenden, Verankerung des Projekts in der Organisation und hoher wahrgenommener Nutzen der Veränderung als wichtigste unterstützende Faktoren. Widerstände aus der Belegschaft, problematisches Führungsverhalten im Veränderungsprozess, fehlende/mangelhafte neben Tagesgeschäft bereitgestellte Ressourcen, behindernde organisationale (nicht projektbezogene) Entwicklungen, Angst/Verunsicherung der Belegschaft sind die wichtigsten hemmenden Faktoren.
Nitrogen is an essential macronutrient for plants and nitrogen fertilizers are indispensable for modern agriculture. Unfortunately, we know too little about how plants regulate their use of soil nitrogen, to maximize fertilizers-N use by crops and pastures. This project took a dual approach, involving forward and reverse genetics, to identify N-regulators in plants, which may prove useful in the future to improve nitrogen-use efficiency in agriculture. To identify nitrogen-regulated transcription factor genes in Arabidopsis that may control N-use efficiency we developed a unique resource for qRT-PCR measurements on all Arabidpsis transcription factor genes. Using closely spaced, gene-specific primer pairs and SYBR® Green to monitor amplification of double-stranded DNA, transcript levels of 83% of all target genes could be measured in roots or shoots of young Arabidopsis wild-type plants. Only 4% of reactions produced non-specific PCR products, and 13% of TF transcripts were undetectable in these organs. Measurements of transcript abundance were quantitative over six orders of magnitude, with a detection limit equivalent to one transcript molecule in 1000 cells. Transcript levels for different TF genes ranged between 0.001-100 copies per cell. Real-time RT-PCR revealed 26 root-specific and 39 shoot-specific TF genes, most of which have not been identified as organ-specific previously. An enlarged and improved version of the TF qRT-PCR platform contains now primer pairs for 2256 Arabidopsis TF genes, representing 53 gene families and sub-families arrayed on six 384-well plates. Set-up of real-time PCR reactions is now fully robotized. One researcher is able to measure expression of all 2256 TF genes in a single biological sample in a just one working day. The Arabidopsis qRT-PCT platform was successfully used to identify 37 TF genes which transcriptionaly responded at the transcriptional level to N-deprivation or to nitrate per se. Most of these genes have not been characterized previously. Further selection of TF genes based on the responses of selected candidates to other macronutrients and abiotic stresses allowed to distinguish between TFs regulated (i) specifically by nitrogen (29 genes) (ii) regulated by general macronutrient or by salt and osmotic stress (6 genes), and (iii) responding to all major macronutrients and to abiotic stresses. Most of the N-regulated TF genes were also regulated by carbon. Further characterization of sixteen selected TF genes, revealed: (i) lack of transcriptional response to organic nitrogen, (ii) two major types of kinetics of induction by nitrate, (iii) specific responses for the majority of the genes to nitrate but not downstream products of nitrate assimilation. All sixteen TF genes were cloned into binary vectors for constitutive and ethanol inducible over expression, and the first generation of transgenic plants were obtained for almost all of them. Some of the plants constitutively over expressing TF genes under control of the 35S promoter revealed visible phenotypes in T1 generation. Homozygous T-DNA knock out lines were also obtained for many of the candidate TF genes. So far, one knock out line revealed a visible phenotype: retardation of flowering time. A forward genetic approach using an Arabidopsis ATNRT2.1 promoter : Luciferase reporter line, resulted in identification of eleven EMS mutant reporter lines affected in induction of ATNRT2.1 expression by nitrate. These lines could by divided in the following classes according to expression of other genes involved in primary nitrogen and carbon metabolism: (i) lines affected exclusively in nitrate transport, (ii) those affected in nitrate transport, acquisition, but also in glycolysis and oxidative pentose pathway, (iii) mutants affected moderately in nitrate transport, oxidative pentose pathway and glycolysis but not in primary nitrate assimilation. Thus, several different N-regulatory genes may have been mutated in this set of mutants. Map-based cloning has begun to identify the genes affected in these mutants.