Refine
Has Fulltext
- yes (127) (remove)
Year of publication
- 2003 (127) (remove)
Document Type
- Doctoral Thesis (44)
- Monograph/Edited Volume (26)
- Article (19)
- Postprint (13)
- Working Paper (11)
- Part of Periodical (10)
- Habilitation Thesis (2)
- Review (2)
Is part of the Bibliography
- yes (127) (remove)
Keywords
- Theologie (3)
- 1849 (2)
- Australien (2)
- Biogenic amine (2)
- Flow-Erleben (2)
- G protein-coupled receptor (2)
- Klima (2)
- climate (2)
- 'Reduced-Form' Modellierung (1)
- 'coupling sensitivity' (1)
Institute
- Institut für Biochemie und Biologie (18)
- Wirtschaftswissenschaften (17)
- Institut für Umweltwissenschaften und Geographie (15)
- MenschenRechtsZentrum (14)
- Institut für Physik und Astronomie (12)
- Extern (9)
- Department Psychologie (8)
- Institut für Geowissenschaften (5)
- Kommunalwissenschaftliches Institut (5)
- Referat für Presse- und Öffentlichkeitsarbeit (5)
- Institut für Chemie (4)
- Historisches Institut (3)
- Institut für Ernährungswissenschaft (3)
- Institut für Religionswissenschaft (3)
- Department Erziehungswissenschaft (2)
- Department Linguistik (2)
- Institut für Romanistik (2)
- Zentrum für Sprachen und Schlüsselkompetenzen (Zessko) (2)
- Department für Inklusionspädagogik (1)
- Institut für Anglistik und Amerikanistik (1)
- Institut für Germanistik (1)
- Institut für Mathematik (1)
- Sozialwissenschaften (1)
- Universitätsbibliothek (1)
- Zentrum für Lehrerbildung und Bildungsforschung (ZeLB) (1)
- Zentrum für Umweltwissenschaften (1)
- Öffentliches Recht (1)
In this thesis, I investigated the factors influencing the growth and vertical distribution of planktonic algae in extremely acidic mining lakes (pH 2-3). In the focal study site, Lake 111 (pH 2.7; Lusatia, Germany), the chrysophyte, Ochromonas sp., dominates in the upper water strata and the chlorophyte, Chlamydomonas sp., in the deeper strata, forming a pronounced deep chlorophyll maximum (DCM). Inorganic carbon (IC) limitation influenced the phototrophic growth of Chlamydomonas sp. in the upper water strata. Conversely, in deeper strata, light limited its phototrophic growth. When compared with published data for algae from neutral lakes, Chlamydomonas sp. from Lake 111 exhibited a lower maximum growth rate, an enhanced compensation point and higher dark respiration rates, suggesting higher metabolic costs due to the extreme physico-chemical conditions. The photosynthetic performance of Chlamydomonas sp. decreased in high-light-adapted cells when IC limited. In addition, the minimal phosphorus (P) cell quota was suggestive of a higher P requirement under IC limitation. Subsequently, it was shown that Chlamydomonas sp. was a mixotroph, able to enhance its growth rate by taking up dissolved organic carbon (DOC) via osmotrophy. Therefore, it could survive in deeper water strata where DOC concentrations were higher and light limited. However, neither IC limitation, P availability nor in situ DOC concentrations (bottom-up control) could fully explain the vertical distribution of Chlamydomonas sp. in Lake 111. Conversely, when a novel approach was adopted, the grazing influence of the phagotrophic phototroph, Ochromonas sp., was found to exert top-down control on its prey (Chlamydomonas sp.) reducing prey abundance in the upper water strata. This, coupled with the fact that Chlamydomonas sp. uses DOC for growth, leads to a pronounced accumulation of Chlamydomonas sp. cells at depth; an apparent DCM. Therefore, grazing appears to be the main factor influencing the vertical distribution of algae observed in Lake 111. The knowledge gained from this thesis provides information essential for predicting the effect of strategies to neutralize the acidic mining lakes on the food-web.
Bericht über die Arbeit des Menschenrechtsausschusses der Vereinten Nationen im Jahre 2002 - Teil I • Der Menschenrechtskommissar des Europarats • Türkei widersetzt sich weiterhin einem Urteil des Europäischen Gerichtshofs für Menschenrechte • Menschenrechtskammer für Bosnien-Herzegowina: Hadz Boudellaa u. a../. Bosnien-Herzegowina und die Föderation von Bosnien-Herzegowina
Stichwort: Das Übereinkommen zur Beseitigung jeder Form von rassischer Diskriminierung (CERD)
(2003)
Tagungsbericht: Mahler, Claudia ; Weiß, Norman: Konferenz „Consolidating Antracism and Minority Rights: CriticalApproaches" <2003, Berlin> / veranstaltet von der Forschergruppe Restra, dem Institut für Menschenrechte, der Abo Akademi University und dem Northern Institute for Environmental and Minority Law, der University of Lappland sowie dem Deutschen Institut für Menschenrechte und dem Finnland-Institut in Deutschland am 12., 13. Juni
In der vorliegenden Arbeit habe ich wichtige Teilmechanismen der Erregungs-Sekretionskopplung in der Speicheldrüse der Schabe Periplaneta americana (L.) untersucht. Die Speicheldrüse ist von dopaminergen und serotonergen Fasern innerviert (Baumann et al., 2002). Beide Transmitter stimulieren eine unterschiedliche Reaktion der Drüse: Dopamin (DA) stimuliert die P-Zellen der Acini und die Ausführgangzellen, während Serotonin (5-HT) die P- und C-Zellen der Acini stimuliert, nicht jedoch die Ausführgangzellen. Der Endspeichel ist nach einer DA-Stimulierung proteinfrei. Dagegen enthält er nach einer 5-HT-Stimulierung Proteine, die von den C-Zellen sezerniert werden (Just & Walz, 1996). Im ersten Teil meiner Arbeit habe ich mittels Kapillarelektrophoretischer Analyse (CE-Analyse) die Elektrolytkonzentrationen im Endspeichel untersucht sowie die Raten der Flüssigkeitssekretion gemessen. Damit wollte ich klären, welche Transporter an der Sekretion des Primärspeichels und an dessen Modifikation beteiligt sind. Ausserdem wollte ich die Rolle der transportaktiven Epithelzellen der Ausführgänge für die Modifikation des Primärspeichels untersuchen. Dafür habe ich einen Vergleich der Elektrolytkonzentrationen im DA- und 5-HT-stimulierten Endspeichel durchgeführt. Der Elektrolytgehalt des DA- und 5-HT-stimulierten Endspeichels unterscheidet sich nicht signifikant voneinander. Er ist nach beiden Stimulierungen hypoosmotisch zum verwendeten Ringer. Die Ausführgangzellen werden durch DA stimuliert und modifizieren den Primärspeichel durch eine netto-Ionenreabsorption. Meine Versuche zeigen jedoch, dass auch die während einer 5-HT-Stimulierung der Drüse unstimulierten Ausführgangzellen den Primärspeichel modifizieren. In einer nachfolgenden Versuchsreihe habe ich den Einfluss von Ouabain, einem Hemmstoff der Na+-K+-ATPase, und Bumetanid, einem Hemmstoff des NKCC, auf die Raten der Flüssigkeitssekretion sowie den Elektrolytgehalt des Endspeichels untersucht. Ich habe gefunden, dass die Aktivität der Na+-K+-ATPase wichtig für die Modifikation des DA-stimulierten Primärspeichels ist. Im Gegensatz dazu ist sie für die Modifikation des 5-HT-stimulierten Primärspeichels nicht von Bedeutung. Bezüglich der Flüssigkeitssekretion habe ich keinen Einfluss der Na+-K+-ATPase-Aktivität auf die DA-stimulierten Sekretionsraten gefunden, dagegen ist die 5-HT-stimulierte Sekretionsrate in Anwesenheit von Ouabain gesteigert. Die Aktivität des NKCC ist für beide sekretorische Prozesse, die Ionen- und die Flüssigkeitssekretion, wichtig. Eine Hemmung des NKCC bewirkt eine signifikante Verringerung der Raten der Flüssigkeitssekretion nach DA- und 5-HT-Stimulierung sowie in beiden Fällen einen signifikanten Abfall der Ionenkonzentrationen im Endspeichel. Im zweiten Teil meiner Arbeit habe ich versucht, Änderungen der intrazellulären Ionenkonzentrationen in den Acinuszellen während einer DA- oder 5-HT-Stimulierung zu messen. Diese Experimente sollten mit der Methode des "ratiometric imaging" durchgeführt werden. Messungen mit dem Ca2+-sensitiven Fluoreszenzfarbstoff Fura-2 zeigten keinen globalen Anstieg in der intrazellulären Ca2+-Konzentration der P-Zellen. Aufgrund von Problemen mit einer schlechten Beladung der Zellen, einer starken und sich während der Stimulierung ändernden Autofluoreszenz der Zellen sowie Änderungen im Zellvolumen wurden keine Messungen mit Na+- und K+-sensitiven Fluoreszenzfarbstoffen durchgeführt. Im dritten Teil dieser Arbeit habe ich die intrazellulären Signalwege untersucht, die zwischen einer 5-HT-Stimulierung der Drüse und der Proteinsekretion vermitteln. Dazu wurde der Proteingehalt im Endspeichel biochemisch mittels eines modifizierten Bradford Assay gemessen. Eine erstellte Dosis-Wirkungskurve zeigt, dass die Rate der Proteinsekretion von der zur Stimulierung verwendeten 5-HT-Konzentration abhängt. In einer Serie von Experimenten habe ich die intrazellulären Konzentrationen von Ca2+, cAMP und / oder cGMP erhöht und anschließend den Proteingehalt im Endspeichel gemessen. Ein Anstieg der intrazellulären Ca2+-Konzentration aktiviert nur eine geringe Rate der Proteinsekretion. Dagegen kann die Steigerung der intrazellulären cAMP-Konzentration eine stärkere Proteinsekretion aktivieren, die sich nicht signifikant von der nach 5-HT-Stimulierung unterscheidet. Die cAMP-stimulierte Proteinsekretion kann durch gleichzeitige Erhöhung der intrazellulären Ca2+-Konzentration weiter gesteigert werden. Dagegen aktivierte eine Erhöhung der intrazellulären cGMP-Konzentration die Proteinsekretion nicht. Aufgrund dieser Ergebnisse postuliere ich die Existenz eines die Adenylatcyclase aktivierenden 5-HT-Rezeptors in der Basolateralmembran der C-Zellen.
Late Miocene to Quaternary volcanic rocks from the frontal arc to the back-arc region of the Central Volcanic Zone in the Andes show a wide range of delta 11B values (+4 to -7 ‰) and boron concentrations (6 to 60 ppm). Positive delta 11B values of samples from the volcanic front indicate involvement of a 11B-enriched slab component, most likely derived from altered oceanic crust, despite the thick Andean continental lithosphere, and rule out a pure crust-mantle origin for these lavas. The delta 11B values and B concentrations in the lavas decrease systematically with increasing depth of the Wadati-Benioff Zone. This across-arc variation in delta 11B values and decreasing B/Nb ratios from the arc to the back-arc samples are attributed to the combined effects of B-isotope fractionation during progressive dehydration in the slab and a steady decrease in slab-fluid flux towards the back arc, coupled with a relatively constant degree of crustal contamination as indicated by similar Sr, Nd and Pb isotope ratios in all samples. Modelling of fluid-mineral B-isotope fractionation as a function of temperature fits the across-arc variation in delta 11B and we conclude that the B-isotope composition of arc volcanics is dominated by changing delta 11B composition of B-rich slab-fluids during progressive dehydration. Crustal contamination becomes more important towards the back-arc due to the decrease in slab-derived fluid flux. Because of this isotope fractionation effect, high delta 11B signatures in volcanic arcs need not necessarily reflect differences in the initial composition of the subducting slab. Three-component mixing calculations for slab-derived fluid, the mantle wedge and the continental crust based on B, Sr and Nd isotope data indicate that the slab-fluid component dominates the B composition of the fertile mantle and that the primary arc magmas were contaminated by an average addition of 15 to 30 % crustal material.
Aromatische Amine und Amide (aAA) sind aufgrund ihrer starken Verbreitung in der menschlichen Umwelt und ihres kanzerogenen Potenzials von großer toxikologischer Bedeutung. Die Kanzerogenität der aAA wird durch die Mutagenität hochreaktiver Stoffwechselprodukte vermittelt, die in zwei sequenziellen katalytischen Reaktionen entstehen. Die erste ist meistens eine N-Hydroxylierung, die oft durch Cytochrom P450 1A2 (CYP1A2) katalysiert wird. Daran schließt sich eine O-Konjugation durch Sulfotransferasen (SULT) oder N-Acetyltransferasen (NAT) an. Die Bioaktivierung ist ein kritischer Parameter für die Übertragbarkeit von Ergebnissen aus Tiermodellen auf den Menschen. Rekombinante in vitro Systeme, die fremdstoffmetabolisierende Enzyme verschiedener Spezies exprimieren, ermöglichen die vergleichende Untersuchung der Bioaktivierung im Menschen und in Versuchstieren. Ziel des Projektes war die Aufklärung der Bioaktivierung der aAA durch humane Enzyme. Im Vordergrund stand die Untersuchung der Rolle humaner SULT in diesem Prozess. Es wurden rekombinante in vitro Systeme, konstruiert, die CYP1A2 und SULT des Menschen koexprimieren. SULT-cDNAs wurden in den Säugerzell Expressionsvektor pMPSV kloniert und in Standardindikatorzellen für Mutagenitätsuntersuchungen (V79 Zellen aus dem Chinesischen Hamster) transfiziert. Das Expressionsniveau von CYP1A2 und SULT wurde mittels Immunblotanalyse und radiometrischen Aktivitätsmessungen charakterisiert. In den rekombinanten Zellen wurden vier aAA als Modellsubstanzen (2-Acetylaminofluoren, 2-Aminoanthracen, 3′-Methyl-4-dimethylaminoazobenzol, 2,4-Diaminotoluol) auf ihre Mutagenität am hprt-Locus hin untersucht.Die aAA waren in Zellen, die keine rekombinanten Enzyme oder lediglich CYP1A2 exprimierten, nicht mutagen. In Zellen, die CYP1A2 und SULT der Subfamilie 1A koexprimierten, erzeugten sie bereits in geringen Konzentrationen klare mutagene Effekte (0,3 µM für 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol; 0,1 µM für 2-Aminoanthracen; 10 µM für 2,4-Diaminotoluol). Die stärkste Aktivierung von 2-Acetylaminofluoren und 3′-Methyl-4-dimethylaminoazobenzol erfolgte in der Zelllinie, die CYP1A2 und SULT1A2 koexprimierte; die stärkste Aktivierung von 2,4-Diaminotoluol und 2-Aminoanthracen erfolgte in der Zelllinie, die CYP1A2 und SULT1A1 koexprimierte. Sowohl SULT1A1 als auch SULT1A2 sind im Menschen genetisch polymorph. Ein unterschiedlich starkes Aktivierungspotenzial der Alloenzyme könnte eine individuell unterschiedliche Suszeptibilität für die durch aAA ausgelöste Kanzerogenese bedingen. In HPRT-Mutationsuntersuchungen mit rekombinanten Zellen zeigten die allelischen Varianten der SULT1A2 starke Unterschiede in ihrem Aktivierungpotenzial. Nur in der Zelllinie, die das Alloenzym SULT1A2*1 mit CYP1A2 koexprimierte, wurde 2-Acetylaminofluoren zum Mutagen aktiviert. Zur Aktivierung von 3′-Methyl-4-dimethylaminoazobenzol waren jedoch sowohl das Alloenzym SULT1A2*1 als auch das Alloenzym SULT1A2*2 in der Lage. Die Alloenzyme der SULT1A1 zeigten ein ähnlich gutes Aktivierungspotenzial für aAA. In früheren Studien wurde gezeigt, dass die SULT1C1 der Ratte eine wichtige Rolle bei der Aktivierung der aAA in dieser Spezies spielt. Dahingegen war die humane SULT1C1 nicht in der Lage die untersuchten aAA zu aktivieren. Die Kenntnis solcher Spezieunterschiede könnte wichtig sein um unterschiedliche Organotropismen aAA in Menschen und Tiermodellen zu erklären, da SULT mit starker Gewebespezifität exprimiert werden und das Expressionsmuster für die einzelnen SULT-Formen in Menschen und Ratten sich stark unterscheidet.
Der Buchfinkengesang wurde in Potsdam in zwei Hauptpopulationen über drei Jahre aufgenommen. Jedes Individuum wurde eindeutig am individuellen Strophentypenrepertoire identifiziert. Ein weiterer Punkt der die individuelle Wiedererkennung bestätigt ist die hohe Standorttreue der adulten Männchen. Die beschriebene Methode eignet sich für die Untersuchung von gesamten Populationen, um den Wandel des Gesangs von Populationen in Raum und Zeit zu beschreiben. Die Haupterkenntnisse der Arbeit sind: - Die Gesamtanzahl der Grundstrophentypen innerhalb einer Population bleibt über Jahre konstant. - Die relative Häufigkeit jedes einzelnen Strophentyps variiert von Jahr zu Jahr und von Population zu Population. - Gesangslernen erfolgt exakt mit einem Korrektheitsgrad von mindestens 96%. - Das Song-Sharing ist innerhalb der Population hoch. Die diskutierten Mechanismen für das Song-Sharing sind: Die Lebenserwartung, das Zugverhalten, das Lernverhalten, die Etabliertheit von Strophentypen, Weibchenpräferenzen und die Reaktionen der territorialen Männchen. - Weiterhin wurde ein Modell zur kulturellen Evolution des Buchfinkengesangs programmiert, um die Rolle der Einflussfaktoren, wie Fehlerquote, Abwanderungsrate und Laufzeit zu ermitteln. Der Wandel des Dialektes erfolgt graduell in Raum und Zeit. Daher sind keine scharfen Dialektgrenzen anzutreffen. Trotz dieser Tatsache markieren die etablierten Strophentypen die Population. 50 % der Juvenilen siedeln am Geburtsort, auf diese Weise bleibt der Dialekt erhalten und Inzest wird vermieden. -Analysiert man das Repertoire benachbarten Männchen bei isolierten Alleen, so entspricht die Gesangsangleichung in etwa dem Zufall. -Intraindividuelle Vergleiche der quantitativen Parameter des jeweiligen Strophentyps wurden saisonal und annuell durchgeführt. Saisonal konnten für einen Strophentyp ein Trend ermittelt werden. Bei jährlichen Vergleichen konnten intraindividuell ausschließlich nicht signifikante Ergebnisse ermittelt werden, wohingegen die interindividuelle Variation in zwei Fällen signifikant war. In einem Fall bestand ein Trend und in einem weiteren Fall war die Variationsunterschiede nicht signifikant. - Der Verlauf der Brutsaison lässt sich an der jährlichen Gesangsaktivität nachvollziehen.
Es ist schon seit längerer Zeit bekannt, dass nach Kontakt des Biomaterials mit der biologischen Umgebung bei Implantation oder extrakorporaler Wechselwirkung zunächst Proteine aus dem umgebenden Milieu adsorbiert werden, wobei die Oberflächeneigenschaften des Materials die Zusammensetzung der Proteinschicht und die Konformation der darin enthaltenden Proteine determinieren. Die nachfolgende Wechselwirkung von Zellen mit dem Material wird deshalb i.d.R. von der Adsorbatschicht vermittelt. Der Einfluss der Oberflächen auf die Zusammensetzung und Konformation der Proteine und die nachfolgende Wechselwirkung mit Zellen ist von besonderem Interesse, da einerseits eine Aussage über die Anwendbarkeit ermöglicht wird, andererseits Erkenntnisse über diese Zusammenhänge für die Entwicklung neuer Materialien mit verbesserter Biokompatibilität genutzt werden können. In der vorliegenden Habilitationsschrift wurde deshalb der Einfluss der Zusammensetzung von Polymeren bzw. von deren Oberflächeneigenschaften auf die Adsorption von Proteinen, den Aktivitätszustand der plasmatischen Gerinnung und die Adhäsion von Zellen untersucht. Dabei wurden auch Möglichkeiten zur Beeinflussung dieser Vorgänge über eine Veränderung der Volumenzusammensetzung oder durch Oberflächenmodifikationen von Biomaterialien vorgestellt. Erkenntnisse aus diesen Arbeiten konnten für die Entwicklung von Membranen für Biohybrid-Organe genutzt werden.
In einer Längsschnittstudie mit 215 Schülern der achten Klasse wurde der Zusammenhang zwischen selbstgesteuertem Lernen, motivationalen (Zielorientierungen, Selbstwirksamkeit, schulischer Affekt) und kognitiven Variablen (Intelligenz) sowie Leistungsindikatoren (Schulleistung, Noten) erhoben. Selbstgesteuertes Lernen wurde mit Hilfe eines strukturierten Interviews (Zimmerman, 1986) und eines Lernstrategie-Fragebogens erfasst. Zum einen zeigte sich, dass die Lernstrategie-Angaben im Interview und im Fragebogen in keiner bedeutsamen Beziehung zueinander standen. Zum anderen ergaben sich deutliche Unterschiede in der Vorhersage der Leistungsindikatoren. Die per Interview erfassten Lernstrategien besaßen sowohl Vorhersagekraft bezüglich Schulnoten und Schulleistung und zeigten signifikante Zusammenhänge zu den individuellen Zielorientierungen, dem schulischen Affekt und der Selbstwirksamkeit. Darüber hinaus konnten Leistungsveränderungen von der achten zur neunten Klasse vorhergesagt werden. Der parallel eingesetzte Lernstrategie-Fragebogen leistete im Vergleich dazu keine Erklärung der Leistungsvarianz. Implikationen für die Diagnostik selbstgesteuerten Lernens werden diskutiert.
In this thesis the gravitational lensing effect is used to explore a number of cosmological topics. We determine the time delay in the gravitationally lensed quasar system HE1104-1805 using different techniques. We obtain a time delay Delta_t(A-B) Delta_t(A-B) =-310 +- 20 days (2 sigma errors) between the two components. We also study the double quasar Q0957+561 during a three years monitoring campaign. The fluctuations we find in the difference light curves are completely consistent with noise and no microlensing is needed to explain these fluctuations. Microlensing is also studied in the quadruple quasar Q2237+0305 during the GLITP collaboration (Oct.1999-Feb.2000). We use the absence of a strong microlensing signal to obtain an upper limit of v=600 km/s for the effective transverse velocity of the lens galaxy (considering microlenses with 0.1 solar masses). The distribution of dark matter in galaxy clusters is also studied in the second part of the thesis. In the cluster of galaxies Cl0024+1654 we obtain a mass-to-light ratio of M/L = 200 M_sun/L_sun (within a radius of 3 arcminutes). In the galaxy cluster RBS380 we find a relatively low X-ray luminosity for a massive cluster of L =2*10^(44) erg/s, but a rich distribution of galaxies in the optical band.
This thesis describes the development and application of the impacts module of the ICLIPS model, a global integrated assessment model of climate change. The presentation of the technical aspects of this model component is preceded by a discussion of the sociopolitical context for model-based integrated assessments, which defines important requirements for the specification of the model. Integrated assessment of climate change comprises a broad range of scientific efforts to support the decision-making about objectives and measures for climate policy, whereby many different approaches have been followed to provide policy-relevant information about climate impacts. Major challenges in this context are the large diversity of the relevant spatial and temporal scales, the multifactorial causation of many climate impacts', considerable scientific uncertainties, and the ambiguity associated with unavoidable normative evaluations. A hierarchical framework is presented for structuring climate impact assessments that reflects the evolution of their practice and of the underlying theory. Integrated assessment models of climate change (IAMs) are scientific tools that contain simplified representations of the relevant components of the coupled society-climate system. The major decision-analytical frameworks for IAMs are evaluated according to their ability to address important aspects of the pertinent social decision problem. The guardrail approach is presented as an inverse' framework for climate change decision support, which aims to identify the whole set of policy strategies that are compatible with a set of normatively specified constraints (guardrails'). This approach combines, to a certain degree, the scientific rigour and objectivity typical of predictive approaches with the ability to consider virtually all decision options that is at the core of optimization approaches. The ICLIPS model is described as the first IAM that implements the guardrail approach. The representation of climate impacts is a key concern in any IAM. A review of existing IAMs reveals large differences in the coverage of impact sectors, in the choice of the impact numeraire(s), in the consideration of non-climatic developments, including purposeful adaptation, in the handling of uncertainty, and in the inclusion of singular events. IAMs based on an inverse approach impose specific requirements to the representation of climate impacts. This representation needs to combine a level of detail and reliability that is sufficient for the specification of impact guardrails with the conciseness and efficiency that allows for an exploration of the complete domain of plausible climate protection strategies. Large-scale singular events can often be represented by dynamic reduced-form models. This approach, however, is less appropriate for regular impacts where the determination of policy-relevant results generally needs to consider the heterogeneity of climatic, environmental, and socioeconomic factors at the local or regional scale. Climate impact response functions (CIRFs) are identified as the most suitable reduced-form representation of regular climate impacts in the ICLIPS model. A CIRF depicts the aggregated response of a climate-sensitive system or sector as simulated by a spatially explicit sectoral impact model for a representative subset of plausible futures. In the CIRFs presented here, global mean temperature and atmospheric CO2 concentration are used as predictors for global and regional impacts on natural vegetation, agricultural crop production, and water availability. Application of a pattern scaling technique makes it possible to consider the regional and seasonal patterns in the climate anomalies simulated by several general circulation models while ensuring the efficiency of the dynamic model components. Efforts to provide quantitative estimates of future climate impacts generally face a trade-off between the relevance of an indicator for stakeholders and the exactness with which it can be determined. A number of non-monetary aggregated impact indicators for the CIRFs is presented, which aim to strike the balance between these two conflicting goals while taking into account additional constraints of the ICLIPS modelling framework. Various types of impact diagrams are used for the visualization of CIRFs, each of which provides a different perspective on the impact result space. The sheer number of CIRFs computed for the ICLIPS model precludes their comprehensive presentation in this thesis. Selected results referring to changes in the distribution of biomes in different biogeographical regions, in the agricultural potential of various countries, and in the water availability in selected major catchments are discussed. The full set of CIRFs is accessible via the ICLIPS Impacts Tool, a graphical user interface that provides convenient access to more than 100,000 impact diagrams developed for the ICLIPS model. The technical aspects of the software are described as well as the accompanying database of CIRFs. The most important application of CIRFs is in inverse' mode, where they are used to translate impact guardrails into simultaneous constraints for variables from the optimizing ICLIPS climate-economy model. This translation is facilitated by algorithms for the computation of reachable climate domains and for the parameterized approximation of admissible climate windows derived from CIRFs. The comprehensive set of CIRFs, together with these algorithms, enables the ICLIPS model to flexibly explore sets of climate policy strategies that explicitly comply with impact guardrails specified in biophysical units. This feature is not found in any other intertemporally optimizing IAM. A guardrail analysis with the integrated ICLIPS model is described that applies selected CIRFs for ecosystem changes. So-called necessary carbon emission corridors' are determined for a default choice of normative constraints that limit global vegetation impacts as well as regional mitigation costs, and for systematic variations of these constraints. A brief discussion of recent developments in integrated assessment modelling of climate change connects the work presented here with related efforts.
During the past several decades polymer materials become widely used as components of medical devices and implants such as hemodialysers, bioartificial organs as well as vascular and recombinant surgery. Most of the devices cannot avoid the blood contact in their use. When the polymer materials come in contact with blood they can cause different undesired host responses like thrombosis, inflammatory reactions and infections. Thus the materials must be hemocompatible in order to minimize these undesired body responses. The earliest and one of the main problems in the use of blood-contacting biomaterials is the surface induced thrombosis. The sequence of the thrombus formation on the artificial surfaces has been well established. The first event, which occurs, after exposure of biomaterials to blood, is the adsorption of blood proteins. Surface physicochemical properties of the materials as wettability greatly influence the amount and conformational changes of adsorbed proteins. In turn the type, amount and conformational state of the adsorbed protein layer determines whether platelets will adhere and become activated or not on the artificial surface and thus to complete the thrombus formation. The adsorption of fibrinogen (FNG), which is present in plasma, has been shown to be closely related to surface induced thrombosis by participating in all processes of the thrombus formation such as fibrin formation, platelet adhesion and aggregation. Therefore study the FNG adsorption to artificial surfaces could contribute to better understanding of the mechanisms of platelet adhesion and activation and thus to controlling the surface induced thrombosis. Endothelization of the polymer surfaces is one of the strategies for improving the materials hemocompatibility, which is believed to be the most ideal solution for making truly blood-compatible materials. Since at physiological conditions proteins such as FNG and fibronectin (FN) are the usual extracellular matrix (ECM) for endothelial cells (EC) adhesion, precoating of the materials with these proteins has been shown to improve EC adhesion and growth in vitro. ECM proteins play an essential role not only like a structural support for cell adhesion and spreading, but also they are important factor in transmitting signals for different cell functions. The ability of cells to remodel plasma proteins such as FNG and FN in matrix-like structures together with the classical cell parameters such as actin cytoskeleton and focal adhesion formation could be used as an criteria for proper cell functioning. The establishment and the maintaining of delicate balance between cell-cell and cell-substrate contacts is another important factor for better EC colonization of the implants. The functionality of newly established endothelium in order to produce antithromotic substances should be always considered when EC seeding is used for improving the hemocompatibility of the polymer materials. Controlling the polymer surface properties such as surface wettability represents a versatile approach to manipulate the above cellular responses and therefore can be used in biomaterial and tissue engineering applications for producing better hemocompatible materials.
Die Präeklampsie ist eine schwangerschaftsspezifische Bluthochdruck-Erkrankung, die im Allgemeinen nach der 20. Schwangerschaftswoche auftritt. Neben der Hypertonie sind die Proteinurie und die Ödembildung charakteristische Symptome der Präeklampsie. Obwohl heute die Pathophysiologie der Präeklampsie zum großen Teil verstanden ist, ist die Ätiologie dieser Erkrankung noch unklar. 1999 konnten wir in den Seren von Präeklampsie-Patientinnen agonistische Autoantikörper, die gegen den Angiotensin II AT1-Rezeptor gerichtet sind (AT1-AAK), nachweisen. Diese AT1-AAK gehören zur Antikörpersubklasse IgG3. Die AT1-AAK führen in Kulturen neonataler Rattenkardiomyozyten AT1-Rezeptor spezifisch zu einem positiv chronotropen Effekt. Mittels Immunpräzipitation wurde gezeigt, dass AT1-AAK spezifisch den AT1-Rezeptor präzipitieren. Kontrollproben, aus denen die AT1-AAK entfernt wurden, führen zu keiner Präzipitation des AT1-Rezeptors. Die Präzipitation des AT1-Rezeptors bleibt ebenfalls aus, wenn die AT1-AAK mit einem Peptid, welches der Aminosäuresequenz des zweiten extrazellulären Loops des humanen AT1-Rezeptors entspricht, behandelt wurden. Eine Langzeitbehandlung der Kulturen neonataler Rattenherzzellen mit AT1-AAK vermindert die funktionelle Ansprechbarkeit der Zellen auf einen erneuten AT1-Rezeptor-Stimulus. Eine veränderte AT1-Rezeptorexpression wurde nicht nachgewiesen. In guter Übereinstimmung mit den in vitro-Expressionsdaten wurde gezeigt, dass die plazentare AT1-Rezeptorexpression bei Präeklampsie-Patientinnen nicht verschieden von der plazentaren AT1-Rezeptorexpression gesunder Schwangerer mit nicht pathogen verändertem Blutdruck ist. Im Zellsystem der neonatalen Rattenherzzellen führen die AT1-AAK zur Aktivierung von Gi-Proteinen und zu verringerten intrazellulären cAMP-Spiegeln. Des Weiteren wurde gezeigt, dass die AT1-AAK in Kulturen neonataler Rattenherzzellen die Transkriptionsfaktoren AP-1 und NFkB aktivieren. Die Aktivierung des Transkriptionsfaktors NFkB wurde vornehmlich in den Nicht-Myozyten der Rattenherzzellkultur nachgewiesen. Generell wurde festgestellt, dass sich die AT1-AAK pharmakologisch wie der natürliche Agonist des AT1-Rezeptors, Angiotensin II, verhalten. Erste Daten dieser Arbeit deuten auf einen eventuellen Einfluss der AT1-AAK auf die Expression von Komponenten der extrazellulären Matrix bzw. assoziierter Faktoren (Kollagen III, MMP-2, TIMP-2, Colligin) hin. In allen in dieser Arbeit untersuchten Seren von klinisch diagnostizierten Präeklampsie-Patientinnen wurden agonistische AT1-AAK nachgewiesen. Wir vermuten daher, dass die AT1-AAK möglicherweise bedeutend in der Pathogenese der Präeklampsie sind.
Menschen nehmen Tausende von Stoffen als bitter wahr. Die chemische Struktur der verschiedenen Bitterstoffe ist sehr vielfältig: Sie reicht von kleinen Molekülen wie Kaliumchlorid oder Harnstoff, bis zu sehr komplexen organischen Verbindungen. Die Größe der einzigen bekannten menschlichen Familie von Bitterrezeptoren (TAS2Rs) wurde auf nur ca. 80-120 Mitglieder geschätzt. In Anbetracht der hohen Zahl und Komplexität der Bitterstoffe erscheint die Zahl von Rezeptoren als sehr gering. Dies führt natürlich zu einer Reihe von Fragen: Wie viele Mitglieder hat die menschliche TAS2R-Genfamilie? Wie viele verschiedene Substanzen können denselben Rezeptor aktivieren? Scheint die Zahl der TAS2R-Rezeptoren ausreichend, alle Bitterstoffe wahrnehmen zu können oder muss es noch andere Bitterrezeptorfamilien geben? Diese Fragen zu beantworten, ist das Ziel der vorliegenden Arbeit. Hier durchgeführte Analysen des menschlichen Genomprojektes zeigen, dass Menschen ca. 25 TAS2R-Rezeptoren besitzt, die eine sehr divergente Aminosäurestruktur aufweisen. Diese Rezeptoren wurden in eine neu entwickelte Expressionskassette kloniert, die den Transport des Rezeptors an die Zelloberfläche ermöglicht. Um Liganden für die menschliche TAS2R-Rezeptoren zu identifizieren, wurden die Rezeptoren in HEK293 Zellen exprimiert und mit verschiedenen Bitterstoffen stimuliert. Der Nachweis der Rezeptoraktivierung erfolgte durch Calcium-Imaging. Es konnte gezeigt werden, dass hTAS2R16 der menschliche Rezeptor zur Wahrnehmung von Salicin und verwandten bitteren Pyranosiden ist. So wird hTAS2R16 in HEK293 Zellen durch Salicin und chemisch verwandte Substanzen aktiviert. Ein Vergleich der in diesem Messsystem erhaltenen Daten mit psychophysikalisch ermittelten Geschmackswahrnehmungen beim Menschen, ergab eine hohe Übereinstimmung. Die Ergebnisse deuten auch darauf hin, dass die Desensitiverung einzelner Rezeptoren die Ursache für die Adaption des Bittergeschmacks ist. Der Nachweis der Expression des Rezeptors in menschlichen Geschmackspapillen, sowie die festgestellte Assoziation des G/A Polymorpphismus an Position 665 des hTAS2R16 Gens mit einer reduzierten Salicinwahrnehmung, sind weitere unabhängige Beweise für diese These. Ein anderer menschlicher Rezeptor, hTAS2R10, wird durch die Bitterstoffe Strychnin, Brucin und Denatonium aktiviert. Dies sowie die Tatsache, dass die zur Aktivierung benutzten Konzentrationen eine sinnvolle Korrelation zu dem menschlichen Geschmacksschwellwert von Strychnin zeigen, sind starke Hinweise, dass hTAS2R10 der menschliche Rezeptor zur Wahrnehmung von Strychnin und verwandten Substanzen ist. Die vorliegenden Daten zeigen eindeutig, dass die TAS2R-Rezeptoren auch beim Menschen Bitterrezeptoren darstellen. Sowohl hTAS2R16, als auch hTAS2R10 werden durch ein Spektrum strukturell sehr unterschiedlicher Bitterstoffe aktiviert. Falls die anderen Mitglieder der TAS2R-Familie ebenfalls dieses Verhalten zeigen, wäre es möglich, dass die nur ca. 25 Mitglieder umfassende TAS2R-Rezeptorfamilie des Menschen tatsächlich zur Wahrnehmung aller Bitterstoffe ausreicht.
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
Im Landschaftszustand und in der Landschaftsentwicklung kommen funktionale Beziehungen zwischen dem naturbedingten Energie-, Wasser- und Stoffhaushalt einerseits und den Auswirkungen der Landnutzung andererseits zum Ausdruck. Gegenwärtig verändert der globale Anstieg der bodennahen Temperaturen vielerorts den landschaftlichen Energie-, Wasser- und Stoffhaushalt, wobei besonders in Trockengebieten zu erwarten ist, dass dieser Trend in Verbindung mit einer unangepassten Landnutzung das Regenerationsvermögen der Vegetation einschränkt und zur Zerstörung der Bodendecke führt. Für die Mongolei und für benachbarte Gebiete Asiens sind in Szenarien zur globalen Erwärmung hohe Werte des Temperaturanstiegs prognostiziert worden. Eine globale Einschätzung der anthropogen induzierten Bodendegradation hat diese Region als stark oder extrem stark betroffen eingestuft. Vor diesem Hintergrund wurde im Uvs-Nuur-Becken, das im Nordwesten der Mongolei und damit in einer der trockensten Regionen des Landes gelegen ist, untersucht, wie sich der globale Temperaturanstieg auf der lokalen und regionalen Ebene widerspiegelt und wie der Landschaftshaushalt dabei verändert wird. Die Auswirkungen des sommerlichen Witterungsverlaufes auf den Landschaftszustand sind 1997 bis 1999 an einem Transsekt erfasst worden, das sich zwischen dem Kharkhiraa-Gebirge am Westrand des Beckens und dem See Uvs Nuur im Beckeninneren von den Polsterfluren und Matten der alpinen Stufe über die Gebirgswaldsteppe, die Trockensteppe bis zur Halbwüste erstreckt. An neun Messpunkten wurden witterungsklimatische Daten in Verbindung mit Merkmalen der Vegetation, des Bodens und der Bodenfeuchte aufgenommen. Die im Sommer 1998 gewonnenen Messwerte wurden mit Hilfe einer Clusteranalyse gebündelt und verdichtet. Auf dieser Grundlage konnten landschaftliche Zustandsformen inhaltlich gekennzeichnet, zeitlich eingeordnet und durch Zeit-Verhaltens-Modelle (Stacks) abgebildet werden. Aus den Zeit-Verhaltens-Modellen wird ersichtlich, dass man Zustandsformen, in denen die Hitze und die Trockenheit des Sommers 1998 besonders stark zum Ausdruck kommen, an allen Messpunkten beobachten kann, nimmt man die Station auf dem fast 3.000 m hohen Gipfel des Khukh Uul sowie die grundwasserbeeinflusste Station in unmittelbarer Seenähe aus. In ihrer extremen Form sind Trockenperioden jedoch nur im Beckeninneren und am Fuß der Randgebirge, also in der Halbwüste, in der Trockensteppe und in der Wiesensteppe aufgetreten. Im Bergwald sowie im Bereich der alpinen Matten und Polsterfluren fehlen sie. Am stärksten sind die grundwasserfreien Bereiche der Halbwüste von der Hitze und Niederschlagsarmut des Sommers 1998 betroffen. An vier Fünfteln der Tage des Beobachtungszeitraumes herrscht an diesem Messpunkt extreme Trockenheit. Es fällt entweder gar kein Niederschlag oder nur so wenig, dass der seit dem Frühjahr erschöpfte Bodenwasservorrat nicht aufgefüllt wird. Das Verhältnis zwischen Niederschlag und potenzieller Verdunstung liegt hier bei 1:12. In der Halbwüste zeichnet sich eine fortschreitende Desertifikation ab, zumal hier eine nichtangepasste Weidenutzung dominiert, in der Ziegen eine immer größere Rolle spielen. Dies gilt insbesondere für Bereiche in Siedlungsnähe. Örtlich ist auch der Bestand der Trockensteppe gefährdet, die sich an die Halbwüste zum Beckenrand hin anschließt. Hier ist nicht nur die Viehdichte am höchsten, sondern hier werden auch die meisten unbefestigten Fahrwege wild angelegt und die Bodendecke damit zerstört. Dies kann im Endeffekt zu einem Übergreifen von Prozessen der Desertifikation führen. Aus methodischer Sicht zeigt sich, dass die Kennzeichnung landschaftlicher Zustandsformen durch Zeit-Verhaltens-Modelle die Ermittlung der Auswirkungen von Witterung und Klima auf den Landschaftszustand erleichtert, da sie deren Aussage konzentriert. Zur Interpretation der Ergebnisse ist jedoch ein Rückgriff auf die beschreibende Darstellung der Messwerte notwendig. Die im westlichen Uvs-Nuur-Becken und seinen Randgebirgen angewandte Verfahrensweise ermöglicht es, globale Aussagen zur globalen Erwärmung der Kontinente regional oder lokal zu überprüfen und zu untersetzen."
Der "Leukocyte Receptor Complex" (LRC) ist ein DNA-Sequenzabschnitt auf dem Chromosom 19 des Menschen, der eine Länge von über 900.000 Basenpaaren umfaßt. In diesem Chromosomenabschnitt ist eine Vielzahl von Genen lokalisiert, die für die Funktion verschiedener weißer Blutzellen (Leukozyten) von entscheidender Bedeutung sind. Bei den aus diesen Genen synthetisierten Proteinen (Eiweißen) handelt es sich um Strukturen, die auf der Oberfläche dieser Zellen lokalisiert sind und zur Interaktion der Leukozyten mit ihrer Umgebung dienen. Diese auch als Rezeptoren bezeichneten Proteine können mit Oberflächenproteinen auf anderen Körperzellen wechselwirken und daraus resultierende Signale in das Innere der Blutzelle weiterleiten. In der vorliegenden Doktorarbeit wurde der LRC im Detail untersucht. Hierzu wurde zunächst der gesamte Chromosomenabschnitt aus kleineren, einander überlappenden DNA-Fragmenten rekonstruiert. Aufgrund der in diesen DNA-Fragmenten enthaltenen DNA-Sequenzen war es möglich, den gesamten Chromosomenabschnitt ähnlich einem Puzzle zusammenzusetzen. Die anschließende Analyse des LRC zeigte, daß sich dieser in drei Bereiche, sogenannte Cluster, unterteilen läßt. Diese Cluster sind dadurch gekennzeichnet, daß in ihnen jeweils nur Gene eines Rezeptortyps vorkommen. Hierbei handelt es sich um ‚immunoglobulin-like transcript′ -Gene (ILT) und ‚killer cell Ig-like receptor′-Gene (KIR). Die KIR- und ILT-Cluster werden von weiteren stammesgeschichtlich verwandten Genen unterbrochen und flankiert. Je nach Individuum können im LRC bis zu 31 solcher verwandten Rezeptorgene lokalisiert sein. Auf der Grundlage der Kartierungsdaten und von Daten des humanen Genomprojekts war es zudem möglich, evolutionäre Untersuchungen zur Entwicklung des LRC durchzuführen. Dabei wurde eine Hypothese zur Entstehung des LRC entworfen und zu anderen Spezies in Beziehung gesetzt. Im zweiten Teil der Arbeit habe ich aufbauend auf der sogenannten HRCA-Methode eine Technik entwickelt, die es erlaubt kleinste Unterschiede zwischen DNA-Sequenzen, sogenannte Einzelbasenpaaraustausche, nachzuweisen. Die entwickelte Methode kann verwendet werden, um sehr ähnliche DNA-Sequenzen, wie z.B. verschiedene KIR-Sequenzen, zu unterscheiden und ihre Menge zu bestimmen. Sie ist außerdem geeignet Mutationen, die mit bestimmten Krankheiten assoziiert sind, nachzuweisen und könnte somit in der Diagnostik Anwendung finden.
The development of fast and reliable biochemical tools for on-site screening in environmental analysis was the main target of the present work. Due to various hazardous effects such as endocrine disruption and toxicity phenolic compounds are key analytes in environmental analysis and thus were chosen as model analytes. Three different methods were developed: For the enzymatic detection of phenols in environmental samples an enzyme-based biosensor was developed. In contrast to reported work using tyrosinase or peroxidases, we developed a biosensor based on glucose dehydrogenase as biorecognition element. This biosensor was devoted for an application in a laboratory flow system as well as in a portable device for on-site measurements. This enzymatic detection is applicable only for a limited number of phenols due to substrate specificity of the enzyme. For other relevant compounds based on a phenolic structure (i.e. nitrophenol, alkylphenols and alkylphenol ethoxylates) immunological methods had to be developed. The electrochemical GDH-biosensor was used as the label detector in these immunoassays. Two heterogeneous immunoassays were developed where ßGal was used as the label. An electrochemical method for the determination of the marker enzyme activity was processed. The separation step was realized with protein A/G columns (laboratory flow system) or by direct immobilization of the antibodies in small disposable capillaries (on-site analysis). All methods were targeted on the contemporary analysis of small numbers of samples.
Zur Ermittlung der Akzeptanz und ihres prädiktiven Wertes für den Verzehr von Lebensmitteln bzw. Getränken, sind Beliebtheitsprüfungen mit Konsumenten unter standardisierten Bedingungen im Sensoriklabor üblich. Die prädiktive Aussagekraft dieser Laboruntersuchungen wird jedoch durch folgende Aspekte eingeschränkt: (1) Der situative Kontext wird ausgeschaltet, d.h. die Verzehrssituation, in der ein Produkt üblicherweise konsumiert wird, ist im Labor bewusst eliminiert und das zu bewertende Produkt wird nicht in einer kompletten Mahlzeit dargeboten (2) Der Produktkontakt im Labor ist im Gegensatz zu der anhaltenden Konfrontation unter alltäglichen Bedingungen nur kurzfristig, was Langzeitaussagen bzw. Dauerpräferenzen nicht zuläßt; (3) Im Labortest ist die freie Auswahl auf eine geringe Anzahl angebotener Produkte beschränkt. In dieser Arbeit soll daher die Frage beantwortet werden, welchen prädiktiven Wert sensorische Beliebtheitsuntersuchungen im Labor für Lebensmittelakzeptanz und -verzehr unter Alltagssituationen haben. Dies wird für verschiedene Altersgruppen gezeigt, die frei in ihrer Entscheidungsfindung sind. Dazu gaben 56 Studenten (23,1±3,7 Jahre) und zwei Seniorengruppen, zum einen aus einer Begegnungsstätte (20 Probanden; 75,6±8,1 Jahre) und zum anderen aus dem betreuten Wohnen (14 Probanden; 76,1±12,5 Jahre), in einer ersten Laboruntersuchung Beliebtheitsbewertungen (Akzeptanz und Rangordnungsprüfung) zu 6 Erfrischungsgetränken ab. Anschließend folgte ein mindestens vierwöchiger Zeitraum, in denen die Probanden aus einem speziell für die Studie konzipierten Automaten Getränke in Einrichtungen der Gemeinschaftsverpflegung entnehmen konnten. Die Entnahme war via Chipkarte ad libitum möglich. Computergestützt wurden dabei individuelle Getränkewahl, Menge und Entnahmezeit aufgezeichnet. Unmittelbar nach der Automatenphase wurde eine erneute Laboruntersuchung durchgeführt. In allen Untersuchungsphasen wurden dieselben Erfrischungsgetränke aus Konzentrat, variiert in Apfel- oder Orangensaftgeschmack, ohne oder mit Zusatz von Zucker (20g/l) und Kohlensäure (4 g/l CO2), angeboten. Eine Quntitativ Deskriptive Analyse bestätigte unterschiedliche Profile bei den Produkten, so dass von sensorisch wahrnehmbaren Unterschieden zwischen den Produkten ausgegangen werden konnte. Die Probanden bekamen zu keiner Zeit Informationen über die exakte Zusammensetzung der Getränke. Sowohl in der Laborbewertung als auch nach Getränkekonsum via Automat, fanden sich unterschiede zwischen den Altersgruppen. In der Akzeptanzprüfung bewerteten Studenten die Apfelvarianten besser als die Orangenvarianten. Senioren, die insgesamt höhere Akzeptanzwerte vergaben, bewerteten alle Getränke in fast allen Attributen gleichermaßen gut. Nach der 4-wöchigen Automatenphase hatte sich die Akzeptanz der sechs Getränke nicht wesentlich geändert. Auch in beiden Rangordnungsprüfungen waren bei den Studenten „Apfel“ und „Apfel mit Kohlensäure“ auf den ersten Plätzen, „Orange mit Zuckerzusatz“ auf dem letzten Platz. Nach Adjustierung auf die individuelle Trinkmenge (in Wenig-, Mittel- Vieltrinker) und wurde „Apfel mit Kohlensäure“ in der Automatenphase von den Studenten am meisten getrunken. In der Vieltrinkergruppe wurde „Orange mit Zuckerzusatz“ deutlich vernachlässigt. Der Automatenkonsum der Studenten bestätigte damit im Wesentlichen die Ergebnisse der Beliebtheitsprüfung im Labor. Bei den Senioren waren in der Rangordnungsprüfung, die eine Lieblingsreihenfolge erzwang, alle süßeren Getränke (mit Zuckerzusatz) auf den ersten Plätzen. In der Automatenphase wurden jedoch viele Getränke ohne Zuckerzusatz bevorzugt. Dies zeigte sich sowohl in der individuellen Präferenz, als auch im Gesamtkonsum. Aufgrund der Ergebnisse kann der prädiktive Wert von Laboruntersuchungen mit Senioren in Bezug auf die Auswahl und den Konsum unter alltäglichen Bedingungen als gering beurteilt werden. Die Getränke mit der individuell höchsten Laborpräferenz wurden unter Alltagsumgebung in der Gemeinschaftsverpflegung in deutlich geringeren Umfang als erwartet verzehrt. In der Vergleichsgruppe der Studenten ist die Übereinstimmung größer(p<0,05). In Häufigkeitsfragebögen vor und nach der Automatenphase wurde das Trinkverhalten speziell von kohlensäurehaltigen Getränken erfragt. Der Anteil von kohlensäurehaltigen Getränken ist sehr variabel, und kann tagesabhängig von einem geringen bis zum Hauptanteil ausmachen. Senioren tranken von den Automatengetränken weniger kohlensäurehaltige Getränke als Studenten(p<0,001). Trotzdem zeigte nur eine Minderheit einen völligen Verzicht, wie sich durch Fragebogen und auch Automatenkonsum ermitteln ließ. Die Verwendung eines computergestützten Getränkeautomaten bietet eine neue Möglichkeit, die Langzeitpräferenz und den tatsächlichen Konsum unter gewohnten Alltagsbedingungen und bei freier Produktauswahl zu ermitteln. Selbst bei Altersgruppen, die mit Laboruntersuchungen überfordert sind, können Vorlieben untersucht werden.
Ein Spezialgebiet der modernen Mikroelektronik ist die Miniaturisierung und Entwicklung von neuen nanostrukturierten und Komposit-Materialen aus 3d-Metallen. Durch geeignete Zusammensetzungen können diese sowohl mit einer hohen Sättigungsmagnetisierung und Koerzitivfeldstärke als mit besserer Oxidationsbeständigkeit im Vergleich zu den reinen Elementen erzielt werden. In der vorliegenden Arbeit werden neue Methoden für die Herstellung von bimetallischen kolloidalen Nanopartikeln vor allem mit einer Kern-Hülle-Struktur (Kern@Hülle) präsentiert. Bei der überwiegenden Zahl der vorgestellten Reaktionen handelt es sich um die thermische Zersetzung von metallorganischen Verbindungen wie Kobaltcarbonyl, Palladium- und Platinacetylacetonate oder die chemische Reduktion von Metallsalze mit langkettigem Alkohol in organischem Lösungsmittel. Daneben sind auch Kombinationen aus diesen beiden Verfahren beschrieben. Es wurden Kolloide aus einem reinen Edelmetall (Pt, Pd, Ag) in einem organischen Lösungsmittel synthetisiert und daraus neue, bisher in dieser Form nicht bekannte Ag@Co-, Pt@Co-, Pd@Co- und Pt@Pd@Co-Nanopartikel gewonnen. Der Kobaltgehalt der Ag@Co-, Teilchen konnte im Bereich von 5 bis 73 At. % beliebig eingestellt werden. Der mittlere Durchmesser der Ag@Co-Partikel wurde von 5 nm bis 15 nm variiert. Bei der Herstellung von Pt@Co-Teilchen wurde eine unterschiedlich dicke Kobalt-Hülle von ca. 1,0 bis 2,5 nm erzielt. Im Fall des Palladiums wurden sowohl monodispere als auch polydisperse Pd-Nanopartikel mit einer maximal 1,7-2,0nm dicken Kobalthülle synthetisiert. Ein großer Teil dieser Arbeit befasst sich mit den magnetischen Eigenschaften der kolloidalen Teilchen, wobei die SQUID-Magnetometrie und Röntgenzirkulardichroismus (XMCD) dafür eingesetzt wurden. Weil magnetische Messungen alleine nur indirekte Schlüsse über die untersuchten Systeme erlauben, wurde dabei besonderer Wert auf die möglichst genaue strukturelle Charakterisierung der Proben mittels moderner Untersuchungsmethoden gelegt. Röntgendiffraktometrie (XRD), Röntgenabsorptionsfeinstruktur- (EXAFS) und UV-Vis-Spektroskopie sowie Transmissionselektronenmikroskopie (TEM) in Kombination mit Elektronen Energieverlustspektroskopie (EELS) und energiedispersive Röntgenfluoreszensanalyse (EDX) wurden verwendet.
The present work investigates the structure formation and wetting in two dimensional (2D) Langmuir monolayer phases in local thermodynamic equilibrium. A Langmuir monolayer is an isolated 2D system of surfactants at the air/water interface. It exhibits crystalline, liquid crystalline, liquid and gaseous phases differing in positional and/or orientational order. Permanent electric dipole moments of the surfactants lead to a long range repulsive interaction and to the formation of mesoscopic patterns. An interaction model is used describing the structure formation as a competition between short range attraction (bare line tension) and long range repulsion (surface potentials) on a scale Delta. Delta has the meaning of a dividing length between the short and long range interaction. In the present work the thermodynamic equilibrium conditions for the shape of two phase boundary lines (Young-Laplace equation) and three phase intersection points (Young′s condition) are derived and applied to describe experimental data: The line tension is measured by pendant droplet tensiometry. The bubble shape and size of 2D foams is calculated numerically and compared to experimental foams. Contact angles are measured by fitting numerical solutions of the Young-Laplace equation on micron scale. The scaling behaviour of the contact angle allows to measure a lower limit for Delta. Further it is discussed, whether in biological membranes wetting transitions are a way in order to control reaction kinetics. Studies performed in our group are discussed with respect to this question in the framework of the above mentioned theory. Finally the apparent violation of Gibbs′ phase rule in Langmuir monolayers (non-horizontal plateau of the surface pressure/area-isotherm, extended three phase coexistence region in one component systems) is investigated quantitatively. It has been found that the most probable explanation are impurities within the system whereas finite size effects or the influence of the long range electrostatics can not explain the order of magnitude of the effect.
In der vorliegenden Untersuchung wurde ein arbeitspsychologisches Problem thematisiert, dass in Mensch-Maschine-Systemen auftritt. In Mensch-Maschine-Systemen werden Informationen in kodierter Form ausgetauscht. Diese inhaltlich verkürzte Informationsübertragung hat den Vorteil, keine lange Zustandsbeschreibung zu benötigen, so dass der Mensch auf die veränderten Zustände schnell und effizient reagieren kann. Dies wird aber nur dann ermöglicht, wenn der Mensch die kodierten Informationen (Kodes) vorher erlernten Bedeutungen zuordnen kann. Je nach Art der kodierten Informationen (visuelle, akustische oder alphanumerische Signale) wurden Gestaltungsempfehlungen für Kodealphabete entwickelt. Für Operateure resultiert die mentale Belastung durch Dekodierungsprozesse vor allem aus dem Umfang des Kodealphabetes (Anzahl von Kodezeichen), der wahrnehmungsmäßigen Gestaltung der Kodes und den Regeln über die Zuordnung von Bedeutungen zu Kodezeichen. Die Entscheidung über die Güte von Kodealphabeten geschieht in der Arbeitspsychologie in der Regel über Leistungsindikatoren. Dies sind üblicherweise die zur Dekodierung der Kodes benötigte Zeit und dabei auftretende Zuordnungsfehler. Psychophysiologische Daten werden oft nicht herangezogen. Fraglich ist allerdings, ob Zeiten und Fehler allein verlässliche Indikatoren für den kognitiven Aufwand bei Dekodierungsprozessen sind, da im hochgeübten Zustand bei gleichen Alphabetlängen, aber unterschiedlicher Kodezeichengestaltung sich häufig die mittleren Dekodierungszeiten zwischen Kodealphabeten nicht signifikant unterscheiden und Fehler überhaupt nicht auftreten. Die in der vorliegenden Arbeit postulierte Notwendigkeit der Ableitung von Biosignalen gründet sich auf die Annahme, dass mit ihrer Hilfe zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen gewonnen werden können, die mit der Erhebung von Leistungsdaten nicht erfasst werden. Denn gerade dann, wenn sich die Leistungsdaten zweier Kodealphabete nicht unterscheiden, können psychophysiologische Daten unterschiedliche Aspekte mentaler Beanspruchung erfassen, die mit Hilfe von Leistungsdaten nicht bestimmt werden können. Daher wird in Erweiterung des etablierten Untersuchungsansatzes vorgeschlagen, Biosignale als dritten Datenbereich, neben Leistungsdaten und subjektiven Daten mentaler Beanspruchung, abzuleiten, um zusätzliche Informationen über die mentale Beanspruchung bei Dekodierungsprozessen zu erhalten. Diese Annahme sollte mit Hilfe der Ableitung von Biosignalen überprüft werden. Der Begriff mentaler Beanspruchung wird in der bisherigen Literatur nur unzureichend definiert und differenziert. Daher wird zur Untersuchung dieses Konzepts, die wissenschaftliche Literatur berücksichtigend, ein erweitertes Modell mentaler Beanspruchung vorgestellt. Dabei wird die mentale Beanspruchung abgegrenzt von der emotionalen Beanspruchung. Mentale Beanspruchung wird weiterhin unterschieden in psychomotorische, perzeptive und kognitive Beanspruchung. Diese Aspekte mentaler Beanspruchung werden jeweils vom psychomotorischen, perzeptiven oder kognitiven Aufwand der zu bearbeitenden Aufgabe ausgelöst. In der vorliegenden Untersuchung wurden zwei zentrale Fragestellungen untersucht: Einerseits wurde die Analyse der anwendungsbezogenen Frage fokussiert, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung über die Leistungsdaten (Dekodierungszeiten und Fehleranzahl) hinaus, zusätzliche Informationen zur Bestimmung der Güte von Kodealphabeten liefern. Andererseits wurde der Forschungsaspekt untersucht, inwieweit psychophysiologische Indikatoren mentaler Beanspruchung die zur Dekodierung notwendigen perzeptiven und kognitiven Aspekte mentaler Beanspruchung differenzieren können. Emotionale Beanspruchung war nicht Gegenstand der Analysen, weshalb in der Operationalisierung versucht wurde, sie weitgehend zu vermeiden. Psychomotorische Beanspruchung als dritter Aspekt mentaler Beanspruchung (neben perzeptiver und kognitiver Beanspruchung) wurde für beide Experimentalgruppen weitgehend konstant gehalten. In Lernexperimenten hatten zwei anhand eines Lern- und Gedächtnistests homogenisierte Stichproben jeweils die Bedeutung von 54 Kodes eines Kodealphabets zu erwerben. Dabei wurde jeder der zwei unahbhängigen Stichproben ein anderes Kodealphabet vorgelegt, wobei sich die Kodealphabete hinsichtlich Buchstabenanzahl (Kodelänge) und anzuwendender Zuordnungsregeln unterschieden. Damit differierten die Kodealphabete im perzeptiven und kognitiven Aspekt mentaler Beanspruchung. Die Kombination der Abkürzungen entsprach den in einer Feuerwehrleitzentrale verwendeten (Kurzbeschreibungen von Notfallsituationen). In der Lernphase wurden den Probanden zunächst die Kodealphabete geblockt mit ihren Bedeutungen präsentiert. Anschließend wurden die Kodes (ohne deren Bedeutung) in sechs aufeinanderfolgenden Prüfphasen randomisiert einzeln dargeboten, wobei die Probanden instruiert waren, die Bedeutung der jeweiligen Kodes in ein Mikrofon zu sprechen. Während des gesamten Experiments wurden, neben Leistungsdaten (Dekodierungszeiten und Fehleranzahl) und subjektiven Daten über die mentale Beanspruchung im Verlauf der Experimente, folgende zentralnervöse und peripherphysiologische Biosignale abgeleitet: Blutdruck, Herzrate, phasische und tonische elektrodermale Aktivität und Elektroenzephalogramm. Aus ihnen wurden zunächst 13 peripherphysiologische und 7 zentralnervöse Parameter berechnet, von denen 7 peripherphysiologische und 3 zentralnervöse Parameter die statistischen Voraussetzungen (Einschlusskriterien) soweit erfüllten, dass sie in die inferenzstatistische Datenanalyse einbezogen wurden. Leistungsdaten und subjektive Beanspruchungseinschätzungen der Versuchsdurchgänge wurden zu den psychophysiologischen Parametern in Beziehung gesetzt. Die Befunde zeigen, dass mittels der psychophysiologischen Daten zusätzliche Erkenntnisse über den kognitiven Aufwand gewonnen werden können. Als weitere Analyse wurden die Kodes post hoc in zwei neue Kodealphabete eingeteilt. Ziel dieser Analyse war es, die Unterschiede zwischen beiden Kodealphabeten zu erhöhen, um deutlichere reizbezogene psychophysiologische Unterschiede in den EEG-Daten zwischen den Kodealphabeten zu erhalten. Dazu wurde diejenigen, hinsichtlich ihrer Bedeutung, parallelen Kodes in beiden Kodealphabeten ausgewählt, die sich in der Dekodierungszeit maximal voneinander unterschieden. Eine erneute Analyse der EEG-Daten erbrachte jedoch keine Verbesserung der Ergebnisse. Drei Hauptergebnisse bezüglich der psychophysiologischen Parameter konnten festgestellt werden: Das erste Ergebnis ist für die psychophysiologische Methodik bedeutsam. Viele psychophysiologische Parameter unterschieden zwischen den Prüfphasen und zeigen damit eine hinreichende Sensitivität zur Untersuchung mentaler Beanspruchung bei Dekodierungsprozessen an. Dazu gehören die Anzahl der spontanen Hautleitwertsreaktionen, die Amplitude der Hautleitwertsreaktionen, das Hautleitwertsniveau, die Herzrate, die Herzratendifferenz und das Beta-2-Band des EEG. Diese Parameter zeigen einen ähnlichen Verlauf wie die Leistungsdaten. Dies zeigt, dass es möglich ist, die hier operationaliserte Art mentaler Beanspruchung in Form von Dekodierungsprozessen psychophysiologisch zu analysieren. Ein zweites Ergebnis betrifft die Möglichkeit, Unterschiede mentaler Beanspruchung zwischen beiden Gruppen psychophysiologisch abzubilden: Das Hautleitwertsniveau und das Theta-Frequenzband des Spontan-EEG zeigten Unterschiede zwischen beiden Stichproben von der ersten Prüfphase an. Diese Parameter indizieren unterschiedlichen kognitiven Aufwand in beiden Stichproben über alle Prüfphasen. Das wichtigste Ergebnis betrifft die Frage nach einem Informationsgewinn bei Einsatz psychophysiologischer Methoden zur Bewertung der Güte von Kodealphabeten: Einen tatsächlichen Informationsgewinn gegenüber den Leistungsdaten zeigte die Amplitude der elektrodermalen Aktivität und die Herzraten-Differenz an. Denn in den späteren Prüfphasen, wenn sich die Leistungsdaten beider Kodealphabete nicht mehr unterschieden, konnten unterschiedliche Ausprägungen dieser psychophysiologischen Parameter zwischen beiden Kodealphabeten verzeichnet werden. Damit konnten unterschiedliche Aspekte mentaler Beanspruchung in beiden Kodealphabeten in den späteren Prüfphasen erfasst werden, in denen sich die Leistungsdaten nicht mehr unterschieden. Alle drei Ergebnisse zeigen, dass es, trotz erheblichen technischen und methodischen Aufwands, sinnvoll erscheint, bei der Charakterisierung mentaler Belastungen und für die Gestaltung von Kodealphabeten auch psychophysiologische Daten heranzuziehen, da zusätzliche Informationen über den perzeptiven und kognitiven Dekodierungsaufwand gewonnen werden können.
Fließgewässer erfüllen wichtige Funktionen im Naturhaushalt und bilden mit ihren Auen komplexe Ökosysteme, die im ursprünglichen Zustand durch die Dynamik der Wasserführung geprägt werden. Seit Jahrhunderten verändert der Mensch die Gestalt der Fließgewässer, um sie für die schnelle Ableitung des Hochwassers, zum Abwassertransport, für die Schifffahrt und die Landwirtschaft zu nutzen. Im vorliegenden Themenheft werden unterschiedliche Aspekte dieser Problematik am Beispiel der Region um die ökologische Station der Universität Potsdam an der Unteren Havel dargestellt. Zunächst wird die Entstehung der Kulturlandschaft im westlichen Havelland von den Anfängen der Besiedlung dargestellt. Anschließend folgt die Charakteristik der Landschaft und der hydrologischen Verhältnisse der Unteren Havelniederung. Die Darstellung der Vegetation der Havelaue wird durch Ausführungen zu ökophysiologischen Untersuchungen an typischen Pflanzenarten von Feuchtstandorten untersetzt. Aufgrund ihrer reichen Naturausstattung und langzeitiger extensiver Nutzung ist die Landschaft an der Unteren Havel ein Schutzgebiet von internationaler Bedeutung als Rast- und Brutplatz für Wat- und Wasservögel. Einem zoologischen Überblick mit besonderer Berücksichtigung von Flussauenarten schließen sich Betrachtungen aus ornithologischer Sicht an, die neben Übersichtsarbeiten zur Avifauna der Unteren Havel ausgewählte Veröffentlichungen zur Wasservogelforschung erwähnen. Flussauen erfüllen eine wichtige Funktion im Nährstoffhaushalt der Landschaft. Untersuchungen an Augewässer-Sedimenten unter veränderter Hochwasserdynamik tragen dem Rechnung. In Brandenburg wurden in den zurückliegenden Jahren große Gebiete unter Schutz gestellt. Am Beispiel des Naturparks Westhavelland wird exemplarisch diese Richtung der Naturschutzpolitik dargestellt. Die Mehrzahl der Beiträge basiert auf Untersuchungen in der Havelniederung, die von der Ökologischen Station Gülpe ausgingen. Den Abschluss bildet ein Ausblick auf zukünftige ökologische Forschung an der Unteren Havel. Inhalt: GÖTZE, B.: Die Untere Havelniederung - eine gewachsenen Kulturlandschaft? : über die Entstehung einer Kulturlandschaft im westlichen Havelland ; KADEN, K.; ITZEROTT, S.: Eine landschaftliche Charakteristik der Unteren Havelniederung bei Gülpe ; KADEN, K.; ITZEROTT, S.: Die hydrologischen Verhältnisse der Unteren Havelniederung ; BURKART, M.; WATTENBACH, M.; WICHMANN, M.; PÖTSCH, J.: Die Vegetation der unteren Havelaue : Stand der Forschung und Perspektiven ; Gzik , A.: Vitalität und Konkurrenzkraft charakteristischer Pflanzenarten von Feuchtstandorten der Unteren Havelaue ; MÜHLE , R.-U.: Tierleben - ein zoologischer Überblick zur Unteren Havelniederung ; WALLSCHLÄGER, D: Gülper See und Untere Havelniederung aus ornitologischer Sicht : Forschungen an der Ökologischen Station der Universität Potsdam ; KNÖSCHE, R.: Zur Phospatrücklösung aus Augewässersedimenten unter veränderter Hochwasserdynamik ; BORMKI, G.; KNÖSCHE, R.; SCHNEIDER, I.: Untersuchungen zur N-Mineralisation und -Remobilisierung im Sedment eines extrem flachen Auensees (Schollener See) ; BUCHTA, R.: Der Aufbau neuer Naturparke in Brandenburg am Beispiel des Naturparkes Westhavelland ; JELTSCH , F.: Ökologische Forschungen an der Unteren Havel - ein Ausblick
This paper argues that the texts surviving from the Old English period do not reflect the spoken language of the bulk of the population under Anglo-Saxon elite domination. While the Old English written documents suggest that the language was kept remarkably unchanged, i.e. was strongly monitored during the long OE period (some 500 years!), the spoken and "real Old English" is likely to have been very different and much more of the type of Middle English than the written texts. "Real Old Engish", i.e. of course only appeared in writing after the Norman Conquest. Middle English is therefore claimed to have begun with the 'late British' speaking shifters to Old English. The shift patterns must have differed in the various part of the island of Britain, as the shifters became exposed to further language contact with the Old Norse adstrate in the Danelaw areas and the Norman superstrate particularly in the South East, the South West having been least exposed to language contact after the original shift from 'Late British' to Old English. This explains why the North was historically the most innovative zone. This also explains the conservatism of the present day dialects in the South West. It is high time that historical linguists acknowledge the arcane character of the Old English written texts.
Das vorliegende Papier eröffnet eine Reihe von Projektberichten zum Thema "Integrierte Kommunalverwaltung/eGovernment". Es umreisst die theoretischen und praktischen Ausgangslagen und versucht anhand einiger Szenarien Entwicklungsmöglichkeiten im Bereich der Verwaltung im ländlichen Raum aufzuzeigen. Im Anschluss werden die Projektinhalte und -module erläutert, sowie Problemschwerpunkte exemplarisch dargestellt. Ein besonderer Schwerpunkt wird dabei auf das Konzept der integrierten Kommunalverwaltung gelegt. Aufgaben der Gemeinden und Kreise sollen für den Bürger aus einer Hand angeboten werden können, ohne dass hier rechtliche Grenzen verwischt werden. Darüber hinaus soll den Bürgern die Wahl des Zugangskanals zur Verwaltung ermöglicht werden: - via Internet über das Virtuelle Rathaus, - via Servicemobil oder - durch den Multifunktionalen Serviceladen bzw. das örtliche Bürgerbüro. Durch die Verteilung auf Front Office, der "Schnittstelle" zwischen dem Bürger und den Leistungsanbietern, sowie "Back Office" ist eine sinnvolle Arbeitsteilung im Hinblick auf Verwaltungsvorgänge realisierbar. Denkbare Kooperationen mit privaten Dienstleistern ermöglichen einen umfassenden Service für den Bürger. Diese Modelle könnten den ländlichen Raum attraktiver machen und Abwanderungsprozessen entgegen steuern. Dieser und die folgenden Projektberichte sollen eine Diskussionsgrundlage für Interessierte in Verwaltung, Wissenschaft und Wirtschaft bilden.
Aus dem Vorwort: Das vorliegende Dokument stellt einen ersten Konzeptentwurf für die Umsetzung von eGovernment im Amt für Verkehrswesen dar und dient in erster Linie als Informations- und Entscheidungsgrundlage für die Umsetzung im Brandenburgischen Landkreis Potsdam-Mittelmark. Die vorliegende Konzeption verdeutlicht gleichzeitig die Komplexität solcher Projekte. Die Autoren hoffen, dass Entscheidungsträger in Land und Kommune dieses Dokument auch als Anstoß und Anregung verstehen, neue Wege in der Umsetzung zu beschreiten. Obwohl es sich im AfV mit seinen drei Aufgabenbereichen Allgemeines Verkehrswesen, Kfz-Zulassung und Führerscheinstelle um relativ strukturierte Prozesse handelt, ist der Veränderungsaufwand - wenn man über das Online- Wunschkennzeichen hinausgehen will - enorm. Die vorliegende Konzeption stellt eine umfassende Dokumentation dar, die technische, juristische und organisatorische Aspekte verknüpft. Diese Interdisziplinarität hat eine zum Teil inkonsistente Begriffsverwendung zur Folge, die zu Gunsten einer höheren Genauigkeit bewusst in Kauf genommen wird. Es ist klar, dass eine solche Dokumentation nicht jeden Bereich bis ins Detail erfassen kann. Die Autoren wünschen sich, dass diese Konzeption auch als Anregung für einen weiteren Austausch und zur Diskussion zwischen Wissenschaft und Praxis sowie zwischen Entscheidungsträgern und Leistungserbringern verstanden wird. Anregungen werden gern aufgenommen und in zukünftige Fassungen eingearbeitet.
Aus der Einleitung: Die Produktion kommunaler Dienstleistungen steht unter massivem Wettbewerbsdruck. In den vergangenen Jahren sind kommunale Dienstleistungen einer Vielzahl von alternativen Erstellungsformen zugeführt worden. Die Neuorganisation der Produktions- und Wertschöpfungskette im öffentlichen Sektor ist dabei identisch mit der Neuorganisation der Produktion in der Industrie. Der Trend geht in Deutschland – wie auch in anderen europäischen Staaten – zu einer Vermarktlichung der Dienstleistungsproduktion. Durch die Dezentralisierung der Fach- und Ressourcenverantwortung, neue Formen der Budgetierung und einer Ausrichtung an betriebswirtschaftlichen Instrumenten sind öffentliche Dienstleistungen näher an marktlich ausgerichtete Produktionsformen geführt worden. Anfang der 90er Jahre ging es auf lokaler Ebene vor allem um die Privatisierung der Netzdienstleistungen (z.B. Strom, Gas, Wasser) sowie um die operativ-technischen Dienstleistungen (z.B. Hausmüll, Stadtreinigung). Die desolate Situation der kommunalen Haushalte und die betriebswirtschaftlich geprägte Diskussion um die Modernisierung der Kommunalverwaltung haben die Vermarktlichung jedoch massiv beschleunigt. Vermarktlichung in Deutschland ist auf Privatisierung verkürzt, nicht aber auf die Wettbewerbsfähigkeit der öffentlichen Dienstleistungsproduktion ausgerichtet. Schrittweise werden sämtliche externen und internen Dienstleistungen dem Markt „ausgesetzt“. Die Vermarktlichung der Produktion hat dabei eine Vielzahl von Facetten. Institutionell kann ein massiver Trend in Richtung Ausgliederungen in Regie- und Eigenbetriebe, Rechtsformwandel in kommunale GmbHs, Auslagerungen durch Vergabe und Outsourcing sowie die materielle Privatisierung der Dienstleistungsproduktion festgestellt werden. Die Produktionsverantwortung wird somit entweder aus dem unmittelbaren Verantwortungsbereich der Kommune verlagert, oder sie liegt teilweise gar nicht mehr bei der Kommunalverwaltung. Prozessual gehen immer mehr Kommunen dazu über, marktliche Instrumente (z.B. Kontraktmanagement, Budgetierung, Kundenbefragungen) in ihre Produktion einzubauen, um damit Nachteile der traditionellen bürokratischen Eigenproduktion zu überwinden. Obwohl der Wandel in den Rathäusern damit eine neue Dimension erreicht hat, weil zunehmend die gesamte kommunale Dienstleistungsproduktion unter Wettbewerbsdruck steht, liegen bisher kaum empirische Erfahrungen vor. Die empirische Forschungslücke bezieht sich vor allem auf die Gestaltung des Wettbewerbs und auf das Marktergebnis. Hinlänglich sind Privatisierungen realisiert worden, aber die Frage, ob und wie die öffentliche Dienstleistungsproduktion wettbewerbsfähig gestaltet werden kann, ist bislang nicht zu beantworten. Das von der Hans-Böckler-Stiftung geförderte Forschungsprojekt „Konkurrieren statt Privatisieren“, das seit August 2002 am Kommunalwissenschaftlichen Institut der Universität Potsdam durchgeführt wird, untersucht, welche Lösungsstrategien Kommunen entwickeln, um sich den Anforderungen des Wettbewerbes zu stellen und welche Wirkungen sich für die Kommune und den kommunalen Dienstleistungsproduzenten ergeben. Dabei konzentriert sich das Projekt auf ausgewählte interne und externe Dienstleistungen.
Die eGovernment-Aktivitäten Brandenburger Kommunen : Ergebnisse einer empirischen Untersuchung
(2003)
Thema und Zielsetzung der Arbeit: Electronic Government ist in den vergangenen Jahren zu einem wichtigen Modernisierungsthema für die öffentliche Verwaltung geworden. Durch das Internet wurde ein zusätzlicher Distributions- und Zugangskanal für Verwaltungsleistungen geschaffen. Der Bürger kann über Internetportale der Verwaltungen angebotene Informationen und Dienstleistungen unabhängig von Zeit und Ort nutzen. Davon profitiert insbesondere der ländlich geprägte (kreisangehörige) Raum, da der Bürger hier oft lange Wege zur Verwaltung zurücklegen muss. Die Bereitstellung von neuen Informations- und Dienstleistungsangeboten für den Bürger im Internet ist aber nur ein erster Schritt. Das eigentliche Modernisierungspotenzial von eGovernment liegt in der digitalen Neugestaltung von Prozessen und Strukturen innerhalb einer Verwaltung und der Beziehungen zu ihren externen Partnern (andere Behörden, Unternehmen, etc.). Durch die Nutzung der neuen Informations- und Dienstleistungsangebote im Internet stößt der Bürger digitale Verwaltungsprozesse an, die teils bis hin zur Distribution von Verwaltungsleistungen medienbruchfrei, digital gestaltet werden können. Zudem ermöglicht der breite Einsatz internetbasierter Informations- und Kommunikationstechnologie (IuK-Technologie) den Einbezug externer Partner über Organisationsgrenzen und interne Bereichsgrenzen hinweg. Der besonderen Situation der Umsetzung von eGovernment im ländlichen Raum widmet sich das Projekt eLoGo am Kommunalwissenschaftlichen Institut der Universität Potsdam, dass seit dem 01. Januar 2001 vom Brandenburgischen Ministerium für Wissenschaft, Forschung und Kultur gefördert wird. Projektziel von eLoGo ist die Umsetzung und Konzeptionierung von eGovernment unter besonderer Berücksichtigung der Verhältnisse im ländlichen kreisangehörigen Raum. Informationen zur Arbeit von eLoGo finden sie im Internet unter: www.e-lo-go.de oder www.ifg.cc. Die von eLoGo vorgenommene Untersuchung bezieht sich auf zwei Bereiche: Erstens auf den Internetauftritt (Webcheck) und zweitens auf die „e-Aktivitäten“ hinter dem Portal. In einem ersten Schritt wurde im Zeitraum von April bis Juni 2002 das Internetangebot Brandenburger Kommunalverwaltungen untersucht. Anschließend wurden dann durch qualitative Befragungen in ausgewählten Kommunalverwaltungen die internen eGovernment- Aktivitäten erhoben, wie z.B. die Prozessintegration. Ziel der Untersuchung ist es, die eGovernment-Aktivitäten Brandenburger Kommunen zu bewerten, „bad“- und „good-practice“-Fälle herauszufiltern und aus den Ergebnissen erste Handlungsfelder für Politik und Verwaltung in Brandenburg aufzuzeigen.
Kundenanalyse und Evaluierung zu eGovernment im Kfz-Zulassungswesen : zwei empirische Studien
(2003)
Vorwort: Bevor eGovernment umgesetzt wird, sollte eine Nutzer- oder Kundenanalyse durchgeführt werden und nachdem eGovernment umgesetzt wurde, eine Evaluierung. Obwohl das bei allen Reformprojekten – einschließlich der eGovernmentprojekte – als selbstverständlich vorausgesetzt werden müsste, fehlen häufig solche Analyse- und Evaluierungsstudien. In Nutzeranalysen ist zu klären, was der Kunde eigentlich will und wie die Leistungsstruktur tatsächlich verbessert werden kann, um nicht teure Lösungen ohne Nutzen zu etablieren. Häufig stehen jedoch Projekte unter hohem Zeitdruck, so dass auf allzu detaillierte Nutzeranalysen verzichtet wird. Man meint zu wissen, was der Kunde will, weil die Lösungen in den Reformköpfen schon vorhanden sind. Nach nunmehr einigen Jahren eGovernment treten bei vielen Akteuren erste Ernüchterungserscheinungen über Machbarkeit und Nutzen elektronischer Leistungsabwicklung auf. Aus heutiger Sicht hätte mancherorts eine fundierte Nutzeranalyse – gegenüber naivem und hastigem Technikeuphorismus – manchen Steuereuro gespart. In solchen Projekten haben die Entscheider dann wohl auch kein Interesse an Evaluierungen. Eine Evaluierung, als Prüfung/ Bewertung einer Leistungsstruktur durch eine externe Expertengruppe, ist jedoch Grundvoraussetzung um Mängel aufzudecken und zu beseitigen. Gerade durch den externen Blick ist es möglich, Fehlentwicklungen sichtbar zu machen, die handelnde Akteure in der Verwaltung nicht oder nicht mehr sehen. Der vorliegende Projektbericht besteht aus einer Nutzer- bzw. Kundenanalyse und einer Evaluierung eines eGovernment-Projektes (eLoGo) im Bereich des Kfz- Zulassungswesen. Dabei ging es um die Verlagerung von Leistungen des Kreises in die Gemeinde durch neue Informationstechnologien im Kreis Potsdam- Mittelmark. Über eine Front-Office/Back-Office-Architektur werden Kfz-Leistungen in der Gemeinde angeboten, während die Verantwortung für die IT-Infrastruktur und die Datenhaltung weiterhin im kreislichen Straßenverkehrsamt bleibt. Das Ergebnis der Kundenanalyse hat Eingang in einen Konzeptionsvorschlag zur Neugestaltung der Leistungserbringung in diesem Bereich gefunden (siehe KWI-Projektbericht 2). Nach der Etablierung der neuen Leistungsstruktur wurde eine Evaluierung vorgenommen. Diese Evaluierung ist Grundlage für die weitere Verbesserung der Leistungsstruktur, womit der „Projektkreislauf“ geschlossen ist. Auch wenn sich die hier dargestellten Nutzeranalyse und Evaluierung auf das Kfz- Zulassungswesen beziehen, sind Methodik und Herangehensweise auch auf andere öffentliche Leistungen übertragbar.
Der Große Tempel der Bastet in Tell Basta (Bubastis), der in der Libyer- und Spätzeit monumental ausgebaut wurde, besaß während des gesamten ersten vorchristlichen Jahrtausends nachweislich große Bedeutung. Diese gründete sich auf den raschen Aufstieg der Stadt während der Libyerzeit, als die Herrscher der 22. Dynastie diese zu ihrer Residenzstadt erkoren, was auch eine enorme Aufwertung des Heiligtums der Stadtgöttin Bastet nach sich zog. Ziel der jetzigen archäologischen Arbeit im Großen Tempel von Tell Basta ist es, Grundriß, Ausstattung und Baugeschichte dieses Bauwerks zu erforschen und in Teilen zu rekonstruieren. Neben der archäologischen Erforschung dieses Bauwerks ist inzwischen aber ein neuer Aufgabenkreis entstanden, dessen Bewältigung auch über den Fortgang der Forschung selbst entscheiden wird: der Erhalt und die Pflege des Tempels. Nicht allein vergängliche Baumaterialien sind gefährdet, inzwischen ist auch Steinarchitektur von der Zerstörung bedroht. Seit einigen Jahren gehören daher Restauratoren mit zum Grabungsteam, und vor Ort konnten bereits erste Erfolge bei der Konservierung von Steinobjekten erzielt werden. Dabei zeigte sich aber auch, daß verschiedene Problemfelder neuer Lösungen bedürfen, die erst entwickelt und erprobt werden müssen. Der Weitergabe so gewonnener Erfahrungen soll dieser Band mit den Schwerpunkten Dokumentationstechniken, Restaurierung und Rekonstruktion dienen.
Biogenic amines and their receptors regulate and modulate many physiological and behavioural processes in animals. In vertebrates, octopamine is only found in trace amounts and its function as a true neurotransmitter is unclear. In protostomes, however, octopamine can act as neurotransmitter, neuromodulator and neurohormone. In the honeybee, octopamine acts as a neuromodulator and is involved in learning and memory formation. The identification of potential octopamine receptors is decisive for an understanding of the cellular pathways involved in mediating the effects of octopamine. Here we report the cloning and functional characterization of the first octopamine receptor from the honeybee, Apis mellifera . The gene was isolated from a brain-specific cDNA library. It encodes a protein most closely related to octopamine receptors from Drosophila melanogaster and Lymnea stagnalis . Signalling properties of the cloned receptor were studied in transiently transfected human embryonic kidney (HEK) 293 cells. Nanomolar to micromolar concentrations of octopamine induced oscillatory increases in the intracellular Ca2+ concentration. In contrast to octopamine, tyramine only elicited Ca2+ responses at micromolar concentrations. The gene is abundantly expressed in many somata of the honeybee brain, suggesting that this octopamine receptor is involved in the processing of sensory inputs, antennal motor outputs and higher-order brain functions.
Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004.
In a classical context, synchronization means adjustment of rhythms of self-sustained periodic oscillators due to their weak interaction. The history of synchronization goes back to the 17th century when the famous Dutch scientist Christiaan Huygens reported on his observation of synchronization of pendulum clocks: when two such clocks were put on a common support, their pendula moved in a perfect agreement. In rigorous terms, it means that due to coupling the clocks started to oscillate with identical frequencies and tightly related phases. Being, probably, the oldest scientifically studied nonlinear effect, synchronization was understood only in 1920-ies when E. V. Appleton and B. Van der Pol systematically - theoretically and experimentally - studied synchronization of triode generators. Since that the theory was well developed and found many applications. Nowadays it is well-known that certain systems, even rather simple ones, can exhibit chaotic behaviour. It means that their rhythms are irregular, and cannot be characterized only by one frequency. However, as is shown in the Habilitation work, one can extend the notion of phase for systems of this class as well and observe their synchronization, i.e., agreement of their (still irregular!) rhythms: due to very weak interaction there appear relations between the phases and average frequencies. This effect, called phase synchronization, was later confirmed in laboratory experiments of other scientific groups. Understanding of synchronization of irregular oscillators allowed us to address important problem of data analysis: how to reveal weak interaction between the systems if we cannot influence them, but can only passively observe, measuring some signals. This situation is very often encountered in biology, where synchronization phenomena appear on every level - from cells to macroscopic physiological systems; in normal states as well as in severe pathologies. With our methods we found that cardiovascular and respiratory systems in humans can adjust their rhythms; the strength of their interaction increases with maturation. Next, we used our algorithms to analyse brain activity of Parkinsonian patients. The results of this collaborative work with neuroscientists show that different brain areas synchronize just before the onset of pathological tremor. Morevoever, we succeeded in localization of brain areas responsible for tremor generation.
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.
Mit der vorliegenden Arbeit sollten mit Hilfe elektronenmikroskopischer Methoden verschiedene Liposomen-DNA-Komplexe zum Gentransfer charakterisiert sowie die Aufnahme und Verteilung in der Zellkultur untersucht werden. Dabei waren vor allem solche Präparationen von besonderem Interesse, die in unserer Arbeitsgruppe 'Drug Targeting' getestet oder entwickelt und verwendet wurden, wie Sendai-Virus Liposomen (HVJ-Liposomen), Virosomen sowie DAC-Chol und DOCSPER-Liposomen als Vertreter der kationischen Lipide. Im ersten Teil der Arbeit wurden fusogene Liposomen und Virosomen charakterisiert. Bei diesen Untersuchungen wurden folgende Ergebnisse erzielt: ·Sendai-Viren fusionieren mit Liposomen unterschiedlicher Lipidzusammensetzung. ·Die daraus resultierenden HVJ-Liposomen sind mit elektronenmikroskopischen Methoden identifizierbar. ·Die Spikes auf den HVJ-Liposomen besitzen fusogene Eigenschaften. ·HVJ-Liposomen eignen sich auf Grund der geringen Ausbeute sowie der geringen Transfektionseffizienz nicht zum in vitro Gentransfer. ·Virosomen stellen einen weiteren Typ fusogener Gentransfervesikel dar. ·Ihre Größe und fusogenen Eigenschaften sind abhängig von der externen Zugabe einer optimierten Lipidmischung. ·Im Innenraum der Virosomen kann mit Poly-L-Lysin vorkomplexierte DNA verkapselt werden. ·Die fusogenen Eigenschaften der Virosomen wurden mit Hilfe immunelektronenmikroskopischer Techniken und monoklonaler Antikörper gegen Hämagglutinin/Neuraminidase und das Fusionsprotein sowie mit polyklonalen Antiseren gezeigt. ·An Hand goldmarkierter DNA sind Virosomen nach der Transfektion in der Zelle nachweisbar. Da in unserer Arbeitsgruppe bevorzugt kationische Liposomen zum Gentransfer verwendet werden, wurde auch die Struktur der Liposomen untersucht und folgende Ergebnisse dokumentiert: ·Die Struktur und die Größe kationischer Liposomen werden hauptsächlich durch die Lipidzusammensetzung bestimmt. ·Die Bildung von Liposomen-DNA-Komplexen ist mit einer Größenzunahme der Komplexe gekoppelt. ·Die Anzahl gebundener Plasmide steigt mit der Größe der Lipoplexe. ·Gentransferaktive Lipopolyplexe (mit Protaminsulfat komplexierte DNA und DAC-Chol- Liposomen) sind kleiner als Lipoplexe. Ihre Struktur wird von der Zusammensetzung bestimmt. Eine weitere wichtige Frage betrifft den Weg der Gencarrier in der Zelle. Kenntnisse über diese Vorgänge sind vorteilhaft, um die einzelnen Schritte zu verstehen und möglichst gezielt zu verbessern. Bei der Untersuchung der Partikel im Hinblick auf zelluläre Barrieren beim Gentransfer konnten folgende Ergebnisse erzielt werden: ·Die Bindung der Partikel an die Zellmembran und Aufnahme sind abhängig von den eingesetzten Zellen und Komplexen sowie derInkubationszeit. ·Die Aufnahme erfolgt über endozytotische Mechanismen, wobei Lipopolyplexe schneller als Lipoplexe in die Zellen gelangen. Nicht alle gebundenen Komplexe werden aufgenommen. ·Die aufgenommenen Partikel befinden sich in Endosomen und werden ins Innere der Zelle transportiert. ·Freisetzung der DNA und Eintritt in den Zellkern über Kernporen konnte nicht beobachtet werden. ·DNA-haltige Vesikel in Kernnähe deuten auf einen weiteren Mechanismus hin (Vesikeltransfer zum Zellkern).
In-situ Wachstumsuntersuchungen beim reaktiven Anlassen von Cu, In Schichten in elementarem Schwefel
(2003)
In dieser Arbeit wurde das reaktive Anlassen von dünnen Kupfer-Indium-Schichten in elementarem Schwefel mittels energiedispersiver Röntgenbeugung untersucht. Durch die simultane Aufnahme der Röntgenspektren und der Messung der diffusen Reflexion von Laserlicht der Wellenlänge 635 nm an der Oberfläche der Probe während des Schichtwachstums von CuInS<SUB>2</SUB> konnte eine Methode zur Prozesskontrolle für ein Herstellungsverfahren von CuInS<SUB>2</SUB> etabliert werden. Die Bildung von CuInS<SUB>2</SUB> aus Kupfer-Indium-Vorläuferschichten wird dominiert von Umwandlungen der intermetallischen Phasen. CuInS<SUB>2</SUB> wächst innerhalb der Aufheizperiode ab einer Temperatur von ca. 200°C aus der Phase Cu11In9. Jedoch zerfällt letztere metallische Phase in Cu16In9 und flüssiges Indium bei einer Temperatur von ca. 310°C. Das flüssige Indium reagiert im Falle von Kupferarmut mit dem Schwefel und führt zu einem zusätzlichen Reaktionspfad über InS zu CuIn5S8. Unter Präparationsbedingungen mit Kupferüberschuss wird das Indium in einer intermetallischen Phase gebunden.Erstmals konnte die Phase Digenite bei Temperaturen über 240°C beobachtet werden. Beim Abkühlen auf Raumtemperatur wandelt sich diese Phase unter dem Verbrauch von Schwefel in Covellite um.Für Proben mit Kupferüberschuss konnte eine Wachstumskinetik proportional zur Temperatur beobachtet werden. Dieses Verhalten wurde durch eine stress-induzierte Diffusion als dominierenden Reaktionsmechanismus interpretiert. Dabei werden während der Bildung von CuInS<SUB>2</SUB> durch unterschiedliche Ausdehnungen der metallischen und sulfidischen Schichten eine Spannung in der CuInS<SUB>2</SUB>-Schicht induziert, die nach Überschreiten einer Grenzspannung zu Rissen in der CuInS2-Schicht führt. Entlang dieser Risse findet ein schneller Transport der Metalle zur Oberfläche, wo diese mit dem Schwefel reagieren können, statt. Die Risse heilen durch die Bildung neuen Sulfids wieder aus.
Die Studie untersucht den Erwerb der frühen Verbmorphologie im Estnischen. Als Datengrundlage der Arbeit dienen Spontansprachaufnahmen von 10 estnischsprachigen Kindern im Alter zwischen 10 und 32 Monaten. Die Studie versucht eine detaillierte Analyse des Erwerbs des estnischsprachigen Verbmorphologie vorzunehmen. Dabei werden die aufeinander folgenden Entwicklungsstadien, ihre ungefähren Altersgrenzen, sowie Erwerbsreihenfolge dargestellt und mit typologisch unterschiedlichen Sprachen verglichen.
On peut qualifier les hyperlivres de matériaux d'enseignement et d'apprentissage innovants bâtis sur une structuration électronique des éléments du savoir. En lieu et place du texte écrit est créée une base de données, dans laquelle le texte, les schémas et le son sont organisés de façon numérique. C'est dans ce lien entre des données habituellement dissociées que réside la plus-value de qualité apportée par le média. L'hyperlivre dont il est question ici prépare les étudiants à la langue de spécialité juridique, ce qui leur permet d'aborder sans trop de difficultés les séminaires de leur cursus intégré de droit français et de droit allemand. De plus, il permet des compléments en auto-formation et en approfondissement des notions abordées dans une discipline qui n'est pas toujours facile d'accès pour les apprenants.
In der Person von Georg Potente, der von 1902 bis 1938 in Potsdam-Sanssouci tätig war, spiegelt sich eine Entwicklung vom königlichen Ober- und Hofgärtner zum staatlichen Gartendirektor, einem schöpferisch tätigen Gartendenkmalpfleger wider. Sein Schaffen in historischen Gärten ist charakterisiert durch ein zeittypisches Spannungsfeld von kaiserlichen Aufgaben zur Neuanlage und Modernisierung einzelner Parkteile bis zu komplizierten gartendenkmalpflegerischen Wiederherstellungsarbeiten ganzer Parkbereiche. Die dabei von Potente begründete und praktizierte Herangehensweise, nach der Erforschung der Entstehungsgeschichte und der Auswertung aller historischen Pläne und Beschreibungen der Gartenanlage durch eine plangrafische Überlagerung die verschiedenen zeitlichen Zustände zu gewichten und den wiederherzustellenden Zeitstil festzulegen, begründete in den 20er Jahren des 20. Jahrhunderts die wissenschaftliche Arbeitsweise der sich entwickelnden Gartendenkmalpflege.
Inhalt: Gerda Haßler: 10 Jahre Integriertes Eingangssemester Primarstufe (IEP) an der Universität Potsdam Roswitha Lohwaßer: Informationen zu den Empfehlungen der Expertengruppe "Reform der Lehrerbildung" Hartmut Giest: Was bedeutet Professionsorientierung in der Lehre und wie kommt sie bei den Studierenden an? Marion Höfner: Berufsbezogene Ausbildung und Kerncurriculum im Lehramtsstudium. 5 Thesen Sabina Bieber: Schritt für Schritt zum Lehramt Klaus Pecher: "Ernst Thälmann war ein Kind wie du." Kinderzeitschriften in der DDR - Festrede zur Eröffnung der Ausstellung im Rochow-Museum Reckahn am 22.02.2003 Redaktion KENTRON: Schulen Potsdams – Das Freie Gymnasium am Pfingstberg Zepernick
Der anfangs geschlossene weichselkaltzeitliche Eiskörper gliederte sich durch in der allgemeinen Rückschmelzphase gebildetes Relief zunehmend in (lokale) Gletscherströme, Gletscherloben und Gletscherzungen, insbesondere durch Eisvorstöße. Gletschervorstöße unterbrachen immer wieder die Deglaziationsphase.br> Aus diesem Grunde sind hier die meisten bogen- oder halbmondförmigen oder gewinkelten schmalen Rückengrundrisse mit Gletschzungenbecken verbunden. Diese Oberlächenformen werden 6-7 Eisrandlagen zugeordnet. Wie sicher ist jedoch der bisher beschriebene Verlauf der weichselkaltzeitlichen Maximalrandlage des Brandenburger Stadiums in diesem Gebiet? Einige Befunde (Relief, Sand, Kiese, Steine, Lehme) weisen auf eine mögliche Existenz einer äußersten Eisrandlage in der Urstromtalniederung noch vor der Brandenburger Haupteisrandlage hin. Die marginalen Oberflächenformen des Gebietes beschreibt der Autor durch Lage, Position, Relief, Gesteine, Lagerungsweisen und Deformationen (Strukturbilder). Auch periglaziale Trockentäler sind für die Rekonstruktion von Art und Lagerung der Gesteine geeignet. Die sichere und umfassende Kenntnis von Glazialstrukturen hat Bedeutung für die Lösung von Fragen der Lagerstätten, Hydrologie und Ökologie. Erforscht wurden typische lokale Glazialformen: Endmoränen, akkumulative Endmoränen, Stauch(end)moränen (die meisten gestauchten Rücken bestehen aus rolligen Sedimenten), überfahrene Endmoränen, Kombinations- bzw. zusammengesetzte Endmoränen (gestauchten Sockeln sind ungestauchte Sedimente aufgesetzt und angelagert), Sander, Grundmoränen mit gepressten Sedimenten unter dünnen weichselkaltzeitlichen Tillen, Gletscherzungenbecken, Drumlins, subglaziale Rinnen, Kames, Kamesfelder und Talsandniederungen mit alten Elbläufen. Diskutiert wird auch die glaziale und holozäne Genese der Unteren Havel und der Elbe zwischen Burg und Havelberg. Am Ende der Arbeit demonstriert eine Überblickskarte die möglichen weichselkaltzeitlichen Eisrandlagen zwischen Elbe und Nuthe (Potsdam). Folgende Probleme werden behandelt: 1. Gliedert sich das weichselkaltzeitliche Inlandeis in Eisströme, Eisloben sowie Eiszungen, und wie ist deren morphologisch-strukturelle Prägekraft im Elbhavelwinkel? 2. Endmoränentypen: Satzendmoränen - Ablationsendmoränen, kombinierte Endmoränen 3. Vorstellung regionaltypischer glazialgenetischer Oberflächenformen: End- und Grundmoränen sowie Kames - einschließlich Relief, Sedimentart, Lagerungsweise / Struktur 4. Vergleich glazialer Oberflächenformen von Elbhavelwinkel mit Grund- und Endmoränen des Potsdamer Raumes 5. Da Eisrandlagenverläufe auch Hinweise auf Lagerungsweisen oberflächennaher, verdeckter Schichten geben sollten, die für die Lösung praktischer geologischer und hydrologischer Fragestellungen relevant sind, müssen Rekonstruktionsversuche von Eisrandlagen u.a. geomorphologische und besonders strukturelle sowie lithologische Befunde berücksichtigen. 6. Gibt es eine äußerste Randlage noch vor der Brandenburger Haupteisrandlage? 7. Wie vollzogen sich Glazial- und Holozänentwicklung von Elbe und unterer Havel im äußersten jungglazialen Gebiet? 8. Verallgemeinernde Zusammenfassung zur strukturell-lithologischen und morphogenetischen Ausstattung der Eisrandlagen des Elbhavelwinkels
Interpretation of and reasoning with conditionals : probabilities, mental models, and causality
(2003)
In everyday conversation "if" is one of the most frequently used conjunctions. This dissertation investigates what meaning an everyday conditional transmits and what inferences it licenses. It is suggested that the nature of the relation between the two propositions in a conditional might play a major role for both questions. Thus, in the experiments reported here conditional statements that describe a causal relationship (e.g., "If you touch that wire, you will receive an electric shock") were compared to arbitrary conditional statements in which there is no meaningful relation between the antecedent and the consequent proposition (e.g., "If Napoleon is dead, then Bristol is in England"). Initially, central assumptions from several approaches to the meaning and the reasoning from causal conditionals will be integrated into a common model. In the model the availability of exceptional situations that have the power to generate exceptions to the rule described in the conditional (e.g., the electricity is turned off), reduces the subjective conditional probability of the consequent, given the antecedent (e.g., the probability of receiving an electric shock when touching the wire). This conditional probability determines people's degree of belief in the conditional, which in turn affects their willingness to accept valid inferences (e.g., "Peter touches the wire, therefore he receives an electric shock") in a reasoning task. Additionally to this indirect pathway, the model contains a direct pathway: Cognitive availability of exceptional situations directly reduces the readiness to accept valid conclusions. The first experimental series tested the integrated model for conditional statements embedded in pseudo-natural cover stories that either established a causal relation between the antecedent and the consequent event (causal conditionals) or did not connect the propositions in a meaningful way (arbitrary conditionals). The model was supported for the causal, but not for the arbitrary conditional statements. Furthermore, participants assigned lower degrees of belief to arbitrary than to causal conditionals. Is this effect due to the presence versus absence of a semantic link between antecedent and consequent in the conditionals? This question was one of the starting points for the second experimental series. Here, the credibility of the conditionals was manipulated by adding explicit frequency information about possible combinations of presence or absence of antecedent and consequent events to the problems (i.e., frequencies of cases of 1. true antecedent with true consequent, 2. true antecedent with false consequent, 3. false antecedent with true consequent, 4. false antecedent with false consequent). This paradigm allows testing different approaches to the meaning of conditionals (Experiment 4) as well as theories of conditional reasoning against each other (Experiment 5). The results of Experiment 4 supported mainly the conditional probability approach to the meaning of conditionals (Edgington, 1995) according to which the degree of belief a listener has in a conditional statement equals the conditional probability that the consequent is true given the antecedent (e.g., the probability of receiving an electric shock when touching the wire). Participants again assigned lower degrees of belief to the arbitrary than the causal conditionals, although the conditional probability of the consequent given the antecedent was held constant within every condition of explicit frequency information. This supports the hypothesis that the mere presence of a causal link enhances the believability of a conditional statement. In Experiment 5 participants solved conditional reasoning tasks from problems that contained explicit frequency information about possible relevant cases. The data favored the probabilistic approach to conditional reasoning advanced by Oaksford, Chater, and Larkin (2000). The two experimental series reported in this dissertation provide strong support for recent probabilistic theories: for the conditional probability approach to the meaning of conditionals by Edgington (1995) and the probabilistic approach to conditional reasoning by Oaksford et al. (2000). In the domain of conditional reasoning, there was additionally support for the modified mental model approaches by Markovits and Barrouillet (2002) and Schroyens and Schaeken (2003). Probabilistic and mental model approaches could be reconciled within a dual-process-model as suggested by Verschueren, Schaeken, and d'Ydewalle (2003).
Mit dem Übergang zum digitalen Medium haben sich die Bezugsstrukturen und das Angebot an elektronischer Fachinformation in den Bibliotheken nachhaltig verändert. In den vorliegenden Untersuchungen wird das Angebot elektronischer Zeitschriften und Datenbanken und die Nutzung elektronischer Zeitschriften in fünf ausgewählten Fachgebieten und in unterschiedlichen Bibliothekstypen dargelegt. Darüber hinaus werden die derzeitigen Bezugsstrukturen beschrieben sowie die Ergebnisse einer Befragung der Konsortien zu Zielsetzungen, Vertragsformen und Geschäftsmodellen dargestellt. Chancen und Risiken der konsortialen Bezugsform werden erörtert.
In den letzten Jahren wurden relativ komplexe Erosionsmodelle entwickelt, deren Teilprozesse immer mehr auf physikalisch begründeten Ansätzen beruhen. Damit verbunden ist eine höhere Anzahl aktueller Eingangsparameter, deren Bestimmung im Feld arbeits- und kostenaufwendig ist. Zudem werden die Parameter punktuell, also an bestimmten Stellen und nicht flächenhaft wie bei der Fernerkundung, erfasst. Im Rahmen dieser Arbeit wird gezeigt, wie Satellitendaten als relativ kostengünstige Ergänzung oder Alternative zur konventionellen Parametererhebung genutzt werden können. Dazu werden beispielhaft der Blattflächenindex (LAI) und der Bedeckungsgrad für das physikalisch begründete Erosionsmodell EROSION 3D abgeleitet. Im Mittelpunkt des Interesses steht dabei das Aufzeigen von existierenden Methoden, die die Basis für eine operationelle Bereitstellung solcher Größen nicht nur für Erosions- sondern allgemein für Prozessmodelle darstellen. Als Untersuchungsgebiet dient das primär landwirtschaftlich genutzte Einzugsgebiet des Mehltheuer Baches, das sich im Sächsischen Lößgefilde befindet und für das Simulationsrechnungen mit konventionell erhobenen Eingangsparametern für 29 Niederschlagsereignisse im Jahr 1999 vorliegen [MICHAEL et al. 2000]. Die Fernerkundungsdatengrundlage bilden Landsat-5-TM-Daten vom 13.03.1999, 30.04.1999 und 19.07.1999. Da die Vegetationsparameter für alle Niederschlagsereignisse vorliegen sollen, werden sie basierend auf der Entwicklung des LAI zeitlich interpoliert. Dazu erfolgt zunächst die Ableitung des LAI für alle vorhandenen Fruchtarten nach den semi-empirischen Modellen von CLEVERS [1986] und BARET & GUYOT [1991] mit aus der Literatur entnommenen Koeffizienten. Des Weiteren wird eine Methode untersucht, nach der die Koeffizienten für das Clevers-Modell aus den TM-Daten und einem vereinfachten Wachstumsmodell bestimmt werden. Der Bedeckungsgrad wird nach ROSS [1981] aus dem LAI ermittelt. Die zeitliche Interpolation des LAI wird durch die schlagbezogene Anpassung eines vereinfachten Wachstumsmodells umgesetzt, das dem hydrologischen Modell SWIM [KRYSANOVA et al. 1999] entstammt und in das durchschnittliche Tagestemperaturen eingehen. Mit den genannten Methoden bleiben abgestorbene Pflanzenteile unberücksichtigt. Im Vergleich zur konventionellen terrestrischen Parametererhebung ermöglichen sie eine differenziertere Abbildung räumlicher Variabilitäten und des zeitlichen Verlaufes der Vegetationsparameter. Die Simulationsrechnungen werden sowohl mit den direkten Bedeckungsgraden aus den TM-Daten (pixelbezogen) als auch mit den zeitlich interpolierten Bedeckungsgraden für alle Ereignisse (schlagbezogen) durchgeführt. Bei beiden Vorgehensweisen wird im Vergleich zur bisherigen Abschätzung eine Verbesserung der räumlichen Verteilung der Parameter und somit eine räumliche Umverteilung von Erosions- und Depositionsflächen erreicht. Für die im Untersuchungsgebiet vorliegende räumliche Heterogenität (z. B. Schlaggröße) bieten Landsat-TM-Daten eine ausreichend genaue räumliche Auflösung. Damit wird nachgewiesen, dass die satellitengestützte Fernerkundung im Rahmen dieser Untersuchungen sinnvoll einsetzbar ist. Für eine operationelle Bereitstellung der Parameter mit einem vertretbaren Aufwand ist es erforderlich, die Methoden weiter zu validieren und möglichst weitestgehend zu automatisieren.
Nach einem Rekurs über den Utopiebegriff wurden sowohl im diarischen Werk als auch in der veröffentlichten Prosa Brigitte Reimanns utopische Konzeptionen aufgespürt. Gesucht wurde das Utopische sowohl in den Beschreibungen einer konkreten Gesellschaftsutopie, als auch in den literarischen „Verfeinerungen“ einer kruden Ideologie, wie im kritischen Hinterfragen des „Noch-Nicht-Bewussten“ (Ernst Bloch). Als ästhetische Utopien wurden auch Wunschbilder des Alltags, Träume, Märchen und Mythen gedeutet. Ausführliche Untersuchungen beschäftigten sich mit der Gestaltung der weiblichen Figuren und ihrer Entwicklung von der ideologisch (auch männlich) indoktrinierten Protagonistin zur „freien“ Ich–Gestalterin. Nachgewiesen wurde sowohl im diarischen Werk, als auch in der veröffentlichten Prosa eine Wandlung des Utopieverständnisses von der Gesellschaftsutopie zur subjektiven „Augenblicksutopie“, die im Deutungshorizont der Literatur der Romantik auch als DDR-spezifische Innerlichkeit verstanden werden könnte, welche mit ihrem Rückzug ins Individuelle die ritualisierte DDR-Öffentlichkeit desavouierte.
In this work, an approach of paleoclimate reconstruction for tropical East Africa is presented. After giving a short summary of modern climate conditions in the tropics and the East African climate peculiarity, the potential of reconstructing climate from paleolake sediments is discussed. As demonstrated, the hydrologic sensitivity of high-elevated closed-basin lakes in the Central Kenya Rift yields valuable guaranties for the establishment of long-term climate records. Temporal fluctuations of the limnological characteristics saved in the lake sediments are used to define variations in the Quaternary climate history. Based on diatom analyses in radiocarbon- and 40Ar/39Ar-dated sediments, a chronology of paleoecologic fluctuations is developed for the Central Kenya Rift -lakes Nakuru, Elmenteita and Naivasha. At least during the penultimate interglacial (around 140 to 60 kyr BP) and during the last interglacial (around 12 to 4 kyr BP), these lakes experienced several transgression-regression cycles on time intervals of about 11,000 years. Additionally, a long-term trend of lake evolution is found suggesting the general succession from deep freshwater lakes towards more saline waters during the last million years. Using ecologic transfer functions and a simple lake-balance model, the observed paleohydrologic fluctuations are linked to potential precipitation-evaporation changes in the lake basins. Though also tectonic influences on the drainage pattern and the effect of varied seepage are investigated, it can be shown that already a small increase in precipitation of about 30±10 % may have affected the hydrologic budget of the intra-rift lakes within the reconstructed range. The findings of this study help to assess the natural climate variability of East Africa. They furthermore reflect the sensitivity of the Central Kenya Rift -lakes to fluctuations of large-scale climate parameters, such as solar radiation and sea-surface temperatures of the Indian Ocean.
Tierleben
(2003)
Mit diesem Beitrag möchten wir aufzeigen, welchen Stellenwert psycho-physiologische Erhebungen in der Diagnostik von Fähigkeiten, Fertigkeiten und Verhaltensweisen haben. Über solche Verfahren lassen sich Stresserleben und negative Beanspruchungen zeitiger erkennen als durch Beobachtungen und Befragungen. Im Rahmen einer Pilotstudie zum Belastungserleben von Schulkindern wurden von uns Daten mittels standardisierter Fragebögen und physiologischer Messungen erhoben. Wir haben zunächst psycho-physiologische Beanspruchungszustände von Grundschulkindern im Tagesverlauf erfasst, weil der circadiane Rhythmus die prinzipielle Grundlage für alle Lebens- und Lernprozesse darstellt. Darauf basieren weiterführende Untersuchungen zu situations- und anforderungsbezogenen Beanspruchungen von Schülerinnen und Schülern, die schließlich auf das Erfassen von Beziehungen zwischen psycho-physiologischen Zuständen und Verhaltensbeobachtungen gerichtet sind. In diesem Beitrag werden Ergebnisse aus 24-Stunden-Messungen vorgestellt.
Untersucht wurde, welche Anreize das Graffiti-Sprayen attraktiv machen. Dazu wurden in einer Vorphase 138 Anreizschilderungen gesammelt und in einen Fragebogen mit 50 Items transformiert. N = 294 Graffiti-Sprayer beantworteten diesen Fragebogen teils online im Internet, teils anonym gestreut auf Graffiti- oder Hip-Hop-Events.Faktorenanalytisch ließen sich sieben Anreizdimensionen ermitteln: Expertise/Kompetenzorientierung, Positive Emotionen/Flow, Kreativität, Gruppengefühl, Ruhm/Performanzorientierung, Lebenssinn, Sensation Seeking/Grenzerfahrung.Legales vs. illegales Graffiti-Sprayen unterschieden sich deutlich im Faktor Sensation Seeking/Grenzerfahrung und tendenziell im Faktor Lebenssinn. Das gesondert erfasste Flow-Erleben ließ sich beim illegalen Sprayen am besten über den Faktor Sensation Seeking/Grenzerfahrung vorhersagen, während Flow beim legalen Graffiti-Sprayen am besten über den Faktor Ruhm/Performanzorientierung vorhersagbar war. Innerhalb der legalen bzw. illegalen Sprayer ließen sich noch verschiedene Motivationstypen unterscheiden. Mit Blick auf alterskorrelierte Anreizveränderungen ließen sich beim legalen Graffiti-Sprayen keine nennenswerten Zusammenhänge zwischen Alter und Anreizgewicht feststellen. Dagegen nimmt beim illegalen Sprayen insbesondere die Bedeutung des Sensation Seeking sowie der Leistungsthematik signifikant mit dem Alter ab. Da dies die wichtigsten Anreize des illegalen Sprayens sind, dürfte dieser alterskorrelierte Anreizverlust erklären, warum es kaum illegale Sprayer gibt, die älter als 21 Jahre sind. Aus zusätzlich frei genannten Anreizen gab es noch Hinweise auf eine weitere Anreizkategorie, nämlich die Freude an „aggressiver Provokation“. Diese Kategorie war aber eher schwach besetzt. Diskutiert werden u. a. Möglichkeiten, unerwünschtes Graffiti-Sprayen einzudämmen. Hierzu wird auf die Notwendigkeit von „Aussteigeranalysen“ (Längsschnittstudien) hingewiesen, die offenlegen, für welche kritischen Anreize man Ersatz finden muss, wenn man z. B. in Interventionsprojekten das Engagement auffällig gewordener Sprayer auf andere Tätigkeitsfelder lenken möchte.
Berichtet wird über eine Möglichkeit, Flow-Erleben unter experimentell kontrollierten Bedingungen systematisch zu variieren. Dabei werden die Tätigkeit (das Computerspiel Roboguard) und die Situationsbedingungen konstant gehalten. Variiert wird lediglich die Schwierigkeitsstufe, auf der gespielt wird. Als abhängiges Maß wurde die Flow-Kurzskala (FKS, Rheinberg, Vollmeyer & Engeser, 2002) verwandt. Es zeigten sich die vorhergesagten kurvilinearen Beziehungen zwischen Anforderungsstufe und Flow mit Effektstärken um 1 und größer. Zusammenhänge zwischen habitueller Zielorientierung (Hayamizu & Weiner, 1991) und Flow zeigten sich nur bei den flow-auslösenden Schwierigkeitsstufen. Es gab keine negative Beziehung zwischen Zielorientierung und Flow, vielmehr korrelierten sowohl die learning- als auch die performance goal orientation positiv mit der Flowkomponente Absorbiertheit. Aus diesem Befund wird eine Arbeitshypothese zur Beziehung von Motivation und Flow hergeleitet, wonach unter optimalen Bedingungen Besonderheiten der Initialmotivation vielleicht dann keine Rolle mehr spielen, wenn die Person erst einmal im Flow-Zustand ist.
Ausgehend von einer Charakterisierung des Flow-Erlebens als gaenzliches Aufgehen in einem glatt laufenden Taetigkeitsvollzug, den man trotz hoher Beanspruchung noch unter Kontrolle hat, wird auf die Erfassung dieser Motivationskomponente eingegangen. Dargestellt und diskutiert werden Vor- und Nachteile der bisherigen qualitativen (Interviews) und quantitativen Flow-Erfassung (Experience Sampling Method (ESM)) . Ausfuehrlicher wird eine "Flow-Kurzskala" (FKS) beschrieben, die mit zehn Items alle qualitativ verschiedenen Komponenten des Flow-Erlebens oekonomisch und reliabel erfasst. Sie liefert einen Gesamtwert sowie Werte fuer zwei Subskalen (glatter automatisierter Verlauf sowie Absorbiertheit). Daneben erfassen drei zusaetzliche Items die Besorgnis in der aktuellen Situation. Berichtet werden Vergleichskennwerte aus punktuellen Messungen und ESM-Studien. Die hoechsten Werte fuer Flow und Besorgnis wurden bislang bei Graffiti-Sprayern gefunden. Bei einer intellektuell herausfordernden Aufgabe (Postkorbuebung) sind die FKS-Werte mit der Hoffnung-auf-Erfolg-Komponente des Leistungsmotivs korreliert. Furcht-vor-Misserfolg korreliert dagegen mit dem Besorgniswert der FKS. Flow waehrend der Bearbeitung von Uebungsaufgaben fuer Statistik lieferte einen signifikanten Beitrag zur Vorhersage der nachfolgenden Klausurleistung. Dieser Beitrag blieb erhalten, auch wenn Faehigkeitsmasse kontrolliert wurden. (Buch/A.G. - ZPID)
Mehr als bloß Bahala Na
(2003)
Theologie made in the Philippines fällt in der europäischen Wahrnehmung durch alle Raster. Für Befreiungstheologie schlägt man bei lateinamerikanischen Theologen nach, für Religionsdialog bei indischen. Wohin hat sich die philippinische Theologie seit den Zeiten der „Theologie des Kampfes“ entwickelt, als katholische Priester Vordenker der National People’s Army waren? Im Folgenden soll die Wende hin zur „popular religiosity“ nachgezeichnet werden. Nicht behandelt werden die kirchlichen Entwicklungen wie das einflussreiche Ereignis der Philippinischen Nationalsynode 1991 und die Veröffentlichung des Philippinischen Katechismus 1997.
Der Himmel ist nicht Gott
(2003)
Die Theologie des 20. Jahrhunderts hat die Gegenstände “Himmel, Hölle, Engel” kaum zum Thema gemacht, und wenn doch, dann meist mit der Absicht, sie als mythologisches Beiwerk zu kritisieren oder in anthropologische Kategorien zu übersetzen. Das Eigenrecht einer Rede vom Himmel wurde bestritten, da dies allenfalls als analytische Bestimmung des Gottesbegriffes zu sehen sei und alle weiter gehenden Bestimmungen freie Spekulation seien. Hierfür wurden auch pastorale Gründe geltend gemacht: Wenn die modernen Menschen schon Schwierigkeiten mit dem Glauben haben, solle man sie nicht mit Zweitrangigem überfrachten. Und wenn man ihnen im technischen Zeitalter transzendente Gegenstände zumutet, dann höchstens Gott. Es komme darauf an, die Beziehung des Menschen zu Gott zu entdecken und zu stärken. Die Paradigmen für diese Beziehung waren meist zweipolig: Urvertrauen (Mutter-Säugling), Dialog (Ich und Du) oder Begegnung (Personen). In jüngerer Zeit wurden feinere Begriffsschärfungen vor allem im protestantischen Bereich vorgenommen. Der Systematiker Michael Welker hat auf die Differenz von Himmel und Gott hingewiesen. Vor dem Hintergrund der Prozessphilosophie, in der die Entfaltung des Kosmos mit dem Selbstvollzug Gottes deckungsgleich gedacht wird, hat er die Notwendigkeit dieser Unterscheidung betont: “Gott ist nicht der Himmel. Wir können nicht der Verwechslung von Gott und Welt durch die Verwechslung von Gott und einem Teil der Welt wehren. [...] Der Himmel ist Geschöpf und Teil der Welt. Dieser für uns relativ unbestimmte, unmanipulierbare Teil der Schöpfung kann räumlich und zeitlich bestimmt verstanden werden.” Hinter Welkers Ausführungen steht die im 20. Jahrhundert maßgebliche Thematisierung des Himmels, nämlich § 51 aus Karl Barths Kirchlicher Dogmatik. Barth bindet seine Reflexionen über den Himmel streng an die Offenbarung. Jede darüber hinaus gehende Spekulation über eine “selbständige Ontologie des Himmels” führe von Gott weg hinein in die Willkür möglicher Welten. Aus dem biblischen Zeugnis heraus gelte es, “geordnete Rechenschaft” abzulegen. Dennoch dürfe man nicht einer bequemen aufklärerischen Skepsis verfallen, die das Thema für theologisch irrelevant hält und darüber hinaus als unwissenschaftlich abtut; immerhin sei die Rede von Gott eng mit der Rede vom Himmel verknüpft. Der vorliegende Beitrag will die Notwendigkeit einer eigenständigen Kategorie „Himmel“ herausstellen. Dies geschieht nicht aus einem nostalgischen Interesse, aussterbende Glaubensinhalte zu konservieren, sondern weil der Begriff einer niedrigen, nichtgöttlichen Transzendenz systematisch notwendig ist. Zudem benötigt man ihn in der praktischen Theologie für eine differenzierte Wahrnehmung außerkirchlicher Religiosität, welche mit der De-Etablierung der Kirchen weiter zunehmen wird. Wie soll man mit vager Spiritualität vom Übersinnlichen, Himmlischen heute umgehen? Darf man sie mit Verweis auf dogmatische Hochgott-Begriffe glattweg ablehnen, darf man sie umgekehrt im Namen einer Universalreligion einfach akzeptieren? Wie kann man fremde Religiosität als Religiosität bejahen und sich dennoch davon kritisch absetzen? Die klare Unterscheidung von erster Transzendenz (Himmel) und zweiter Transzendenz (Gott) soll hierzu beitragen. Dabei wird der Akzent auf ersterer liegen, denn es ist theologisch unproblematisch, dass Gott das absolute Gegenüber zur Welt darstellt; wo aber der Himmel dazwischen zu platzieren ist, bedarf einer eingehenden Begriffsbestimmung. Als erstes wird die Reinigung des Begriffs von nichtreligiösen Konnotationen vorgenommen.
Inklusion oder Exklusion?
(2003)
Inhalt: 1. Ziel und Fragestellung der Arbeit 2.1 Spezifika des deutschen Wohlfahrtsstaates 2.2 Theoretische Erkenntnisse zu Übergangsmodellen in und aus Teilzeitbeschäftigung 2.2.1 Humankapitaltheorie 2.2.2 Der Ansatz der Haushaltsstruktur 2.2.3 Ansätze zur Arbeitsmarktsegmentation 2.2.4 Theorien individuellen Handelns 2.3 Inklusion und Exklusion 3. Forschungsstand zu Übergangsmodellen in und aus Teilzeitbeschäftigung 4. Der Modellrahmen 4.1 Spezifikation der Hazard-Funktion 4.2 Einzelne Episoden 4.3 Mehrzustandsmodell 5. Typen von Erwerbsverläufen 5.1 Inkludierende, exkludierende und erhaltende Übergänge 6. Einflussfaktoren 6.1 Übergänge von Teilzeitbeschäftigung in die Erwerbstätigkeit 6.2 Übergänge von Teilzeitbeschäftigung in die Nichterwerbstätigkeit 6.3 Übergänge von Teilzeitbeschäftigung in die Arbeitslosigkeit 6.4 Übergänge von Teilzeitbeschäftigung in den Hausfrauen/männerstatus 7. Zentrale Ergebnisse und Schlussfolgerungen
In dieser Arbeit wird den verschiedenen Thesen, die das Wahlverhalten in Ostdeutschland begründen, nachgegangen. Der Einbezug der politischen Kultur scheint als Erweiterung des sozialpsychologischen Ansatzes notwendig, um das Wählerverhalten in den neuen Bundesländern angemessen zu modellieren. Für die Analyse der Parteiaffinitäten werden die in den ersten beiden Kapiteln ausgearbeiteten Deutungen zu empirisch überprüfbaren Hypothesen verdichtet und anhand der im empirischen Teil der Arbeit aufgestellten Regressionsmodelle getestet. Inhalt: Die politische Kultur in Ostdeutschland - Besonderheiten politischer Einstellungen: Einstellungen zur Demokratie, Identitätsabgrenzung - Problemwahrnehmungen und Kompetenzzuweisungen Ostdeutsches Wahlverhalten - Thesen - Politisierung der Sozialstruktur - Anwendbarkeit des Konzeptes Parteiidentifikation - Parteiidentifikation und Sozialstruktur - Sachthemen und Kandidaten Empirischer Test - Daten und Methode: Kausalmodell - Hypothesen - Ergebnisse für die einzelnen Parteien: CDU, SPD, PDS - Relatives Gewicht lang- und kurzfristiger Faktoren Fazit - Diskussion der Ergebnisse
Die Dunkelziffer der Armut
(2003)
In der vorliegenden Arbeit soll Aufschluss über die Motivationen zum Verzicht auf Sozialhilfe gewonnen werden. Darüber hinaus soll der Wissensstand über Ausmaß und demographischen Struktur der Armut durch Nichtinanspruchnahme aktualisiert werden. Die Analyse basiert auf Daten aus dem Jahr 2001 des Sozio-ökonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung. Inhalt: I. Einleitung II. Das Bundessozialhilfegesetz der Bundesrepublik III. Literaturüberblick: Nicht-Inanspruchnahme von Sozialhilfe in der Bundesrepublik IV. Hypothesen und Operationalisierung V. Daten und Sozialhilfeberechtigung VI. Das statistische Modell VII. Regressionsanalyse und Ergebnisse VIII. Zusammenfassung
This is the first issue of a series in which affiliates of the Institute of Linguistics report the results of their experimental work. Generative linguistics usually rely on the method of native speaker judgements in order to test their hypotheses. If a hypothesis rules out a set of sentences, linguistics can ask native speakers whether they feel these sentences are indeed ungrammatical in their language. There are, however, circumstances where this method is unreliable. In such cases a more elaborate method to test a hypothesis is called. All papes in this series, and hence, all papers in this volume deal with issues that cannot be reliably tested with native speaker judgements. This volume contains 7 papers, all using different methods and finding answers to very different questions. This heterogenity, by the way, reflects the various interests and research programs of the institute. The paper, by Trutkowski, Zugck, Blaszczak, Fanselow, Fischer and Vogel deals with superiority in 10 Indo-European languages. The paper by Schlesewsky, Fanselow and Frisch and by Schlesewsky and Frisch, deal with the role of case in processing German sentences. The paper by Vogel and Frisch deals with resolving case conflicts, as does the paper by Vogel and Zugck. The nature of partitive case is the topic of the paper by Fischer. The paper by K?gler deals with the realization of question intonation in two German dialects. We hope that you enjoy reading the papers!
Inhalt 1 Einleitung 2 Standortwettbewerb und Race-to-the-bottom 2.1 Theorie des Standortwettbewerbs 2.2 Prozess des Race-to-the-bottom 2.3 Modelltheoretische Fundierung des Race-to-the-bottom 3 Fusionskontrolle als Standortfaktor 4 Instrumentalisierung der Fusionskontrolle im Standortwettbewerb 4.1 Die deutsche Ministererlaubnis 4.2 Race-to-the-bottom im Rahmen der deutschen Ministererlaubnis? 4.3 Restriktive Handhabung der deutschen Ministererlaubnis 4.4 Das Kriterium der internationalen Wettbewerbsfähigkeit in der deutschenMinistererlaubnis 5 Fazit
Inhalt 1 Globalisierung und Wettbewerb 1.1 Einzelne Aspekte 1.2 Unterschiedliche Bewertungen 2 Das MacDougall-Kemp-Modelldes institutionellen Wettbewerbs 2.1 Modellprämissen und -implikationen 2.2 Empirische Evidenz 3 Untersuchung weiterer Politikbereiche 3.1 Sozial- und Umweltpolitik 3.2 Wettbewerbspolitik 4 Mängel der betrachteten Ansätze 4.1 Transaktionskosten von Individuen und Unternehmen 4.2 Verhaltensweisen privater und politischer Akteure 5 Wirtschaftspolitische Konsequenzen
Inhalt 1 Ziele der Liberalisierung von Netzindustrien:Privatisierung staatlicher Monopole und wettbewerbliche Marktöffnung 2 Markt- und wettbewerbstheoretische Aspekte der Netzinfrastruktur 2.1 Netze als Teil der materiellen Infrastruktur 2.2 Netzinfrastruktur als öffentliches Gut oderInstrument der Daseinsvorsorge? 2.3 Netze als natürliche Monopole? 2.3.1 Nutzenrelevante Netzeffekte 2.3.2 Kostenbestimmende Netzeffekte 2.3.3 Wettbewerbspotenziale trotz Wettbewerbsversagen 3 Wettbewerbsökonomische Implikationen für Netzindustrien 3.1 Vertikale Integration in Netzindustrien 3.1.1 Transaktionskosten versus vertikale Integration 3.1.2 Wettbewerbsökonomische Probleme 3.2 Netzzugangsmodelle 3.3 Institutionelle Ausgestaltung der Wettbewerbsaufsicht 4 Fazit
Inhalt 1 Gegenstand der Untersuchung 2 SV aus wirtschaftstheoretischer Sicht:(neoklassische) Umweltökonomik 3 SV aus wirtschaftspolitischer Sicht:(ordoliberale) ordnungspolitische Aspekte 4 SV aus empirischer Sicht 5 Realitätsbezogene Probleme und Lösungsansätze 6 Realitätsnähere Analyse der Effektivität, Effizienz undWettbewerbskonformität von SV 7 Realitätsnähere Analyse der ordnungspolitischen Aspekte 8 Kriterien erfolgreicher SV 9 Aktuelle Problematik: SV versus Emissionsrechtehandel
Inhalt 1 Einleitung 2 Theoretische Vor- und Nachteile vertikaler Trennung von Netz undTransportbetrieb 3 Ausgangslage in Schweden vor der Bahnreform 4 Ziele der schwedischen Eisenbahnreform 5 Maßnahmen der schwedischen Eisenbahnreform 6 Kritische Würdigung der Reform 6.1 Marktstruktur des schwedischen Eisenbahnverkehrs 6.1.1 Hauptakteure und Eigentumsstruktur 6.1.2 Wettbewerbssituation im schwedischen Eisenbahnverkehr 6.1.3 Finanzierung des schwedischen Eisenbahnsystems 6.2 Marktverhalten der marktbeherrschenden Unternehmen 6.3 Performance des heutigen schwedischen Eisenbahnsystems 7 Fazit
In diesem Beitrag untersuchen wir den Einfluß einer sozioökonomischen Variablen -- die Wertschätzung der Freizeit durch die Haushalte -- auf das innerstädtische Siedlungsverhalten. Die Diskussion dieser Variablen soll zunächst im Rahmen eines Standardmodells der Stadtökonomie erfolgen. Dabei zeigt sich ein eindeutiges Ergebnis: Jene Haushalte, für die die Freizeit einen hohen Nutzen stiftet, siedeln sich am Stadtzentrum an. Danach wenden wir uns der Empirie zu. Am Beispiel Potsdams soll das tatsächliche Siedlungsverhalten der Haushalte aufgezeigt werden. Der Vergleich der Modellergebnisse mit den empirischen Befunden verdeutlicht zum einen, daß die Modelle vermutlich wesentliche Einflußgrößen, die das Siedlungsverhalten bestimmen, nicht erfassen. Zum anderen zeigen die empirischen Ergebnisse die große Bedeutung der singulären, einer allgemeinen Theorie prinzipiell nicht zugänglichen Einflüsse auf die Zusammensetzung und Verteilung der Wohnbevölkerung.
Existing theoretical literature fails to explain the differences between the pay of workers that are covered by union agreements and others who are not. This study aims at closing this gap by a single general- equilibrium approach that integrates a dual labor market and a two- sector product market. Our results suggest that the so called 'union wage gap' is largely determined by the degree of centralization of the bargains, and, to a somewhat lesser extent, by the expenditure share of the unionized sector's goods.
(De)regulatory interventions frequently have unintended cross- market effects, which may or may not be desirable. We assess the effects of three policies on aggregate variables, in particular real income, from a theoretical perspective. Our results suggest that instruments acting upon wages have only a weak impact on real income, whereas the distribution of income is affected strongly. In contrast, a policy that enhances product market competition is fostering real income, but also impacts strongly on union wages and the distribution of income.
Inhalt: Dynamische Interpretation der Leistungsfähigkeit Integrierte Einkommens- und Gewinnbesteuerung Zins- und Sparbereinigung Individuelle Fairness und Familiengerechtigkeit Einfachheit für Administration und Bürger Auswirkungen auf Steueraufkommen und Einkommensverteilung Generationengerechtigkeit Begleitende Maßnahmen Systemdynamik und Wirtschaftswachstum
Im Zusammenhang mit der Diskussion um die Globalisierung werden massive Vorwürfe gegen das ökonomische Gedankengebäude, aber auch die damit verbundenen menschlichen Verhaltensweisen ins Feld geführt. In einem verhaltenswissenschaftlich orientierten Ansatz wird daher zunächst aus individueller, dann aus internationaler Ebene herausgearbeitet, worin die grundlegenden friedensstiftenden Elemente eines ökonomischen Betrachtungsansatzes liegen. Dabei wird insbesondere die Rolle der Ungleichheit betont, die – neben einem reichen Güterangebot, der leistungsorientieren Entlohnung von Arbeit und Kapital sowie der individualistischen Eigentumsordnung – als konstitutives Element des marktwirtschaftlichen Anreizmechanismus den Erfolg demokratischer Gesellschaftssystem in besonderem Maße bestimmt. Die Ausführungen zu den Argumenten pro und contra Globalisierung stehen vor dem Hintergrund der Tatsache, dass die hervorgerufenen Entwicklungsprozesse unweigerlich Gewinner und Verlierer kreieren, was bei letzteren verständlich Ängste auslöst. Dabei wird die Verantwortlichkeit gerade für das Zurückfallen in einem insgesamt durchaus dynamischen Entwicklungsprozeß auf das Markt- und zum Teil auch Staatsversagen geschoben. Übersehen wird jedoch, dass hinter diesen vermeintlichen Versagenstatbeständen sich vielmehr ein moralisches Versagen verbirgt, welches eher auf Seiten der Marktteilnehmer, aber auch von Politik, Bürokratie und vor allem der Interessenvertreter zu suchen ist. Darüber hinaus wird auch die Existenz eines effizienten Sozialstaats nicht durch die Globalisierung gefährdet. Sie bildet vielmehr den Anlaß für die notwendigen Reformen, welche die Bekämpfung von Armut im nationalen wie internationalen Kontext sichern wird. Denn ohne Globalisierung drohen nicht nur ein überzogener Steuer- und Sozialstaat, sondern auch Tendenzen in Richtung auf den Leviathan und einen totalitären Machtmißbrauch, wie dieser heute noch in vielen Entwicklungs- und Transformationsländern auf der Tagesordnung ist.
Inhalt: Staatliche Belastung fabrikneuer PKW im europäischen Vergleich -Finanzwissenschaftliche Einordnung der Abgaben auf PKW -Grundlagen zur empirischen Untersuchung -Abgaben auf den Kauf und das Inverkehrbringen eines Pkws -Abgaben auf den Besitz eines Fahrzeuges -Gesamtabgaben im europäischen Vergleich Konsequenz auf den Binnenmarkt -Unterschiedliche Nettopreise in den einzelnen Ländern -Integrierter EU-Binnenmarkt -Preisdiskriminierung trotz des integrierten EU-Marktes
Inhalt: Empirie: Anfänge der Strukturpolitik: der Aufbau des Europäischen Sozialfonds Beginn der Regionalpolitik und der Europäische Fonds für regionale Entwicklung Strukturförderung im ländlichen Raum – die Abteilung Ausrichtung des Agrarfonds Neue Probleme und neue Ansätze: Die 1980er Jahre Einheitliche Europäische Akte und grundlegende Reform der Strukturpolitik ab 1986 Zwischen den Reformen: Die 1990er Jahre Die EU-Strukturfonds heute Theorie: Risikoausgleich bei Migration und interregionalen Transfers Risikoausgleich in der Europäischen Union? – Eine empirische Untersuchung Spillover-Effekte als Problem – matching grants als Lösung? Das Problem der dritten Ebene: Verdrängung nationaler Zuschüsse durch EU-Mittel Externe Effekte durch Wanderung von Arbeitnehmern Der flypaper-Effekt als Besonderheit öffentlicher Zuschüsse "Dezentralisierte" Föderation
Inhalt: Die Veranlagungssimulation im Kontext anderer Methoden zur Beurteilung von Steuerwirkungen -Steuerwirkungsanalyse in der betriebswirtschaftlichen Steuerlehre und der Finanzwissenschaft im Vergleich -Abgrenzung der Veranlagungssimulation von der Teilsteuerrechnung -Die Veranlagungssimulation als Komponente eines Simulationsmodells zur Politikanalyse Das System der deutschen Unternehmensbesteuerung in Abhängigkeit von der Rechtsform -Einzelunternehmen und Personengesellschaften -Kapitalgesellschaften Die Reform der Unternehmensbesteuerung -Gründe und Ziele der Reform der Unternehmensbesteuerung -Die Maßnahmen der Unternehmenssteuerreform im Überblick Entwicklung des Simulationsmodells -Datengrundlage der Untersuchung -Die Grundstruktur des Modells -Entwicklung der Veranlagungscodes: Veranlagung der Gewerbesteuer, Grundlagen der Gewerbesteuerfestsetzung, Veranlagung der Körperschaftsteuer, Veranlagung der Einkommensteuer Darstellung der Ergebnisse der Veranlagungssimulation -Überblick über die konstituierenden Merkmale der Modellunternehmen -Die Steuerbelastungen der Unternehmen bei Veranlagung nach altem und neuem Steuerrecht im Überblick Der Rechtsformvergleich mit abgewandelten Modellunternehmen -Der Rechtsformvergleich bei Variation steuerlicher Sachverhaltsgestaltungen -Der Rechtsformvergleich bei Variation des Gewinns Zusammenfassung der Ergebnisse des Steuerbelastungs- und des Rechtsformvergleichs Kritische Betrachtung der durch den Gesetzgeber und die Brühler Kommission gesetzten Ziele anhand der generierten Ergebnisse Steuerwirkungen auf Investitionen und Finanzierung Modellkritik
In ihrer jetzigen Gestalt greift die Studie die aktuellen rechtlichen und tatsächlichen Entwicklungen auf, die die Strafverfolgung von Menschenrechtsverletzern aufwirft. Das Individuum ist im zwanzigsten Jahrhundert nicht nur zum Inhaber völkerrechtlich begründeter Rechtspositionen - der Menschenrechte - geworden. Der einzelne muss mittlerweile auch damit rechnen, für schwere Menschenrechtsverletzungen auf der Grundlage des Völkerrechts strafrechtlich zur Verantwortung gezogen zu werden. Für die Durchsetzung der Menschenrechte ist dies ein weiterer bedeutender Schritt.
Die Arbeit untersucht erstmals die evangelischen Vereine für weibliche Jugendliche, die so genannten Jungfrauenvereine, von ihrer Entstehung in den 1840er Jahren bis zum 1. Weltkrieg, sowie insbesondere den 1893 gegründeten Verband der evangelischen Jungfrauenvereine Deutschlands (später Evangelischer Verband zur Pflege der weiblichen Jugend Deutschlands, ab 1929 Evangelischer Reichsverband weiblicher Jugend). In der ersten Hälfte des 19. Jahrhundert begann ein Teil des protestantischen Bürgertums damit, für die hochmobilen Unterschichts-Jugendlichen, die im Zuge der Industrialisierung als Handwerksgesellen und Dienstmädchen, später als Fabrikarbeiter und -arbeiterinnen in die expandierenden Großstädten gingen, Herbergen und Vereine zu gründen. Damit trugen die Initiatoren wesentlich zur Entstehung eines öffentliches Bewusstsein für die prekäre Lebenssituation der Unterschichtsjugend und für die Notwendigkeit präventiver Jugendarbeit bei. Der Verband initiierte dann in den Jahren um 1900 zahlreiche innovative soziale Projekte in der weiblichen Jugendpflege und Jugendfürsorge. Die Arbeit untersucht drei Bereiche: 1. Vereine (sog. Abendheime) und Wohnheime für Fabrikarbeiterinnen; 2. die 1894 begonnene Bahnhofmission, die sich der mobilen weiblichen Jugendlichen direkt an die Bahnhöfen annahm; 3. Erholungshäuser für erwerbstätige Jugendliche. Bei allen Initiativen arbeitete der Verband eng mit seinem lokalen Partner, dem Berliner Verein zur Fürsorge für die weibliche Jugend zusammen, der neue Arbeitsbereiche in der Praxis testete. Neben der Verbandsgeschichte im engeren Sinne thematisiert die Untersuchung auch die Konzeption und die Inhalte der Vereinsarbeit. Orientiert an dem Konzept einer christlichen Persönlichkeitsbildung sollte die Vereinsarbeit möglichst viele Bereiche jugendlichen Lebens umfassen: Arbeit (inkl. Erholungsurlaub), Wohnen, Freizeit (Geselligkeit, Lektüre), Gesundheit und Bildung. Da jedoch aufgrund der Orientierung an einem konservativen Frauenbild der Bereich jugendlicher Sexualität bewusst ausgeklammert wurde, erreichte man mit diesem Konzept präventiver Jugendarbeit im wesentlichen nur die ohnehin wohlanständigen Jugendlichen. Die Spannung zwischen einem konservativen Frauenbild einerseits und den modernisierenden Impulsen einer Jugendarbeit mit weiblichen Jugendlichen andererseits zeigt sich auch daran, dass der Verband durch die Gründung eines Berufsverbandes für Sozialarbeiterinnen (Verband der Berufsarbeiterinnen der Inneren Mission) und der Einrichtung von Ausbildungsstätten wesentlichen Anteil an den modernisierenden Prozessen der Verberuflichung der sozialen Arbeit und der kirchlichen Jugendpflege zu Berufen bürgerlicher Frauen hatte.
Seit einiger Zeit ist zu beobachten, dass sich das Bild von den Ostdeutschen, das von Medien, Politik und Wissenschaft gezeichnet wird, verändert. In den ersten Jahren nach 1990 stand vor allem das politische System der DDR mit seinen Wirkungen auf Verhaltensweisen, Mentalitäten der Menschen im Vordergrund. Die Ostdeutschen wurden mit ihren Gewohnheiten, Wertvorstellungen und Einstellungen an bundesdeutschen Standards gemessen und als veraltet und einer ‚nachholenden Modernisierung’ bedürftig angesehen. Nun aber treten andere Perspektiven in den Vordergrund, die die Ostdeutschen zu ‚Wunschprotagonisten’ gesellschaftlichen Umbaus machen. Der Blick richtet sich auf habituelle Ressourcen, die ostdeutsche Frauen und Männer als ‚biografisches Gepäck’ aus der DDR in die neue Republik mitgebracht und in einem komplexen und widersprüchlichen Prozess von Anpassung und eigensinniger Behauptung zu Wahrnehmungs- und Deutungsmustern sowie praktischen Arrangements transformiert haben. Politiker wie Wissenschaftler schreiben nun den Ostdeutschen – gerade aufgrund ihrer gemachten Transformationserfahrungen – einen Vorsprung im Umgang mit radikalen gesellschaftlichen Verwerfungen zu, der für den aktuell anstehenden Strukturwandel genutzt werden kann. Empirische Untersuchungen, die diese These erhärten, sind bislang allerdings eher selten. Und unter ihnen sind Forschungen darüber, welchen Einfluss die gesellschaftlichen Veränderungen im Osten Deutschlands seit 1989/90 auf die Geschlechterverhältnisse, die praktizierten Geschlechterarrangements und Geschlechtervorstellungen hatten bzw. wie diese mit ihrer DDR-geschichtlichen Färbung die Transformationsprozesse in den neuen Ländern beeinflussen, noch einmal marginal. Bis heute ist eine gendersensible Sicht auf die skizzierten Veränderungen selten. Und dies, obwohl gerade an den Geschlechterarrangements und am eigensinnigen Festhalten ostdeutscher Frauen aber auch von Männern an Vorstellungen und Alltagspraktiken, die durch den DDR-Geschlechtervertrag geprägt sind, exemplarisch gezeigt werden kann, wie widersprüchlich ostdeutsche Mentalitäten und Werte sind und welche ambivalenten Wirkungen aus ihnen für den gesellschaftlichen Strukturwandel resultieren (können). Mit dem Themenschwerpunkt "Geschlechterverhältnisse in Ostdeutschland" wollen die Potsdamer Studien zur Frauen- und Geschlechterforschung aus gendersensibler Perspektive und auf der Basis empirischer Forschungen einen Beitrag zu den aktuellen Debatten über den Gesellschaftsumbau leisten.
Blockfreienbewegung
(2003)
OSZE in Zentralasien
(2003)
Inhalt: - Ungereimtheiten bei der verfassungskonformen Auslegung (Michael Dawin) - Über den Willen des Gesetzgebers als Auslegungsmethode: Die genetische Interpretation in der Rechtsprechung des Verfassungsgerichts Brandenburg (Matthias Dombert) A. Anlass B. Die Auslegung der Verfassung C. Die genetische Interpretation in der Rechtsprechung des LVerfG F. Zur Bewertung - Verantwortungsabgrenzung Verfassungsgerichtsbarkeit/Fachgerichtsbarkeit (Peter Macke)
Im Bereich der medizinischen Diagnostik spielen DNA-Chips eine immer wichtigere Rolle. Dabei werden Glas- oder Silikon-Oberflächen mit Tausenden von einzelsträngigen DNA-Fragmenten, sog. Sonden, bestückt, die mit den passenden DNA-Fragmenten in der zugefügten Patientenprobe verschmelzen. Die Auswertung solcher Messungen liefert die Diagnose für Krankheiten wie z.B. Krebs, Alzheimer oder für den Nachweis pathogener Erreger. Durch fortschreitende Miniaturisierung dieser Meßsysteme können bis zu 40.000 Genfragmente des Menschen in einer einzigen Messung analysiert werden. Neben den DNA-Fragmenten können Bio-Chips auch für andere biologische Komponenten wie Antikörper und Proteine eingesetzt werden, wobei bei letzteren neben der Bindung auch die Aktivität ein wichtiger Diagnoseparamter ist. Am Fraunhofer-Institut für medizinische Technik und am Lehrstuhl für Analytische Biochemie der Universität Potsdam wurden im Rahmen einer Doktorarbeit Methoden entwickelt, die es ermöglichen auf nukleinsäuremodifizierten Sensoroberflächen die Aktivität von Proteinen zu messen. Es wurden Nukleinsäuren auf Oberflächen optischer Sensoren verankert. Diese fungierten als Rezeptor für die Proteine sowie auch als Substrat für Restriktionsenzyme, die Nukleinsäuren schneiden und Polymerasen, die Nukleinsäuren synthetisieren und verlängern können. Seine Anwendung fand diese Messmethode in der Messung der Aktivität des Proteins Telomerase, das in 90% aller Tumore erhöhte Aktivität gegenüber gesunden Zellen aufweist. Die Vorteile dieses neuen Assays gegenüber älteren Methoden liegt im Verzicht auf radioaktiv-markierten Komponenten und einer deutlich verkürzten Analysezeit. Die Arbeit schliesst mit einem funktionsfähigen Nachweis der Telomeraseaktivität im Zellextrakt von gesunden und kranken Zellen. Der direkte Einfluß von Hemmstoffen auf die Aktivität konnte sichtbar gemacht werden, und steht daher bei der Entwicklung neuer Tumor-Diagnostika und Therapeutika zur Verfügung.
Tell Basta
(2003)
ARCUS 5 legt die Befunde und Funde der XIV. Grabungskampagne (2002) in Tell Basta (Bubastis) vor. Im Vordergrund stehen die Grabungsarbeiten im Eingangsbereich des Bastet-Tempels, insbesondere die Freilegung einer kolossalen Königinnenstatue und großer Säulenteile. Darüber hinaus wird die epigraphische und photographische Aufnahme der Reliefs aus dem Nektanebos-Tempel behandelt, verbunden mit einer architektonischen Wertung der Anlage. Die Vermessungsarbeiten konzentrierten sich auf die Vernetzung der früher vermessenen Bereiche, insbesondere von Bastet-Tempel und Pepi-Tempel. Mit Hilfe von digitaler Aufnahme wurden 3D-Modelle der Königinnenstatue und einiger Säulenfragmente erstellt. Die Durchführung materialkundlicher Untersuchungen von Statuen, Reliefs und Säulen aus Granitgneis diente der petrographischen Charakterisierung, der Suche nach Hinweisen auf die Steinbruchsherkunft sowie der Bestimmung des Verwitterungszustands. Im Skulpturengarten wurden sämtliche 25 dort aufgestellten Objekte ausführlich beschrieben. Schließlich liegen Berichte über die Restaurierungsarbeiten an ausgewählten Stücken aus dem Skulpturengarten vor.
Der vorliegende Sammelband dokumentiert die Ergebnisse einer internationalen wissenschaftlichen Tagung - bereits der siebenten in Folge - des Instituts für Pädagogik der Universität Potsdam. Sie ist wesentlicher Bestandteil einer nun schon mehrjährigen vertraglichen Kooperation zwischen Wissen-schaftlern aus lehrerbildenden Hochschulen in Belarus’, in Polen (drei beteiligte Universitäten), in Russland sowie der Universität Potsdam. Die Tagung fand im September 2002 statt, diesmal auch (wieder) mit ungarischer Beteiligung. Die gemeinsame Begleitung und Reflexion der in den beteiligten Ländern verlaufenden Reformprozesse im Bildungswesen wird durch die finanzielle Förderung durch den Deutschen Akademischen Auslandsdienst (DAAD) möglich. Im Mittelpunkt der Analysen und Diskussionen auf der Tagung standen Situation, Problemfelder und Defizite in der aktuellen Lehreraus- und -weiterbildung sowie Ansätze zur Weiterentwicklung und Reformierung der Lehrerbildung in den beteiligten Ländern. Zunächst werden in einem Resümee die grundlegenden Ergebnisse der Tagung zusammengefasst. Ein-gangs dieses Resümees wird traditionsgemäß aktuelle Bilanz gezogen, wie die konkrete Bildungsreform im jeweiligen Land im vergangenen Jahr voran kam, welche Probleme sichtbar wurden. In 15 Einzelbeiträgen wird ein facettenreiches Bild von Strukturen, Problemlagen und Entwicklungen in der Lehrerbildung der beteiligten Länder gezeichnet. Dazu werden aktuelle Ausbildungsformen einer kritischen Bilanz unterzogen und konkrete Anstrengungen und Perspektiven zur Weiterentwicklung und Qualifizierung der Lehrerbildung beschrieben.