Refine
Has Fulltext
- yes (127) (remove)
Year of publication
- 2003 (127) (remove)
Document Type
- Doctoral Thesis (44)
- Monograph/Edited Volume (26)
- Article (19)
- Postprint (13)
- Working Paper (11)
- Part of Periodical (10)
- Habilitation Thesis (2)
- Review (2)
Is part of the Bibliography
- yes (127) (remove)
Keywords
- Theologie (3)
- 1849 (2)
- Australien (2)
- Biogenic amine (2)
- Flow-Erleben (2)
- G protein-coupled receptor (2)
- Klima (2)
- climate (2)
- 'Reduced-Form' Modellierung (1)
- 'coupling sensitivity' (1)
Institute
- Institut für Biochemie und Biologie (18)
- Wirtschaftswissenschaften (17)
- Institut für Umweltwissenschaften und Geographie (15)
- MenschenRechtsZentrum (14)
- Institut für Physik und Astronomie (12)
- Extern (9)
- Department Psychologie (8)
- Institut für Geowissenschaften (5)
- Kommunalwissenschaftliches Institut (5)
- Referat für Presse- und Öffentlichkeitsarbeit (5)
Inhalt:
- Eberhard Knobloch und Ingo Schwarz: Alexander von Humboldt und Hector Berlioz
- Oliver Lubrich: „[M]on extrême répugnance à écrire la relation de mon voyage“ – Alejandro de Humboldt deconstruye la relación de viaje
- Eva-Maria Siegel: Repräsentation und Augenschein. Organisation des Wissens und Wahrnehmung des Fremden um 1800 am Beispiel der Reiseberichte und -tagebücher Alexander von Humboldts
- Engelhard Weigl: Acclimatization: The Schomburgk brothers in South Australia
Inhalt:
- Ursula Thiemer-Sachse: El “Museo histórico indiano” de Lorenzo Boturini Benaduci y los esfuerzos del erudito alemán Alejandro de Humboldt para preservar sus restos para una interpretación científica
- Ursula Thiemer-Sachse: Petroglifos en rocas de la Cordillera de la Costa así como en los raudales de los ríos de la selva virgen venezolana. La interpretación por Alejandro de Humboldt y observaciones actuales
- Ingo Schwarz: „Ein beschränkter Verstandesmensch ohne Einbildungskraft“ – Anmerkungen zu Friedrich Schillers Urteil über Alexander von Humboldt
- Michael Zeuske: Humboldteanización del mundo occidental? La importancia del viaje de Humboldt para Europa y América Latina
In ihrer jetzigen Gestalt greift die Studie die aktuellen rechtlichen und tatsächlichen Entwicklungen auf, die die Strafverfolgung von Menschenrechtsverletzern aufwirft. Das Individuum ist im zwanzigsten Jahrhundert nicht nur zum Inhaber völkerrechtlich begründeter Rechtspositionen - der Menschenrechte - geworden. Der einzelne muss mittlerweile auch damit rechnen, für schwere Menschenrechtsverletzungen auf der Grundlage des Völkerrechts strafrechtlich zur Verantwortung gezogen zu werden. Für die Durchsetzung der Menschenrechte ist dies ein weiterer bedeutender Schritt.
Bericht über die Arbeit des Menschenrechtsausschusses der Vereinten Nationen im Jahre 2002 - Teil I • Der Menschenrechtskommissar des Europarats • Türkei widersetzt sich weiterhin einem Urteil des Europäischen Gerichtshofs für Menschenrechte • Menschenrechtskammer für Bosnien-Herzegowina: Hadz Boudellaa u. a../. Bosnien-Herzegowina und die Föderation von Bosnien-Herzegowina
Tagungsbericht: Mahler, Claudia ; Weiß, Norman: Konferenz „Consolidating Antracism and Minority Rights: CriticalApproaches" <2003, Berlin> / veranstaltet von der Forschergruppe Restra, dem Institut für Menschenrechte, der Abo Akademi University und dem Northern Institute for Environmental and Minority Law, der University of Lappland sowie dem Deutschen Institut für Menschenrechte und dem Finnland-Institut in Deutschland am 12., 13. Juni
Stichwort: Das Übereinkommen zur Beseitigung jeder Form von rassischer Diskriminierung (CERD)
(2003)
Biogenic amines and their receptors regulate and modulate many physiological and behavioural processes in animals. In vertebrates, octopamine is only found in trace amounts and its function as a true neurotransmitter is unclear. In protostomes, however, octopamine can act as neurotransmitter, neuromodulator and neurohormone. In the honeybee, octopamine acts as a neuromodulator and is involved in learning and memory formation. The identification of potential octopamine receptors is decisive for an understanding of the cellular pathways involved in mediating the effects of octopamine. Here we report the cloning and functional characterization of the first octopamine receptor from the honeybee, Apis mellifera . The gene was isolated from a brain-specific cDNA library. It encodes a protein most closely related to octopamine receptors from Drosophila melanogaster and Lymnea stagnalis . Signalling properties of the cloned receptor were studied in transiently transfected human embryonic kidney (HEK) 293 cells. Nanomolar to micromolar concentrations of octopamine induced oscillatory increases in the intracellular Ca2+ concentration. In contrast to octopamine, tyramine only elicited Ca2+ responses at micromolar concentrations. The gene is abundantly expressed in many somata of the honeybee brain, suggesting that this octopamine receptor is involved in the processing of sensory inputs, antennal motor outputs and higher-order brain functions.
Inhalt: - Ungereimtheiten bei der verfassungskonformen Auslegung (Michael Dawin) - Über den Willen des Gesetzgebers als Auslegungsmethode: Die genetische Interpretation in der Rechtsprechung des Verfassungsgerichts Brandenburg (Matthias Dombert) A. Anlass B. Die Auslegung der Verfassung C. Die genetische Interpretation in der Rechtsprechung des LVerfG F. Zur Bewertung - Verantwortungsabgrenzung Verfassungsgerichtsbarkeit/Fachgerichtsbarkeit (Peter Macke)
Der vorliegende Sammelband dokumentiert die Ergebnisse einer internationalen wissenschaftlichen Tagung - bereits der siebenten in Folge - des Instituts für Pädagogik der Universität Potsdam. Sie ist wesentlicher Bestandteil einer nun schon mehrjährigen vertraglichen Kooperation zwischen Wissen-schaftlern aus lehrerbildenden Hochschulen in Belarus’, in Polen (drei beteiligte Universitäten), in Russland sowie der Universität Potsdam. Die Tagung fand im September 2002 statt, diesmal auch (wieder) mit ungarischer Beteiligung. Die gemeinsame Begleitung und Reflexion der in den beteiligten Ländern verlaufenden Reformprozesse im Bildungswesen wird durch die finanzielle Förderung durch den Deutschen Akademischen Auslandsdienst (DAAD) möglich. Im Mittelpunkt der Analysen und Diskussionen auf der Tagung standen Situation, Problemfelder und Defizite in der aktuellen Lehreraus- und -weiterbildung sowie Ansätze zur Weiterentwicklung und Reformierung der Lehrerbildung in den beteiligten Ländern. Zunächst werden in einem Resümee die grundlegenden Ergebnisse der Tagung zusammengefasst. Ein-gangs dieses Resümees wird traditionsgemäß aktuelle Bilanz gezogen, wie die konkrete Bildungsreform im jeweiligen Land im vergangenen Jahr voran kam, welche Probleme sichtbar wurden. In 15 Einzelbeiträgen wird ein facettenreiches Bild von Strukturen, Problemlagen und Entwicklungen in der Lehrerbildung der beteiligten Länder gezeichnet. Dazu werden aktuelle Ausbildungsformen einer kritischen Bilanz unterzogen und konkrete Anstrengungen und Perspektiven zur Weiterentwicklung und Qualifizierung der Lehrerbildung beschrieben.
Dopamine is found in many invertebrate organisms, including insects, however, the mechanisms through which this amine operates remain unclear. We have expressed two dopamine receptors cloned from honey bee (AmDOP1 and AmDOP2) in insect cells (Spodoptera frugiperda), and compared their pharmacology directly using production of cAMP as a functional assay. In each assay, AmDOP1 receptors required lower concentrations of dopamine and 6,7-ADTN for maximal activation than AmDOP2 receptors. Conversely, butaclamol and cis(Z)-flupentixol were more potent at blocking the cAMP response mediated through AmDOP2 than AmDOP1 receptors. Expression of AmDOP1, but not AmDOP2, receptors significantly increased levels of cAMP even in the absence of ligand. This constitutive activity was blocked by cis(Z)-flupentixol. This work provides the first evidence of a constitutively activated dopamine receptor in invertebrates and suggests that although AmDOP1 and AmDOP2 share much less homology than their vertebrate counterparts, they display a number of functional parallels with the mammalian D1-like dopamine receptors.
Electro-chemical signal transduction is the basis of communication between n eurons and their target cells. An important group of neuroactive substances that are released by action potentials from neurons are the biogenic amines. These a re small organic molecules that bind to specific receptors located in the target cell membrane. Once activated these receptors cause changes in the intracellula r concentration of second messengers, i.e. cyclic nucleotides, phosphoinositides , or Ca2+, leading to slow but long-lasting cellular responses. Biochemical, pha rmacological, physiological, and molecular biological approaches have unequivoca lly shown that biogenic amines are important regulators of cellular function in both vertebrates and invertebrates. In this review, we will concentrate on the p roperties of two biogenic amines and their receptors that were originally identi fied in invertebrates: tyramine and octopamine.
OSZE in Zentralasien
(2003)
Blockfreienbewegung
(2003)
Jahresbericht 2002
(2003)
Inhalt 1. Allgemeiner Überblick 2. Leitung und Mitarbeiter 3. Aktivitäten im Berichtszeitraum 3.1 Forschungsvorhaben 3.2 Tagungen 3.3 Lehrveranstaltungen 3.4 Vorträge 3.5 Publikationen - Neuerscheinungen 2002 3.6 Bibliothek 3.7 Chronologie der Aktivitäten 4. Förderverein 5. Abstract: Annual Report 2002 6. Anhang 6.1 Bisherige Tagungen 6.2 Schriften des MenschenRechtsZentrums
Der Große Tempel der Bastet in Tell Basta (Bubastis), der in der Libyer- und Spätzeit monumental ausgebaut wurde, besaß während des gesamten ersten vorchristlichen Jahrtausends nachweislich große Bedeutung. Diese gründete sich auf den raschen Aufstieg der Stadt während der Libyerzeit, als die Herrscher der 22. Dynastie diese zu ihrer Residenzstadt erkoren, was auch eine enorme Aufwertung des Heiligtums der Stadtgöttin Bastet nach sich zog. Ziel der jetzigen archäologischen Arbeit im Großen Tempel von Tell Basta ist es, Grundriß, Ausstattung und Baugeschichte dieses Bauwerks zu erforschen und in Teilen zu rekonstruieren. Neben der archäologischen Erforschung dieses Bauwerks ist inzwischen aber ein neuer Aufgabenkreis entstanden, dessen Bewältigung auch über den Fortgang der Forschung selbst entscheiden wird: der Erhalt und die Pflege des Tempels. Nicht allein vergängliche Baumaterialien sind gefährdet, inzwischen ist auch Steinarchitektur von der Zerstörung bedroht. Seit einigen Jahren gehören daher Restauratoren mit zum Grabungsteam, und vor Ort konnten bereits erste Erfolge bei der Konservierung von Steinobjekten erzielt werden. Dabei zeigte sich aber auch, daß verschiedene Problemfelder neuer Lösungen bedürfen, die erst entwickelt und erprobt werden müssen. Der Weitergabe so gewonnener Erfahrungen soll dieser Band mit den Schwerpunkten Dokumentationstechniken, Restaurierung und Rekonstruktion dienen.
Tell Basta
(2003)
ARCUS 5 legt die Befunde und Funde der XIV. Grabungskampagne (2002) in Tell Basta (Bubastis) vor. Im Vordergrund stehen die Grabungsarbeiten im Eingangsbereich des Bastet-Tempels, insbesondere die Freilegung einer kolossalen Königinnenstatue und großer Säulenteile. Darüber hinaus wird die epigraphische und photographische Aufnahme der Reliefs aus dem Nektanebos-Tempel behandelt, verbunden mit einer architektonischen Wertung der Anlage. Die Vermessungsarbeiten konzentrierten sich auf die Vernetzung der früher vermessenen Bereiche, insbesondere von Bastet-Tempel und Pepi-Tempel. Mit Hilfe von digitaler Aufnahme wurden 3D-Modelle der Königinnenstatue und einiger Säulenfragmente erstellt. Die Durchführung materialkundlicher Untersuchungen von Statuen, Reliefs und Säulen aus Granitgneis diente der petrographischen Charakterisierung, der Suche nach Hinweisen auf die Steinbruchsherkunft sowie der Bestimmung des Verwitterungszustands. Im Skulpturengarten wurden sämtliche 25 dort aufgestellten Objekte ausführlich beschrieben. Schließlich liegen Berichte über die Restaurierungsarbeiten an ausgewählten Stücken aus dem Skulpturengarten vor.
Seit einiger Zeit ist zu beobachten, dass sich das Bild von den Ostdeutschen, das von Medien, Politik und Wissenschaft gezeichnet wird, verändert. In den ersten Jahren nach 1990 stand vor allem das politische System der DDR mit seinen Wirkungen auf Verhaltensweisen, Mentalitäten der Menschen im Vordergrund. Die Ostdeutschen wurden mit ihren Gewohnheiten, Wertvorstellungen und Einstellungen an bundesdeutschen Standards gemessen und als veraltet und einer ‚nachholenden Modernisierung’ bedürftig angesehen. Nun aber treten andere Perspektiven in den Vordergrund, die die Ostdeutschen zu ‚Wunschprotagonisten’ gesellschaftlichen Umbaus machen. Der Blick richtet sich auf habituelle Ressourcen, die ostdeutsche Frauen und Männer als ‚biografisches Gepäck’ aus der DDR in die neue Republik mitgebracht und in einem komplexen und widersprüchlichen Prozess von Anpassung und eigensinniger Behauptung zu Wahrnehmungs- und Deutungsmustern sowie praktischen Arrangements transformiert haben. Politiker wie Wissenschaftler schreiben nun den Ostdeutschen – gerade aufgrund ihrer gemachten Transformationserfahrungen – einen Vorsprung im Umgang mit radikalen gesellschaftlichen Verwerfungen zu, der für den aktuell anstehenden Strukturwandel genutzt werden kann. Empirische Untersuchungen, die diese These erhärten, sind bislang allerdings eher selten. Und unter ihnen sind Forschungen darüber, welchen Einfluss die gesellschaftlichen Veränderungen im Osten Deutschlands seit 1989/90 auf die Geschlechterverhältnisse, die praktizierten Geschlechterarrangements und Geschlechtervorstellungen hatten bzw. wie diese mit ihrer DDR-geschichtlichen Färbung die Transformationsprozesse in den neuen Ländern beeinflussen, noch einmal marginal. Bis heute ist eine gendersensible Sicht auf die skizzierten Veränderungen selten. Und dies, obwohl gerade an den Geschlechterarrangements und am eigensinnigen Festhalten ostdeutscher Frauen aber auch von Männern an Vorstellungen und Alltagspraktiken, die durch den DDR-Geschlechtervertrag geprägt sind, exemplarisch gezeigt werden kann, wie widersprüchlich ostdeutsche Mentalitäten und Werte sind und welche ambivalenten Wirkungen aus ihnen für den gesellschaftlichen Strukturwandel resultieren (können). Mit dem Themenschwerpunkt "Geschlechterverhältnisse in Ostdeutschland" wollen die Potsdamer Studien zur Frauen- und Geschlechterforschung aus gendersensibler Perspektive und auf der Basis empirischer Forschungen einen Beitrag zu den aktuellen Debatten über den Gesellschaftsumbau leisten.
Kundenanalyse und Evaluierung zu eGovernment im Kfz-Zulassungswesen : zwei empirische Studien
(2003)
Vorwort: Bevor eGovernment umgesetzt wird, sollte eine Nutzer- oder Kundenanalyse durchgeführt werden und nachdem eGovernment umgesetzt wurde, eine Evaluierung. Obwohl das bei allen Reformprojekten – einschließlich der eGovernmentprojekte – als selbstverständlich vorausgesetzt werden müsste, fehlen häufig solche Analyse- und Evaluierungsstudien. In Nutzeranalysen ist zu klären, was der Kunde eigentlich will und wie die Leistungsstruktur tatsächlich verbessert werden kann, um nicht teure Lösungen ohne Nutzen zu etablieren. Häufig stehen jedoch Projekte unter hohem Zeitdruck, so dass auf allzu detaillierte Nutzeranalysen verzichtet wird. Man meint zu wissen, was der Kunde will, weil die Lösungen in den Reformköpfen schon vorhanden sind. Nach nunmehr einigen Jahren eGovernment treten bei vielen Akteuren erste Ernüchterungserscheinungen über Machbarkeit und Nutzen elektronischer Leistungsabwicklung auf. Aus heutiger Sicht hätte mancherorts eine fundierte Nutzeranalyse – gegenüber naivem und hastigem Technikeuphorismus – manchen Steuereuro gespart. In solchen Projekten haben die Entscheider dann wohl auch kein Interesse an Evaluierungen. Eine Evaluierung, als Prüfung/ Bewertung einer Leistungsstruktur durch eine externe Expertengruppe, ist jedoch Grundvoraussetzung um Mängel aufzudecken und zu beseitigen. Gerade durch den externen Blick ist es möglich, Fehlentwicklungen sichtbar zu machen, die handelnde Akteure in der Verwaltung nicht oder nicht mehr sehen. Der vorliegende Projektbericht besteht aus einer Nutzer- bzw. Kundenanalyse und einer Evaluierung eines eGovernment-Projektes (eLoGo) im Bereich des Kfz- Zulassungswesen. Dabei ging es um die Verlagerung von Leistungen des Kreises in die Gemeinde durch neue Informationstechnologien im Kreis Potsdam- Mittelmark. Über eine Front-Office/Back-Office-Architektur werden Kfz-Leistungen in der Gemeinde angeboten, während die Verantwortung für die IT-Infrastruktur und die Datenhaltung weiterhin im kreislichen Straßenverkehrsamt bleibt. Das Ergebnis der Kundenanalyse hat Eingang in einen Konzeptionsvorschlag zur Neugestaltung der Leistungserbringung in diesem Bereich gefunden (siehe KWI-Projektbericht 2). Nach der Etablierung der neuen Leistungsstruktur wurde eine Evaluierung vorgenommen. Diese Evaluierung ist Grundlage für die weitere Verbesserung der Leistungsstruktur, womit der „Projektkreislauf“ geschlossen ist. Auch wenn sich die hier dargestellten Nutzeranalyse und Evaluierung auf das Kfz- Zulassungswesen beziehen, sind Methodik und Herangehensweise auch auf andere öffentliche Leistungen übertragbar.
Die eGovernment-Aktivitäten Brandenburger Kommunen : Ergebnisse einer empirischen Untersuchung
(2003)
Thema und Zielsetzung der Arbeit: Electronic Government ist in den vergangenen Jahren zu einem wichtigen Modernisierungsthema für die öffentliche Verwaltung geworden. Durch das Internet wurde ein zusätzlicher Distributions- und Zugangskanal für Verwaltungsleistungen geschaffen. Der Bürger kann über Internetportale der Verwaltungen angebotene Informationen und Dienstleistungen unabhängig von Zeit und Ort nutzen. Davon profitiert insbesondere der ländlich geprägte (kreisangehörige) Raum, da der Bürger hier oft lange Wege zur Verwaltung zurücklegen muss. Die Bereitstellung von neuen Informations- und Dienstleistungsangeboten für den Bürger im Internet ist aber nur ein erster Schritt. Das eigentliche Modernisierungspotenzial von eGovernment liegt in der digitalen Neugestaltung von Prozessen und Strukturen innerhalb einer Verwaltung und der Beziehungen zu ihren externen Partnern (andere Behörden, Unternehmen, etc.). Durch die Nutzung der neuen Informations- und Dienstleistungsangebote im Internet stößt der Bürger digitale Verwaltungsprozesse an, die teils bis hin zur Distribution von Verwaltungsleistungen medienbruchfrei, digital gestaltet werden können. Zudem ermöglicht der breite Einsatz internetbasierter Informations- und Kommunikationstechnologie (IuK-Technologie) den Einbezug externer Partner über Organisationsgrenzen und interne Bereichsgrenzen hinweg. Der besonderen Situation der Umsetzung von eGovernment im ländlichen Raum widmet sich das Projekt eLoGo am Kommunalwissenschaftlichen Institut der Universität Potsdam, dass seit dem 01. Januar 2001 vom Brandenburgischen Ministerium für Wissenschaft, Forschung und Kultur gefördert wird. Projektziel von eLoGo ist die Umsetzung und Konzeptionierung von eGovernment unter besonderer Berücksichtigung der Verhältnisse im ländlichen kreisangehörigen Raum. Informationen zur Arbeit von eLoGo finden sie im Internet unter: www.e-lo-go.de oder www.ifg.cc. Die von eLoGo vorgenommene Untersuchung bezieht sich auf zwei Bereiche: Erstens auf den Internetauftritt (Webcheck) und zweitens auf die „e-Aktivitäten“ hinter dem Portal. In einem ersten Schritt wurde im Zeitraum von April bis Juni 2002 das Internetangebot Brandenburger Kommunalverwaltungen untersucht. Anschließend wurden dann durch qualitative Befragungen in ausgewählten Kommunalverwaltungen die internen eGovernment- Aktivitäten erhoben, wie z.B. die Prozessintegration. Ziel der Untersuchung ist es, die eGovernment-Aktivitäten Brandenburger Kommunen zu bewerten, „bad“- und „good-practice“-Fälle herauszufiltern und aus den Ergebnissen erste Handlungsfelder für Politik und Verwaltung in Brandenburg aufzuzeigen.
Aus der Einleitung: Die Produktion kommunaler Dienstleistungen steht unter massivem Wettbewerbsdruck. In den vergangenen Jahren sind kommunale Dienstleistungen einer Vielzahl von alternativen Erstellungsformen zugeführt worden. Die Neuorganisation der Produktions- und Wertschöpfungskette im öffentlichen Sektor ist dabei identisch mit der Neuorganisation der Produktion in der Industrie. Der Trend geht in Deutschland – wie auch in anderen europäischen Staaten – zu einer Vermarktlichung der Dienstleistungsproduktion. Durch die Dezentralisierung der Fach- und Ressourcenverantwortung, neue Formen der Budgetierung und einer Ausrichtung an betriebswirtschaftlichen Instrumenten sind öffentliche Dienstleistungen näher an marktlich ausgerichtete Produktionsformen geführt worden. Anfang der 90er Jahre ging es auf lokaler Ebene vor allem um die Privatisierung der Netzdienstleistungen (z.B. Strom, Gas, Wasser) sowie um die operativ-technischen Dienstleistungen (z.B. Hausmüll, Stadtreinigung). Die desolate Situation der kommunalen Haushalte und die betriebswirtschaftlich geprägte Diskussion um die Modernisierung der Kommunalverwaltung haben die Vermarktlichung jedoch massiv beschleunigt. Vermarktlichung in Deutschland ist auf Privatisierung verkürzt, nicht aber auf die Wettbewerbsfähigkeit der öffentlichen Dienstleistungsproduktion ausgerichtet. Schrittweise werden sämtliche externen und internen Dienstleistungen dem Markt „ausgesetzt“. Die Vermarktlichung der Produktion hat dabei eine Vielzahl von Facetten. Institutionell kann ein massiver Trend in Richtung Ausgliederungen in Regie- und Eigenbetriebe, Rechtsformwandel in kommunale GmbHs, Auslagerungen durch Vergabe und Outsourcing sowie die materielle Privatisierung der Dienstleistungsproduktion festgestellt werden. Die Produktionsverantwortung wird somit entweder aus dem unmittelbaren Verantwortungsbereich der Kommune verlagert, oder sie liegt teilweise gar nicht mehr bei der Kommunalverwaltung. Prozessual gehen immer mehr Kommunen dazu über, marktliche Instrumente (z.B. Kontraktmanagement, Budgetierung, Kundenbefragungen) in ihre Produktion einzubauen, um damit Nachteile der traditionellen bürokratischen Eigenproduktion zu überwinden. Obwohl der Wandel in den Rathäusern damit eine neue Dimension erreicht hat, weil zunehmend die gesamte kommunale Dienstleistungsproduktion unter Wettbewerbsdruck steht, liegen bisher kaum empirische Erfahrungen vor. Die empirische Forschungslücke bezieht sich vor allem auf die Gestaltung des Wettbewerbs und auf das Marktergebnis. Hinlänglich sind Privatisierungen realisiert worden, aber die Frage, ob und wie die öffentliche Dienstleistungsproduktion wettbewerbsfähig gestaltet werden kann, ist bislang nicht zu beantworten. Das von der Hans-Böckler-Stiftung geförderte Forschungsprojekt „Konkurrieren statt Privatisieren“, das seit August 2002 am Kommunalwissenschaftlichen Institut der Universität Potsdam durchgeführt wird, untersucht, welche Lösungsstrategien Kommunen entwickeln, um sich den Anforderungen des Wettbewerbes zu stellen und welche Wirkungen sich für die Kommune und den kommunalen Dienstleistungsproduzenten ergeben. Dabei konzentriert sich das Projekt auf ausgewählte interne und externe Dienstleistungen.
Aus dem Vorwort: Das vorliegende Dokument stellt einen ersten Konzeptentwurf für die Umsetzung von eGovernment im Amt für Verkehrswesen dar und dient in erster Linie als Informations- und Entscheidungsgrundlage für die Umsetzung im Brandenburgischen Landkreis Potsdam-Mittelmark. Die vorliegende Konzeption verdeutlicht gleichzeitig die Komplexität solcher Projekte. Die Autoren hoffen, dass Entscheidungsträger in Land und Kommune dieses Dokument auch als Anstoß und Anregung verstehen, neue Wege in der Umsetzung zu beschreiten. Obwohl es sich im AfV mit seinen drei Aufgabenbereichen Allgemeines Verkehrswesen, Kfz-Zulassung und Führerscheinstelle um relativ strukturierte Prozesse handelt, ist der Veränderungsaufwand - wenn man über das Online- Wunschkennzeichen hinausgehen will - enorm. Die vorliegende Konzeption stellt eine umfassende Dokumentation dar, die technische, juristische und organisatorische Aspekte verknüpft. Diese Interdisziplinarität hat eine zum Teil inkonsistente Begriffsverwendung zur Folge, die zu Gunsten einer höheren Genauigkeit bewusst in Kauf genommen wird. Es ist klar, dass eine solche Dokumentation nicht jeden Bereich bis ins Detail erfassen kann. Die Autoren wünschen sich, dass diese Konzeption auch als Anregung für einen weiteren Austausch und zur Diskussion zwischen Wissenschaft und Praxis sowie zwischen Entscheidungsträgern und Leistungserbringern verstanden wird. Anregungen werden gern aufgenommen und in zukünftige Fassungen eingearbeitet.
Das vorliegende Papier eröffnet eine Reihe von Projektberichten zum Thema "Integrierte Kommunalverwaltung/eGovernment". Es umreisst die theoretischen und praktischen Ausgangslagen und versucht anhand einiger Szenarien Entwicklungsmöglichkeiten im Bereich der Verwaltung im ländlichen Raum aufzuzeigen. Im Anschluss werden die Projektinhalte und -module erläutert, sowie Problemschwerpunkte exemplarisch dargestellt. Ein besonderer Schwerpunkt wird dabei auf das Konzept der integrierten Kommunalverwaltung gelegt. Aufgaben der Gemeinden und Kreise sollen für den Bürger aus einer Hand angeboten werden können, ohne dass hier rechtliche Grenzen verwischt werden. Darüber hinaus soll den Bürgern die Wahl des Zugangskanals zur Verwaltung ermöglicht werden: - via Internet über das Virtuelle Rathaus, - via Servicemobil oder - durch den Multifunktionalen Serviceladen bzw. das örtliche Bürgerbüro. Durch die Verteilung auf Front Office, der "Schnittstelle" zwischen dem Bürger und den Leistungsanbietern, sowie "Back Office" ist eine sinnvolle Arbeitsteilung im Hinblick auf Verwaltungsvorgänge realisierbar. Denkbare Kooperationen mit privaten Dienstleistern ermöglichen einen umfassenden Service für den Bürger. Diese Modelle könnten den ländlichen Raum attraktiver machen und Abwanderungsprozessen entgegen steuern. Dieser und die folgenden Projektberichte sollen eine Diskussionsgrundlage für Interessierte in Verwaltung, Wissenschaft und Wirtschaft bilden.
Inhalt 1 Einleitung 2 Theoretische Vor- und Nachteile vertikaler Trennung von Netz undTransportbetrieb 3 Ausgangslage in Schweden vor der Bahnreform 4 Ziele der schwedischen Eisenbahnreform 5 Maßnahmen der schwedischen Eisenbahnreform 6 Kritische Würdigung der Reform 6.1 Marktstruktur des schwedischen Eisenbahnverkehrs 6.1.1 Hauptakteure und Eigentumsstruktur 6.1.2 Wettbewerbssituation im schwedischen Eisenbahnverkehr 6.1.3 Finanzierung des schwedischen Eisenbahnsystems 6.2 Marktverhalten der marktbeherrschenden Unternehmen 6.3 Performance des heutigen schwedischen Eisenbahnsystems 7 Fazit
Inhalt 1 Gegenstand der Untersuchung 2 SV aus wirtschaftstheoretischer Sicht:(neoklassische) Umweltökonomik 3 SV aus wirtschaftspolitischer Sicht:(ordoliberale) ordnungspolitische Aspekte 4 SV aus empirischer Sicht 5 Realitätsbezogene Probleme und Lösungsansätze 6 Realitätsnähere Analyse der Effektivität, Effizienz undWettbewerbskonformität von SV 7 Realitätsnähere Analyse der ordnungspolitischen Aspekte 8 Kriterien erfolgreicher SV 9 Aktuelle Problematik: SV versus Emissionsrechtehandel
(De)regulatory interventions frequently have unintended cross- market effects, which may or may not be desirable. We assess the effects of three policies on aggregate variables, in particular real income, from a theoretical perspective. Our results suggest that instruments acting upon wages have only a weak impact on real income, whereas the distribution of income is affected strongly. In contrast, a policy that enhances product market competition is fostering real income, but also impacts strongly on union wages and the distribution of income.
Existing theoretical literature fails to explain the differences between the pay of workers that are covered by union agreements and others who are not. This study aims at closing this gap by a single general- equilibrium approach that integrates a dual labor market and a two- sector product market. Our results suggest that the so called 'union wage gap' is largely determined by the degree of centralization of the bargains, and, to a somewhat lesser extent, by the expenditure share of the unionized sector's goods.
In diesem Beitrag untersuchen wir den Einfluß einer sozioökonomischen Variablen -- die Wertschätzung der Freizeit durch die Haushalte -- auf das innerstädtische Siedlungsverhalten. Die Diskussion dieser Variablen soll zunächst im Rahmen eines Standardmodells der Stadtökonomie erfolgen. Dabei zeigt sich ein eindeutiges Ergebnis: Jene Haushalte, für die die Freizeit einen hohen Nutzen stiftet, siedeln sich am Stadtzentrum an. Danach wenden wir uns der Empirie zu. Am Beispiel Potsdams soll das tatsächliche Siedlungsverhalten der Haushalte aufgezeigt werden. Der Vergleich der Modellergebnisse mit den empirischen Befunden verdeutlicht zum einen, daß die Modelle vermutlich wesentliche Einflußgrößen, die das Siedlungsverhalten bestimmen, nicht erfassen. Zum anderen zeigen die empirischen Ergebnisse die große Bedeutung der singulären, einer allgemeinen Theorie prinzipiell nicht zugänglichen Einflüsse auf die Zusammensetzung und Verteilung der Wohnbevölkerung.
Inhalt 1 Ziele der Liberalisierung von Netzindustrien:Privatisierung staatlicher Monopole und wettbewerbliche Marktöffnung 2 Markt- und wettbewerbstheoretische Aspekte der Netzinfrastruktur 2.1 Netze als Teil der materiellen Infrastruktur 2.2 Netzinfrastruktur als öffentliches Gut oderInstrument der Daseinsvorsorge? 2.3 Netze als natürliche Monopole? 2.3.1 Nutzenrelevante Netzeffekte 2.3.2 Kostenbestimmende Netzeffekte 2.3.3 Wettbewerbspotenziale trotz Wettbewerbsversagen 3 Wettbewerbsökonomische Implikationen für Netzindustrien 3.1 Vertikale Integration in Netzindustrien 3.1.1 Transaktionskosten versus vertikale Integration 3.1.2 Wettbewerbsökonomische Probleme 3.2 Netzzugangsmodelle 3.3 Institutionelle Ausgestaltung der Wettbewerbsaufsicht 4 Fazit
Inhalt 1 Globalisierung und Wettbewerb 1.1 Einzelne Aspekte 1.2 Unterschiedliche Bewertungen 2 Das MacDougall-Kemp-Modelldes institutionellen Wettbewerbs 2.1 Modellprämissen und -implikationen 2.2 Empirische Evidenz 3 Untersuchung weiterer Politikbereiche 3.1 Sozial- und Umweltpolitik 3.2 Wettbewerbspolitik 4 Mängel der betrachteten Ansätze 4.1 Transaktionskosten von Individuen und Unternehmen 4.2 Verhaltensweisen privater und politischer Akteure 5 Wirtschaftspolitische Konsequenzen
Inhalt 1 Einleitung 2 Standortwettbewerb und Race-to-the-bottom 2.1 Theorie des Standortwettbewerbs 2.2 Prozess des Race-to-the-bottom 2.3 Modelltheoretische Fundierung des Race-to-the-bottom 3 Fusionskontrolle als Standortfaktor 4 Instrumentalisierung der Fusionskontrolle im Standortwettbewerb 4.1 Die deutsche Ministererlaubnis 4.2 Race-to-the-bottom im Rahmen der deutschen Ministererlaubnis? 4.3 Restriktive Handhabung der deutschen Ministererlaubnis 4.4 Das Kriterium der internationalen Wettbewerbsfähigkeit in der deutschenMinistererlaubnis 5 Fazit
Inhalt: Gerda Haßler: 10 Jahre Integriertes Eingangssemester Primarstufe (IEP) an der Universität Potsdam Roswitha Lohwaßer: Informationen zu den Empfehlungen der Expertengruppe "Reform der Lehrerbildung" Hartmut Giest: Was bedeutet Professionsorientierung in der Lehre und wie kommt sie bei den Studierenden an? Marion Höfner: Berufsbezogene Ausbildung und Kerncurriculum im Lehramtsstudium. 5 Thesen Sabina Bieber: Schritt für Schritt zum Lehramt Klaus Pecher: "Ernst Thälmann war ein Kind wie du." Kinderzeitschriften in der DDR - Festrede zur Eröffnung der Ausstellung im Rochow-Museum Reckahn am 22.02.2003 Redaktion KENTRON: Schulen Potsdams – Das Freie Gymnasium am Pfingstberg Zepernick
This is the first issue of a series in which affiliates of the Institute of Linguistics report the results of their experimental work. Generative linguistics usually rely on the method of native speaker judgements in order to test their hypotheses. If a hypothesis rules out a set of sentences, linguistics can ask native speakers whether they feel these sentences are indeed ungrammatical in their language. There are, however, circumstances where this method is unreliable. In such cases a more elaborate method to test a hypothesis is called. All papes in this series, and hence, all papers in this volume deal with issues that cannot be reliably tested with native speaker judgements. This volume contains 7 papers, all using different methods and finding answers to very different questions. This heterogenity, by the way, reflects the various interests and research programs of the institute. The paper, by Trutkowski, Zugck, Blaszczak, Fanselow, Fischer and Vogel deals with superiority in 10 Indo-European languages. The paper by Schlesewsky, Fanselow and Frisch and by Schlesewsky and Frisch, deal with the role of case in processing German sentences. The paper by Vogel and Frisch deals with resolving case conflicts, as does the paper by Vogel and Zugck. The nature of partitive case is the topic of the paper by Fischer. The paper by K?gler deals with the realization of question intonation in two German dialects. We hope that you enjoy reading the papers!
Inklusion oder Exklusion?
(2003)
Inhalt: 1. Ziel und Fragestellung der Arbeit 2.1 Spezifika des deutschen Wohlfahrtsstaates 2.2 Theoretische Erkenntnisse zu Übergangsmodellen in und aus Teilzeitbeschäftigung 2.2.1 Humankapitaltheorie 2.2.2 Der Ansatz der Haushaltsstruktur 2.2.3 Ansätze zur Arbeitsmarktsegmentation 2.2.4 Theorien individuellen Handelns 2.3 Inklusion und Exklusion 3. Forschungsstand zu Übergangsmodellen in und aus Teilzeitbeschäftigung 4. Der Modellrahmen 4.1 Spezifikation der Hazard-Funktion 4.2 Einzelne Episoden 4.3 Mehrzustandsmodell 5. Typen von Erwerbsverläufen 5.1 Inkludierende, exkludierende und erhaltende Übergänge 6. Einflussfaktoren 6.1 Übergänge von Teilzeitbeschäftigung in die Erwerbstätigkeit 6.2 Übergänge von Teilzeitbeschäftigung in die Nichterwerbstätigkeit 6.3 Übergänge von Teilzeitbeschäftigung in die Arbeitslosigkeit 6.4 Übergänge von Teilzeitbeschäftigung in den Hausfrauen/männerstatus 7. Zentrale Ergebnisse und Schlussfolgerungen
Die Dunkelziffer der Armut
(2003)
In der vorliegenden Arbeit soll Aufschluss über die Motivationen zum Verzicht auf Sozialhilfe gewonnen werden. Darüber hinaus soll der Wissensstand über Ausmaß und demographischen Struktur der Armut durch Nichtinanspruchnahme aktualisiert werden. Die Analyse basiert auf Daten aus dem Jahr 2001 des Sozio-ökonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung. Inhalt: I. Einleitung II. Das Bundessozialhilfegesetz der Bundesrepublik III. Literaturüberblick: Nicht-Inanspruchnahme von Sozialhilfe in der Bundesrepublik IV. Hypothesen und Operationalisierung V. Daten und Sozialhilfeberechtigung VI. Das statistische Modell VII. Regressionsanalyse und Ergebnisse VIII. Zusammenfassung
In dieser Arbeit wird den verschiedenen Thesen, die das Wahlverhalten in Ostdeutschland begründen, nachgegangen. Der Einbezug der politischen Kultur scheint als Erweiterung des sozialpsychologischen Ansatzes notwendig, um das Wählerverhalten in den neuen Bundesländern angemessen zu modellieren. Für die Analyse der Parteiaffinitäten werden die in den ersten beiden Kapiteln ausgearbeiteten Deutungen zu empirisch überprüfbaren Hypothesen verdichtet und anhand der im empirischen Teil der Arbeit aufgestellten Regressionsmodelle getestet. Inhalt: Die politische Kultur in Ostdeutschland - Besonderheiten politischer Einstellungen: Einstellungen zur Demokratie, Identitätsabgrenzung - Problemwahrnehmungen und Kompetenzzuweisungen Ostdeutsches Wahlverhalten - Thesen - Politisierung der Sozialstruktur - Anwendbarkeit des Konzeptes Parteiidentifikation - Parteiidentifikation und Sozialstruktur - Sachthemen und Kandidaten Empirischer Test - Daten und Methode: Kausalmodell - Hypothesen - Ergebnisse für die einzelnen Parteien: CDU, SPD, PDS - Relatives Gewicht lang- und kurzfristiger Faktoren Fazit - Diskussion der Ergebnisse
Die Arbeit untersucht erstmals die evangelischen Vereine für weibliche Jugendliche, die so genannten Jungfrauenvereine, von ihrer Entstehung in den 1840er Jahren bis zum 1. Weltkrieg, sowie insbesondere den 1893 gegründeten Verband der evangelischen Jungfrauenvereine Deutschlands (später Evangelischer Verband zur Pflege der weiblichen Jugend Deutschlands, ab 1929 Evangelischer Reichsverband weiblicher Jugend). In der ersten Hälfte des 19. Jahrhundert begann ein Teil des protestantischen Bürgertums damit, für die hochmobilen Unterschichts-Jugendlichen, die im Zuge der Industrialisierung als Handwerksgesellen und Dienstmädchen, später als Fabrikarbeiter und -arbeiterinnen in die expandierenden Großstädten gingen, Herbergen und Vereine zu gründen. Damit trugen die Initiatoren wesentlich zur Entstehung eines öffentliches Bewusstsein für die prekäre Lebenssituation der Unterschichtsjugend und für die Notwendigkeit präventiver Jugendarbeit bei. Der Verband initiierte dann in den Jahren um 1900 zahlreiche innovative soziale Projekte in der weiblichen Jugendpflege und Jugendfürsorge. Die Arbeit untersucht drei Bereiche: 1. Vereine (sog. Abendheime) und Wohnheime für Fabrikarbeiterinnen; 2. die 1894 begonnene Bahnhofmission, die sich der mobilen weiblichen Jugendlichen direkt an die Bahnhöfen annahm; 3. Erholungshäuser für erwerbstätige Jugendliche. Bei allen Initiativen arbeitete der Verband eng mit seinem lokalen Partner, dem Berliner Verein zur Fürsorge für die weibliche Jugend zusammen, der neue Arbeitsbereiche in der Praxis testete. Neben der Verbandsgeschichte im engeren Sinne thematisiert die Untersuchung auch die Konzeption und die Inhalte der Vereinsarbeit. Orientiert an dem Konzept einer christlichen Persönlichkeitsbildung sollte die Vereinsarbeit möglichst viele Bereiche jugendlichen Lebens umfassen: Arbeit (inkl. Erholungsurlaub), Wohnen, Freizeit (Geselligkeit, Lektüre), Gesundheit und Bildung. Da jedoch aufgrund der Orientierung an einem konservativen Frauenbild der Bereich jugendlicher Sexualität bewusst ausgeklammert wurde, erreichte man mit diesem Konzept präventiver Jugendarbeit im wesentlichen nur die ohnehin wohlanständigen Jugendlichen. Die Spannung zwischen einem konservativen Frauenbild einerseits und den modernisierenden Impulsen einer Jugendarbeit mit weiblichen Jugendlichen andererseits zeigt sich auch daran, dass der Verband durch die Gründung eines Berufsverbandes für Sozialarbeiterinnen (Verband der Berufsarbeiterinnen der Inneren Mission) und der Einrichtung von Ausbildungsstätten wesentlichen Anteil an den modernisierenden Prozessen der Verberuflichung der sozialen Arbeit und der kirchlichen Jugendpflege zu Berufen bürgerlicher Frauen hatte.
Inhalt: Die Veranlagungssimulation im Kontext anderer Methoden zur Beurteilung von Steuerwirkungen -Steuerwirkungsanalyse in der betriebswirtschaftlichen Steuerlehre und der Finanzwissenschaft im Vergleich -Abgrenzung der Veranlagungssimulation von der Teilsteuerrechnung -Die Veranlagungssimulation als Komponente eines Simulationsmodells zur Politikanalyse Das System der deutschen Unternehmensbesteuerung in Abhängigkeit von der Rechtsform -Einzelunternehmen und Personengesellschaften -Kapitalgesellschaften Die Reform der Unternehmensbesteuerung -Gründe und Ziele der Reform der Unternehmensbesteuerung -Die Maßnahmen der Unternehmenssteuerreform im Überblick Entwicklung des Simulationsmodells -Datengrundlage der Untersuchung -Die Grundstruktur des Modells -Entwicklung der Veranlagungscodes: Veranlagung der Gewerbesteuer, Grundlagen der Gewerbesteuerfestsetzung, Veranlagung der Körperschaftsteuer, Veranlagung der Einkommensteuer Darstellung der Ergebnisse der Veranlagungssimulation -Überblick über die konstituierenden Merkmale der Modellunternehmen -Die Steuerbelastungen der Unternehmen bei Veranlagung nach altem und neuem Steuerrecht im Überblick Der Rechtsformvergleich mit abgewandelten Modellunternehmen -Der Rechtsformvergleich bei Variation steuerlicher Sachverhaltsgestaltungen -Der Rechtsformvergleich bei Variation des Gewinns Zusammenfassung der Ergebnisse des Steuerbelastungs- und des Rechtsformvergleichs Kritische Betrachtung der durch den Gesetzgeber und die Brühler Kommission gesetzten Ziele anhand der generierten Ergebnisse Steuerwirkungen auf Investitionen und Finanzierung Modellkritik
Inhalt: Empirie: Anfänge der Strukturpolitik: der Aufbau des Europäischen Sozialfonds Beginn der Regionalpolitik und der Europäische Fonds für regionale Entwicklung Strukturförderung im ländlichen Raum – die Abteilung Ausrichtung des Agrarfonds Neue Probleme und neue Ansätze: Die 1980er Jahre Einheitliche Europäische Akte und grundlegende Reform der Strukturpolitik ab 1986 Zwischen den Reformen: Die 1990er Jahre Die EU-Strukturfonds heute Theorie: Risikoausgleich bei Migration und interregionalen Transfers Risikoausgleich in der Europäischen Union? – Eine empirische Untersuchung Spillover-Effekte als Problem – matching grants als Lösung? Das Problem der dritten Ebene: Verdrängung nationaler Zuschüsse durch EU-Mittel Externe Effekte durch Wanderung von Arbeitnehmern Der flypaper-Effekt als Besonderheit öffentlicher Zuschüsse "Dezentralisierte" Föderation
Inhalt: Staatliche Belastung fabrikneuer PKW im europäischen Vergleich -Finanzwissenschaftliche Einordnung der Abgaben auf PKW -Grundlagen zur empirischen Untersuchung -Abgaben auf den Kauf und das Inverkehrbringen eines Pkws -Abgaben auf den Besitz eines Fahrzeuges -Gesamtabgaben im europäischen Vergleich Konsequenz auf den Binnenmarkt -Unterschiedliche Nettopreise in den einzelnen Ländern -Integrierter EU-Binnenmarkt -Preisdiskriminierung trotz des integrierten EU-Marktes
Im Zusammenhang mit der Diskussion um die Globalisierung werden massive Vorwürfe gegen das ökonomische Gedankengebäude, aber auch die damit verbundenen menschlichen Verhaltensweisen ins Feld geführt. In einem verhaltenswissenschaftlich orientierten Ansatz wird daher zunächst aus individueller, dann aus internationaler Ebene herausgearbeitet, worin die grundlegenden friedensstiftenden Elemente eines ökonomischen Betrachtungsansatzes liegen. Dabei wird insbesondere die Rolle der Ungleichheit betont, die – neben einem reichen Güterangebot, der leistungsorientieren Entlohnung von Arbeit und Kapital sowie der individualistischen Eigentumsordnung – als konstitutives Element des marktwirtschaftlichen Anreizmechanismus den Erfolg demokratischer Gesellschaftssystem in besonderem Maße bestimmt. Die Ausführungen zu den Argumenten pro und contra Globalisierung stehen vor dem Hintergrund der Tatsache, dass die hervorgerufenen Entwicklungsprozesse unweigerlich Gewinner und Verlierer kreieren, was bei letzteren verständlich Ängste auslöst. Dabei wird die Verantwortlichkeit gerade für das Zurückfallen in einem insgesamt durchaus dynamischen Entwicklungsprozeß auf das Markt- und zum Teil auch Staatsversagen geschoben. Übersehen wird jedoch, dass hinter diesen vermeintlichen Versagenstatbeständen sich vielmehr ein moralisches Versagen verbirgt, welches eher auf Seiten der Marktteilnehmer, aber auch von Politik, Bürokratie und vor allem der Interessenvertreter zu suchen ist. Darüber hinaus wird auch die Existenz eines effizienten Sozialstaats nicht durch die Globalisierung gefährdet. Sie bildet vielmehr den Anlaß für die notwendigen Reformen, welche die Bekämpfung von Armut im nationalen wie internationalen Kontext sichern wird. Denn ohne Globalisierung drohen nicht nur ein überzogener Steuer- und Sozialstaat, sondern auch Tendenzen in Richtung auf den Leviathan und einen totalitären Machtmißbrauch, wie dieser heute noch in vielen Entwicklungs- und Transformationsländern auf der Tagesordnung ist.
Inhalt: Dynamische Interpretation der Leistungsfähigkeit Integrierte Einkommens- und Gewinnbesteuerung Zins- und Sparbereinigung Individuelle Fairness und Familiengerechtigkeit Einfachheit für Administration und Bürger Auswirkungen auf Steueraufkommen und Einkommensverteilung Generationengerechtigkeit Begleitende Maßnahmen Systemdynamik und Wirtschaftswachstum
Fließgewässer erfüllen wichtige Funktionen im Naturhaushalt und bilden mit ihren Auen komplexe Ökosysteme, die im ursprünglichen Zustand durch die Dynamik der Wasserführung geprägt werden. Seit Jahrhunderten verändert der Mensch die Gestalt der Fließgewässer, um sie für die schnelle Ableitung des Hochwassers, zum Abwassertransport, für die Schifffahrt und die Landwirtschaft zu nutzen. Im vorliegenden Themenheft werden unterschiedliche Aspekte dieser Problematik am Beispiel der Region um die ökologische Station der Universität Potsdam an der Unteren Havel dargestellt. Zunächst wird die Entstehung der Kulturlandschaft im westlichen Havelland von den Anfängen der Besiedlung dargestellt. Anschließend folgt die Charakteristik der Landschaft und der hydrologischen Verhältnisse der Unteren Havelniederung. Die Darstellung der Vegetation der Havelaue wird durch Ausführungen zu ökophysiologischen Untersuchungen an typischen Pflanzenarten von Feuchtstandorten untersetzt. Aufgrund ihrer reichen Naturausstattung und langzeitiger extensiver Nutzung ist die Landschaft an der Unteren Havel ein Schutzgebiet von internationaler Bedeutung als Rast- und Brutplatz für Wat- und Wasservögel. Einem zoologischen Überblick mit besonderer Berücksichtigung von Flussauenarten schließen sich Betrachtungen aus ornithologischer Sicht an, die neben Übersichtsarbeiten zur Avifauna der Unteren Havel ausgewählte Veröffentlichungen zur Wasservogelforschung erwähnen. Flussauen erfüllen eine wichtige Funktion im Nährstoffhaushalt der Landschaft. Untersuchungen an Augewässer-Sedimenten unter veränderter Hochwasserdynamik tragen dem Rechnung. In Brandenburg wurden in den zurückliegenden Jahren große Gebiete unter Schutz gestellt. Am Beispiel des Naturparks Westhavelland wird exemplarisch diese Richtung der Naturschutzpolitik dargestellt. Die Mehrzahl der Beiträge basiert auf Untersuchungen in der Havelniederung, die von der Ökologischen Station Gülpe ausgingen. Den Abschluss bildet ein Ausblick auf zukünftige ökologische Forschung an der Unteren Havel. Inhalt: GÖTZE, B.: Die Untere Havelniederung - eine gewachsenen Kulturlandschaft? : über die Entstehung einer Kulturlandschaft im westlichen Havelland ; KADEN, K.; ITZEROTT, S.: Eine landschaftliche Charakteristik der Unteren Havelniederung bei Gülpe ; KADEN, K.; ITZEROTT, S.: Die hydrologischen Verhältnisse der Unteren Havelniederung ; BURKART, M.; WATTENBACH, M.; WICHMANN, M.; PÖTSCH, J.: Die Vegetation der unteren Havelaue : Stand der Forschung und Perspektiven ; Gzik , A.: Vitalität und Konkurrenzkraft charakteristischer Pflanzenarten von Feuchtstandorten der Unteren Havelaue ; MÜHLE , R.-U.: Tierleben - ein zoologischer Überblick zur Unteren Havelniederung ; WALLSCHLÄGER, D: Gülper See und Untere Havelniederung aus ornitologischer Sicht : Forschungen an der Ökologischen Station der Universität Potsdam ; KNÖSCHE, R.: Zur Phospatrücklösung aus Augewässersedimenten unter veränderter Hochwasserdynamik ; BORMKI, G.; KNÖSCHE, R.; SCHNEIDER, I.: Untersuchungen zur N-Mineralisation und -Remobilisierung im Sedment eines extrem flachen Auensees (Schollener See) ; BUCHTA, R.: Der Aufbau neuer Naturparke in Brandenburg am Beispiel des Naturparkes Westhavelland ; JELTSCH , F.: Ökologische Forschungen an der Unteren Havel - ein Ausblick
This paper argues that the texts surviving from the Old English period do not reflect the spoken language of the bulk of the population under Anglo-Saxon elite domination. While the Old English written documents suggest that the language was kept remarkably unchanged, i.e. was strongly monitored during the long OE period (some 500 years!), the spoken and "real Old English" is likely to have been very different and much more of the type of Middle English than the written texts. "Real Old Engish", i.e. of course only appeared in writing after the Norman Conquest. Middle English is therefore claimed to have begun with the 'late British' speaking shifters to Old English. The shift patterns must have differed in the various part of the island of Britain, as the shifters became exposed to further language contact with the Old Norse adstrate in the Danelaw areas and the Norman superstrate particularly in the South East, the South West having been least exposed to language contact after the original shift from 'Late British' to Old English. This explains why the North was historically the most innovative zone. This also explains the conservatism of the present day dialects in the South West. It is high time that historical linguists acknowledge the arcane character of the Old English written texts.
Mit diesem Beitrag möchten wir aufzeigen, welchen Stellenwert psycho-physiologische Erhebungen in der Diagnostik von Fähigkeiten, Fertigkeiten und Verhaltensweisen haben. Über solche Verfahren lassen sich Stresserleben und negative Beanspruchungen zeitiger erkennen als durch Beobachtungen und Befragungen. Im Rahmen einer Pilotstudie zum Belastungserleben von Schulkindern wurden von uns Daten mittels standardisierter Fragebögen und physiologischer Messungen erhoben. Wir haben zunächst psycho-physiologische Beanspruchungszustände von Grundschulkindern im Tagesverlauf erfasst, weil der circadiane Rhythmus die prinzipielle Grundlage für alle Lebens- und Lernprozesse darstellt. Darauf basieren weiterführende Untersuchungen zu situations- und anforderungsbezogenen Beanspruchungen von Schülerinnen und Schülern, die schließlich auf das Erfassen von Beziehungen zwischen psycho-physiologischen Zuständen und Verhaltensbeobachtungen gerichtet sind. In diesem Beitrag werden Ergebnisse aus 24-Stunden-Messungen vorgestellt.
Der Himmel ist nicht Gott
(2003)
Die Theologie des 20. Jahrhunderts hat die Gegenstände “Himmel, Hölle, Engel” kaum zum Thema gemacht, und wenn doch, dann meist mit der Absicht, sie als mythologisches Beiwerk zu kritisieren oder in anthropologische Kategorien zu übersetzen. Das Eigenrecht einer Rede vom Himmel wurde bestritten, da dies allenfalls als analytische Bestimmung des Gottesbegriffes zu sehen sei und alle weiter gehenden Bestimmungen freie Spekulation seien. Hierfür wurden auch pastorale Gründe geltend gemacht: Wenn die modernen Menschen schon Schwierigkeiten mit dem Glauben haben, solle man sie nicht mit Zweitrangigem überfrachten. Und wenn man ihnen im technischen Zeitalter transzendente Gegenstände zumutet, dann höchstens Gott. Es komme darauf an, die Beziehung des Menschen zu Gott zu entdecken und zu stärken. Die Paradigmen für diese Beziehung waren meist zweipolig: Urvertrauen (Mutter-Säugling), Dialog (Ich und Du) oder Begegnung (Personen). In jüngerer Zeit wurden feinere Begriffsschärfungen vor allem im protestantischen Bereich vorgenommen. Der Systematiker Michael Welker hat auf die Differenz von Himmel und Gott hingewiesen. Vor dem Hintergrund der Prozessphilosophie, in der die Entfaltung des Kosmos mit dem Selbstvollzug Gottes deckungsgleich gedacht wird, hat er die Notwendigkeit dieser Unterscheidung betont: “Gott ist nicht der Himmel. Wir können nicht der Verwechslung von Gott und Welt durch die Verwechslung von Gott und einem Teil der Welt wehren. [...] Der Himmel ist Geschöpf und Teil der Welt. Dieser für uns relativ unbestimmte, unmanipulierbare Teil der Schöpfung kann räumlich und zeitlich bestimmt verstanden werden.” Hinter Welkers Ausführungen steht die im 20. Jahrhundert maßgebliche Thematisierung des Himmels, nämlich § 51 aus Karl Barths Kirchlicher Dogmatik. Barth bindet seine Reflexionen über den Himmel streng an die Offenbarung. Jede darüber hinaus gehende Spekulation über eine “selbständige Ontologie des Himmels” führe von Gott weg hinein in die Willkür möglicher Welten. Aus dem biblischen Zeugnis heraus gelte es, “geordnete Rechenschaft” abzulegen. Dennoch dürfe man nicht einer bequemen aufklärerischen Skepsis verfallen, die das Thema für theologisch irrelevant hält und darüber hinaus als unwissenschaftlich abtut; immerhin sei die Rede von Gott eng mit der Rede vom Himmel verknüpft. Der vorliegende Beitrag will die Notwendigkeit einer eigenständigen Kategorie „Himmel“ herausstellen. Dies geschieht nicht aus einem nostalgischen Interesse, aussterbende Glaubensinhalte zu konservieren, sondern weil der Begriff einer niedrigen, nichtgöttlichen Transzendenz systematisch notwendig ist. Zudem benötigt man ihn in der praktischen Theologie für eine differenzierte Wahrnehmung außerkirchlicher Religiosität, welche mit der De-Etablierung der Kirchen weiter zunehmen wird. Wie soll man mit vager Spiritualität vom Übersinnlichen, Himmlischen heute umgehen? Darf man sie mit Verweis auf dogmatische Hochgott-Begriffe glattweg ablehnen, darf man sie umgekehrt im Namen einer Universalreligion einfach akzeptieren? Wie kann man fremde Religiosität als Religiosität bejahen und sich dennoch davon kritisch absetzen? Die klare Unterscheidung von erster Transzendenz (Himmel) und zweiter Transzendenz (Gott) soll hierzu beitragen. Dabei wird der Akzent auf ersterer liegen, denn es ist theologisch unproblematisch, dass Gott das absolute Gegenüber zur Welt darstellt; wo aber der Himmel dazwischen zu platzieren ist, bedarf einer eingehenden Begriffsbestimmung. Als erstes wird die Reinigung des Begriffs von nichtreligiösen Konnotationen vorgenommen.
Mehr als bloß Bahala Na
(2003)
Theologie made in the Philippines fällt in der europäischen Wahrnehmung durch alle Raster. Für Befreiungstheologie schlägt man bei lateinamerikanischen Theologen nach, für Religionsdialog bei indischen. Wohin hat sich die philippinische Theologie seit den Zeiten der „Theologie des Kampfes“ entwickelt, als katholische Priester Vordenker der National People’s Army waren? Im Folgenden soll die Wende hin zur „popular religiosity“ nachgezeichnet werden. Nicht behandelt werden die kirchlichen Entwicklungen wie das einflussreiche Ereignis der Philippinischen Nationalsynode 1991 und die Veröffentlichung des Philippinischen Katechismus 1997.
Ausgehend von einer Charakterisierung des Flow-Erlebens als gaenzliches Aufgehen in einem glatt laufenden Taetigkeitsvollzug, den man trotz hoher Beanspruchung noch unter Kontrolle hat, wird auf die Erfassung dieser Motivationskomponente eingegangen. Dargestellt und diskutiert werden Vor- und Nachteile der bisherigen qualitativen (Interviews) und quantitativen Flow-Erfassung (Experience Sampling Method (ESM)) . Ausfuehrlicher wird eine "Flow-Kurzskala" (FKS) beschrieben, die mit zehn Items alle qualitativ verschiedenen Komponenten des Flow-Erlebens oekonomisch und reliabel erfasst. Sie liefert einen Gesamtwert sowie Werte fuer zwei Subskalen (glatter automatisierter Verlauf sowie Absorbiertheit). Daneben erfassen drei zusaetzliche Items die Besorgnis in der aktuellen Situation. Berichtet werden Vergleichskennwerte aus punktuellen Messungen und ESM-Studien. Die hoechsten Werte fuer Flow und Besorgnis wurden bislang bei Graffiti-Sprayern gefunden. Bei einer intellektuell herausfordernden Aufgabe (Postkorbuebung) sind die FKS-Werte mit der Hoffnung-auf-Erfolg-Komponente des Leistungsmotivs korreliert. Furcht-vor-Misserfolg korreliert dagegen mit dem Besorgniswert der FKS. Flow waehrend der Bearbeitung von Uebungsaufgaben fuer Statistik lieferte einen signifikanten Beitrag zur Vorhersage der nachfolgenden Klausurleistung. Dieser Beitrag blieb erhalten, auch wenn Faehigkeitsmasse kontrolliert wurden. (Buch/A.G. - ZPID)
Berichtet wird über eine Möglichkeit, Flow-Erleben unter experimentell kontrollierten Bedingungen systematisch zu variieren. Dabei werden die Tätigkeit (das Computerspiel Roboguard) und die Situationsbedingungen konstant gehalten. Variiert wird lediglich die Schwierigkeitsstufe, auf der gespielt wird. Als abhängiges Maß wurde die Flow-Kurzskala (FKS, Rheinberg, Vollmeyer & Engeser, 2002) verwandt. Es zeigten sich die vorhergesagten kurvilinearen Beziehungen zwischen Anforderungsstufe und Flow mit Effektstärken um 1 und größer. Zusammenhänge zwischen habitueller Zielorientierung (Hayamizu & Weiner, 1991) und Flow zeigten sich nur bei den flow-auslösenden Schwierigkeitsstufen. Es gab keine negative Beziehung zwischen Zielorientierung und Flow, vielmehr korrelierten sowohl die learning- als auch die performance goal orientation positiv mit der Flowkomponente Absorbiertheit. Aus diesem Befund wird eine Arbeitshypothese zur Beziehung von Motivation und Flow hergeleitet, wonach unter optimalen Bedingungen Besonderheiten der Initialmotivation vielleicht dann keine Rolle mehr spielen, wenn die Person erst einmal im Flow-Zustand ist.
Abschlussbericht zum DFG-Projekt "Veränderung der Lernmotivation in Mathematik und Physik: eine Komponentenanalyse und der Einfluss elterlicher sowie schulischer Kontextfaktoren" Abstract: Dass die Lernmotivation besonders in mathematisch-naturwissenschaftlichen Fächern im Verlauf der Sekundarschulzeit sinkt, kann als gesichert gelten (Krapp, 1998). Allerdings ergibt sich bei genauerem Hinsehen ein recht differenziertes Bild. Dies betrifft insbesondere die verschiedenen Komponenten von Lernmotivation (z. B. Erfolgserwartungen, Nützlichkeiten/Instrumentalitäten, intrinsische vs. extrinsische Folgenanreize, Sachinteressen, Selbstkontrollfunktionen etc.), die offenbar nicht gleichermaßen betroffen sind. Weiterhin wurden auch unterschiedliche Veränderungen je nach Fach, Klassenstufe und Geschlecht gefunden (z. B. Fend, 1997; Pekrun, 1993). Überdies sind hier individuell unterschiedliche Verlaufstypen der Lernmotivationsveränderung zu erwarten (Fend, 1997; Rheinberg, 1980). Je nachdem, aufgrund welcher Komponenten ein Absinken der Lernmotivation zustande kommt, sind ganz andere Interventionsmaßnahmen angezeigt. Von daher ist ein Instrumentarium erforderlich, das die einzelnen Komponenten der Lernmotivation in mathematisch-naturwissenschaftlichen Fächern zu erfassen erlaubt. Ein solches Verfahren soll in einem zweijährigen Projekt theorieverankert entwickelt werden. Es stützt sich zunächst auf das Erweiterte Kognitive Modell zur Lernmotivation (Heckhausen & Rheinberg, 1980; Rheinberg, 1989), des weiteren auf Interessenkonzepte (Krapp, 1992, 1998) sowie auf die Handlungskontroll- bzw. die PSI-Theorie (Kuhl, 1987, 1998). Es soll die Lernmotivation in ihren Komponenten so erfassen, dass spezifische Interventionen hergeleitet bzw. schon bewährte fallbezogen platziert werden können. Solche Interventionen sind für mögliche Anschlussprojekte im DFG-Schwerpunktprogramm "Bildungsqualität" vorgesehen. In einem altersgestaffelten einjährigen Längsschnitt wird im jetzigen Projekt mit diesem Instrument die Veränderung dieser Komponenten in den Fächern Mathematik und Physik auf der Sekundarstufe I erhoben. Gewonnen werden dabei klassenstufenspezifische Veränderungen der Lernmotivationskomponenten sowie (via Typenanalysen) verschiedene Entwicklungstypen in der mathematisch-naturwissenschaftlichen Lernmotivation. Dies sind Basisinformationen, die für die Entwicklung, Platzierung und Effektsicherung nachfolgender Interventionsmaßnahmen benötigt werden. Um im Vorfeld zwei (von vielen) Ansatzpunkten solcher Interventionen näher abzuklären, wird bereits in der ersten Projektphase die Wirkung zweier Kontextfaktoren untersucht. Hier wird (a) das mathematisch-naturwissenschaftliche Anregungsklima des Elternhauses sowie (b) die Bezugsnorm-Orientierung des Mathematik- bzw. Physiklehrers erfasst. Von beiden Kontextfaktoren sind Auswirkungen auf spezifische Komponenten der mathematisch-naturwissenschaftlichen Lernmotivation zu erwarten. Dies ist jedoch vorweg genauer abzuklären, ehe man die Kosten von Interventionen investiert. Das Instrumentarium (PMI) wird von Mai bis September 2000 entwickelt. Die einjährige Längsschnittstudie beginnt dann im Oktober 2000. Geplant sind drei Messzeitpunkte jeweils auf den Klassenstufen 5 bis 9 (Kombiniertes Längs- und Querschnittdesign)
Untersucht wurde, welche Anreize das Graffiti-Sprayen attraktiv machen. Dazu wurden in einer Vorphase 138 Anreizschilderungen gesammelt und in einen Fragebogen mit 50 Items transformiert. N = 294 Graffiti-Sprayer beantworteten diesen Fragebogen teils online im Internet, teils anonym gestreut auf Graffiti- oder Hip-Hop-Events.Faktorenanalytisch ließen sich sieben Anreizdimensionen ermitteln: Expertise/Kompetenzorientierung, Positive Emotionen/Flow, Kreativität, Gruppengefühl, Ruhm/Performanzorientierung, Lebenssinn, Sensation Seeking/Grenzerfahrung.Legales vs. illegales Graffiti-Sprayen unterschieden sich deutlich im Faktor Sensation Seeking/Grenzerfahrung und tendenziell im Faktor Lebenssinn. Das gesondert erfasste Flow-Erleben ließ sich beim illegalen Sprayen am besten über den Faktor Sensation Seeking/Grenzerfahrung vorhersagen, während Flow beim legalen Graffiti-Sprayen am besten über den Faktor Ruhm/Performanzorientierung vorhersagbar war. Innerhalb der legalen bzw. illegalen Sprayer ließen sich noch verschiedene Motivationstypen unterscheiden. Mit Blick auf alterskorrelierte Anreizveränderungen ließen sich beim legalen Graffiti-Sprayen keine nennenswerten Zusammenhänge zwischen Alter und Anreizgewicht feststellen. Dagegen nimmt beim illegalen Sprayen insbesondere die Bedeutung des Sensation Seeking sowie der Leistungsthematik signifikant mit dem Alter ab. Da dies die wichtigsten Anreize des illegalen Sprayens sind, dürfte dieser alterskorrelierte Anreizverlust erklären, warum es kaum illegale Sprayer gibt, die älter als 21 Jahre sind. Aus zusätzlich frei genannten Anreizen gab es noch Hinweise auf eine weitere Anreizkategorie, nämlich die Freude an „aggressiver Provokation“. Diese Kategorie war aber eher schwach besetzt. Diskutiert werden u. a. Möglichkeiten, unerwünschtes Graffiti-Sprayen einzudämmen. Hierzu wird auf die Notwendigkeit von „Aussteigeranalysen“ (Längsschnittstudien) hingewiesen, die offenlegen, für welche kritischen Anreize man Ersatz finden muss, wenn man z. B. in Interventionsprojekten das Engagement auffällig gewordener Sprayer auf andere Tätigkeitsfelder lenken möchte.
Der anfangs geschlossene weichselkaltzeitliche Eiskörper gliederte sich durch in der allgemeinen Rückschmelzphase gebildetes Relief zunehmend in (lokale) Gletscherströme, Gletscherloben und Gletscherzungen, insbesondere durch Eisvorstöße. Gletschervorstöße unterbrachen immer wieder die Deglaziationsphase.br> Aus diesem Grunde sind hier die meisten bogen- oder halbmondförmigen oder gewinkelten schmalen Rückengrundrisse mit Gletschzungenbecken verbunden. Diese Oberlächenformen werden 6-7 Eisrandlagen zugeordnet. Wie sicher ist jedoch der bisher beschriebene Verlauf der weichselkaltzeitlichen Maximalrandlage des Brandenburger Stadiums in diesem Gebiet? Einige Befunde (Relief, Sand, Kiese, Steine, Lehme) weisen auf eine mögliche Existenz einer äußersten Eisrandlage in der Urstromtalniederung noch vor der Brandenburger Haupteisrandlage hin. Die marginalen Oberflächenformen des Gebietes beschreibt der Autor durch Lage, Position, Relief, Gesteine, Lagerungsweisen und Deformationen (Strukturbilder). Auch periglaziale Trockentäler sind für die Rekonstruktion von Art und Lagerung der Gesteine geeignet. Die sichere und umfassende Kenntnis von Glazialstrukturen hat Bedeutung für die Lösung von Fragen der Lagerstätten, Hydrologie und Ökologie. Erforscht wurden typische lokale Glazialformen: Endmoränen, akkumulative Endmoränen, Stauch(end)moränen (die meisten gestauchten Rücken bestehen aus rolligen Sedimenten), überfahrene Endmoränen, Kombinations- bzw. zusammengesetzte Endmoränen (gestauchten Sockeln sind ungestauchte Sedimente aufgesetzt und angelagert), Sander, Grundmoränen mit gepressten Sedimenten unter dünnen weichselkaltzeitlichen Tillen, Gletscherzungenbecken, Drumlins, subglaziale Rinnen, Kames, Kamesfelder und Talsandniederungen mit alten Elbläufen. Diskutiert wird auch die glaziale und holozäne Genese der Unteren Havel und der Elbe zwischen Burg und Havelberg. Am Ende der Arbeit demonstriert eine Überblickskarte die möglichen weichselkaltzeitlichen Eisrandlagen zwischen Elbe und Nuthe (Potsdam). Folgende Probleme werden behandelt: 1. Gliedert sich das weichselkaltzeitliche Inlandeis in Eisströme, Eisloben sowie Eiszungen, und wie ist deren morphologisch-strukturelle Prägekraft im Elbhavelwinkel? 2. Endmoränentypen: Satzendmoränen - Ablationsendmoränen, kombinierte Endmoränen 3. Vorstellung regionaltypischer glazialgenetischer Oberflächenformen: End- und Grundmoränen sowie Kames - einschließlich Relief, Sedimentart, Lagerungsweise / Struktur 4. Vergleich glazialer Oberflächenformen von Elbhavelwinkel mit Grund- und Endmoränen des Potsdamer Raumes 5. Da Eisrandlagenverläufe auch Hinweise auf Lagerungsweisen oberflächennaher, verdeckter Schichten geben sollten, die für die Lösung praktischer geologischer und hydrologischer Fragestellungen relevant sind, müssen Rekonstruktionsversuche von Eisrandlagen u.a. geomorphologische und besonders strukturelle sowie lithologische Befunde berücksichtigen. 6. Gibt es eine äußerste Randlage noch vor der Brandenburger Haupteisrandlage? 7. Wie vollzogen sich Glazial- und Holozänentwicklung von Elbe und unterer Havel im äußersten jungglazialen Gebiet? 8. Verallgemeinernde Zusammenfassung zur strukturell-lithologischen und morphogenetischen Ausstattung der Eisrandlagen des Elbhavelwinkels
Interpretation of and reasoning with conditionals : probabilities, mental models, and causality
(2003)
In everyday conversation "if" is one of the most frequently used conjunctions. This dissertation investigates what meaning an everyday conditional transmits and what inferences it licenses. It is suggested that the nature of the relation between the two propositions in a conditional might play a major role for both questions. Thus, in the experiments reported here conditional statements that describe a causal relationship (e.g., "If you touch that wire, you will receive an electric shock") were compared to arbitrary conditional statements in which there is no meaningful relation between the antecedent and the consequent proposition (e.g., "If Napoleon is dead, then Bristol is in England"). Initially, central assumptions from several approaches to the meaning and the reasoning from causal conditionals will be integrated into a common model. In the model the availability of exceptional situations that have the power to generate exceptions to the rule described in the conditional (e.g., the electricity is turned off), reduces the subjective conditional probability of the consequent, given the antecedent (e.g., the probability of receiving an electric shock when touching the wire). This conditional probability determines people's degree of belief in the conditional, which in turn affects their willingness to accept valid inferences (e.g., "Peter touches the wire, therefore he receives an electric shock") in a reasoning task. Additionally to this indirect pathway, the model contains a direct pathway: Cognitive availability of exceptional situations directly reduces the readiness to accept valid conclusions. The first experimental series tested the integrated model for conditional statements embedded in pseudo-natural cover stories that either established a causal relation between the antecedent and the consequent event (causal conditionals) or did not connect the propositions in a meaningful way (arbitrary conditionals). The model was supported for the causal, but not for the arbitrary conditional statements. Furthermore, participants assigned lower degrees of belief to arbitrary than to causal conditionals. Is this effect due to the presence versus absence of a semantic link between antecedent and consequent in the conditionals? This question was one of the starting points for the second experimental series. Here, the credibility of the conditionals was manipulated by adding explicit frequency information about possible combinations of presence or absence of antecedent and consequent events to the problems (i.e., frequencies of cases of 1. true antecedent with true consequent, 2. true antecedent with false consequent, 3. false antecedent with true consequent, 4. false antecedent with false consequent). This paradigm allows testing different approaches to the meaning of conditionals (Experiment 4) as well as theories of conditional reasoning against each other (Experiment 5). The results of Experiment 4 supported mainly the conditional probability approach to the meaning of conditionals (Edgington, 1995) according to which the degree of belief a listener has in a conditional statement equals the conditional probability that the consequent is true given the antecedent (e.g., the probability of receiving an electric shock when touching the wire). Participants again assigned lower degrees of belief to the arbitrary than the causal conditionals, although the conditional probability of the consequent given the antecedent was held constant within every condition of explicit frequency information. This supports the hypothesis that the mere presence of a causal link enhances the believability of a conditional statement. In Experiment 5 participants solved conditional reasoning tasks from problems that contained explicit frequency information about possible relevant cases. The data favored the probabilistic approach to conditional reasoning advanced by Oaksford, Chater, and Larkin (2000). The two experimental series reported in this dissertation provide strong support for recent probabilistic theories: for the conditional probability approach to the meaning of conditionals by Edgington (1995) and the probabilistic approach to conditional reasoning by Oaksford et al. (2000). In the domain of conditional reasoning, there was additionally support for the modified mental model approaches by Markovits and Barrouillet (2002) and Schroyens and Schaeken (2003). Probabilistic and mental model approaches could be reconciled within a dual-process-model as suggested by Verschueren, Schaeken, and d'Ydewalle (2003).
Tierleben
(2003)
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.
In der Person von Georg Potente, der von 1902 bis 1938 in Potsdam-Sanssouci tätig war, spiegelt sich eine Entwicklung vom königlichen Ober- und Hofgärtner zum staatlichen Gartendirektor, einem schöpferisch tätigen Gartendenkmalpfleger wider. Sein Schaffen in historischen Gärten ist charakterisiert durch ein zeittypisches Spannungsfeld von kaiserlichen Aufgaben zur Neuanlage und Modernisierung einzelner Parkteile bis zu komplizierten gartendenkmalpflegerischen Wiederherstellungsarbeiten ganzer Parkbereiche. Die dabei von Potente begründete und praktizierte Herangehensweise, nach der Erforschung der Entstehungsgeschichte und der Auswertung aller historischen Pläne und Beschreibungen der Gartenanlage durch eine plangrafische Überlagerung die verschiedenen zeitlichen Zustände zu gewichten und den wiederherzustellenden Zeitstil festzulegen, begründete in den 20er Jahren des 20. Jahrhunderts die wissenschaftliche Arbeitsweise der sich entwickelnden Gartendenkmalpflege.
On peut qualifier les hyperlivres de matériaux d'enseignement et d'apprentissage innovants bâtis sur une structuration électronique des éléments du savoir. En lieu et place du texte écrit est créée une base de données, dans laquelle le texte, les schémas et le son sont organisés de façon numérique. C'est dans ce lien entre des données habituellement dissociées que réside la plus-value de qualité apportée par le média. L'hyperlivre dont il est question ici prépare les étudiants à la langue de spécialité juridique, ce qui leur permet d'aborder sans trop de difficultés les séminaires de leur cursus intégré de droit français et de droit allemand. De plus, il permet des compléments en auto-formation et en approfondissement des notions abordées dans une discipline qui n'est pas toujours facile d'accès pour les apprenants.
In a classical context, synchronization means adjustment of rhythms of self-sustained periodic oscillators due to their weak interaction. The history of synchronization goes back to the 17th century when the famous Dutch scientist Christiaan Huygens reported on his observation of synchronization of pendulum clocks: when two such clocks were put on a common support, their pendula moved in a perfect agreement. In rigorous terms, it means that due to coupling the clocks started to oscillate with identical frequencies and tightly related phases. Being, probably, the oldest scientifically studied nonlinear effect, synchronization was understood only in 1920-ies when E. V. Appleton and B. Van der Pol systematically - theoretically and experimentally - studied synchronization of triode generators. Since that the theory was well developed and found many applications. Nowadays it is well-known that certain systems, even rather simple ones, can exhibit chaotic behaviour. It means that their rhythms are irregular, and cannot be characterized only by one frequency. However, as is shown in the Habilitation work, one can extend the notion of phase for systems of this class as well and observe their synchronization, i.e., agreement of their (still irregular!) rhythms: due to very weak interaction there appear relations between the phases and average frequencies. This effect, called phase synchronization, was later confirmed in laboratory experiments of other scientific groups. Understanding of synchronization of irregular oscillators allowed us to address important problem of data analysis: how to reveal weak interaction between the systems if we cannot influence them, but can only passively observe, measuring some signals. This situation is very often encountered in biology, where synchronization phenomena appear on every level - from cells to macroscopic physiological systems; in normal states as well as in severe pathologies. With our methods we found that cardiovascular and respiratory systems in humans can adjust their rhythms; the strength of their interaction increases with maturation. Next, we used our algorithms to analyse brain activity of Parkinsonian patients. The results of this collaborative work with neuroscientists show that different brain areas synchronize just before the onset of pathological tremor. Morevoever, we succeeded in localization of brain areas responsible for tremor generation.
Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004.
Western Anatolia that represents the eastward lateral continuation of the Aegean domain is composed of several tectono-metamorphic units showing occurrences of high-pressure/low-temperature (HP-LT) rocks. While some of these metamorphic rocks are vestiges of the Pan-African or Cimmerian orogenies, others are the result of the more recent Alpine orogenesis. In southwest Turkey, the Menderes Massif occupies an extensive area tectonically overlain by nappe units of the Izmir-Ankara Suture Zone in the north, the Afyon Zone in the east, and the Lycian Nappes in the south. In the present study, investigations in the metasediments of the Lycian Nappes and underlying southern Menderes Massif revealed widespread occurrences of Fe-Mg-carpholite-bearing rocks. This discovery leads to the very first consideration that both nappe complexes recorded HP-LT metamorphic conditions during the Alpine orogenesis. P-T conditions for the HP metamorphic peak are about 10-12 kbar/400°C in the Lycian Nappes, and 12-14 kbar/470-500°C in the southern Menderes Massif, documenting a burial of at least 30 km during subduction and nappe stacking. Ductile deformation analysis in concert with multi-equilibrium thermobarometric calculations reveals that metasediments from the Lycian Nappes recorded distinct exhumation patterns after a common HP metamorphic peak. The rocks located far from the contact separating the Lycian Nappes and the Menderes Massif, where HP parageneses are well preserved, retained a single HP cooling path associated with top-to-the-NNE shearing related to the Akçakaya shear zone. This zone of strain localization is an intra-nappe contact that was active in the early stages of exhumation of HP rocks, within the stability field of Fe-Mg-carpholite. The rocks located close to the contact with the Menderes Massif, where HP parageneses are completely retrogressed into chlorite and mica, recorded warmer exhumation paths associated with top-to-the-E intense shearing. This deformation occurred after the southward emplacement of Lycian Nappes, and is contemporaneous with the reactivation of the ’Lycian Nappes-Menderes Massif′ contact as a major shear zone (the Gerit shear zone) that allowed late exhumation of HP parageneses under warmer conditions. The HP rocks from the southern Menderes Massif recorded a simple isothermal decompression at about 450°C during exhumation, and deformation during HP event and its exhumation is characterized by a severe N-S to NE-SW stretching. The age of the HP metamorphism recorded in the Lycian Nappes is assumed to range between the Latest Cretaceous (age of the youngest sediments in the Lycian allochthonous unit) and the Eocene (age of the Cycladic Blueschists). A probable Palaeocene age is suggested. The age of the HP metamorphism that affected the cover series of the Menderes Massif is constrained between the Middle Palaeocene (age of the uppermost metaolistostrome of the Menderes ’cover′) and the Middle Eocene (age of the HP metamorphism in the Dilek-Selçuk region that belongs to the Cycladic Complex). Apatite fission track data for the rocks on both sides of the ’Lycian Nappes/Menderes Massif’ contact suggest that these rocks were very close to the paleo-Earth surface in the Late Oligocene-Early Miocene time. This study in the Lycian Nappes and in the Menderes Massif establishes the existence of an extensive Alpine HP metamorphic belt in southwest Turkey. HP rocks were involved in the accretionary complex related to northward-verging subduction of the Neo-Tethys Ocean, Late Cretaceous obduction and subsequent Early Tertiary continental collision of the passive margin (Anatolide-Tauride block) beneath the active margin of the northern plate (Sakarya micro-continent). During the Eocene, the accretionary complex was made of three stacked HP units. The lowermost corresponds to the imbricated ’core′ and HP ’cover′ of the Menderes Massif, the intermediate one consists of the Cycladic Blueschist Complex (Dilek-Selçuk unit), and the uppermost unit is made of the HP Lycian Nappes. Whereas the basement units of both Aegean and Anatolian regions underwent a different pre-Mesozoic tectonic history, they were probably juxtaposed by the end of the Paleozoic and underwent a common Mesozoic history. Then, the basements and their cover, as well as the Cycladic Blueschists and the Lycian Nappes were involved in similar evolutional accretionary complexes during the Eocene and Oligocene times.
Die Studie untersucht den Erwerb der frühen Verbmorphologie im Estnischen. Als Datengrundlage der Arbeit dienen Spontansprachaufnahmen von 10 estnischsprachigen Kindern im Alter zwischen 10 und 32 Monaten. Die Studie versucht eine detaillierte Analyse des Erwerbs des estnischsprachigen Verbmorphologie vorzunehmen. Dabei werden die aufeinander folgenden Entwicklungsstadien, ihre ungefähren Altersgrenzen, sowie Erwerbsreihenfolge dargestellt und mit typologisch unterschiedlichen Sprachen verglichen.
In-situ Wachstumsuntersuchungen beim reaktiven Anlassen von Cu, In Schichten in elementarem Schwefel
(2003)
In dieser Arbeit wurde das reaktive Anlassen von dünnen Kupfer-Indium-Schichten in elementarem Schwefel mittels energiedispersiver Röntgenbeugung untersucht. Durch die simultane Aufnahme der Röntgenspektren und der Messung der diffusen Reflexion von Laserlicht der Wellenlänge 635 nm an der Oberfläche der Probe während des Schichtwachstums von CuInS<SUB>2</SUB> konnte eine Methode zur Prozesskontrolle für ein Herstellungsverfahren von CuInS<SUB>2</SUB> etabliert werden. Die Bildung von CuInS<SUB>2</SUB> aus Kupfer-Indium-Vorläuferschichten wird dominiert von Umwandlungen der intermetallischen Phasen. CuInS<SUB>2</SUB> wächst innerhalb der Aufheizperiode ab einer Temperatur von ca. 200°C aus der Phase Cu11In9. Jedoch zerfällt letztere metallische Phase in Cu16In9 und flüssiges Indium bei einer Temperatur von ca. 310°C. Das flüssige Indium reagiert im Falle von Kupferarmut mit dem Schwefel und führt zu einem zusätzlichen Reaktionspfad über InS zu CuIn5S8. Unter Präparationsbedingungen mit Kupferüberschuss wird das Indium in einer intermetallischen Phase gebunden.Erstmals konnte die Phase Digenite bei Temperaturen über 240°C beobachtet werden. Beim Abkühlen auf Raumtemperatur wandelt sich diese Phase unter dem Verbrauch von Schwefel in Covellite um.Für Proben mit Kupferüberschuss konnte eine Wachstumskinetik proportional zur Temperatur beobachtet werden. Dieses Verhalten wurde durch eine stress-induzierte Diffusion als dominierenden Reaktionsmechanismus interpretiert. Dabei werden während der Bildung von CuInS<SUB>2</SUB> durch unterschiedliche Ausdehnungen der metallischen und sulfidischen Schichten eine Spannung in der CuInS<SUB>2</SUB>-Schicht induziert, die nach Überschreiten einer Grenzspannung zu Rissen in der CuInS2-Schicht führt. Entlang dieser Risse findet ein schneller Transport der Metalle zur Oberfläche, wo diese mit dem Schwefel reagieren können, statt. Die Risse heilen durch die Bildung neuen Sulfids wieder aus.
Die heutige optische Informationsverarbeitung erfordert neue Materialien, die Licht effektiv verarbeiten, steuern und speichern können. Photorefraktive (PR) Materialien sind dafür sehr interessant. In diesen Materialien entsteht bei inhomogener Beleuchtung (z.B. mit einem Intererenzmuster) über Ladungsträgergenerierung und Einfang der Ladungsträger in Fallen ein Raumladungsfeld. Dieses wird über den elektrooptischen Effekt in eine räumliche Modulation des Brechungsindex umgesetzt. Letztendlich führt somit die inhomogene Beleuchtung eines PR-Materials zu einer räumlich variierenden Änderung des Brechungsindex. Vor ca. 10 Jahren wurde entdeckt, dass auch Polymere einen PR-Effekt aufweisen können. Die Ansprechzeit dieser Materialien wird dabei wesentlich durch die Dynamik der Ladungsträger (bestimmt durch Erzeugung, Transport, Einfang in Fallen etc.) begrenzt. Bis zu Beginn dieser Arbeit war es noch nicht gelungen, einen quantitativen Zusammenhang zwischen der Ladungsträgerdynamik und der Ansprechzeit des PR-Effekts experimentell nachzuweisen. In dieser Arbeit wird ein Weg aufgezeigt, durch photophysikalische Experimente unter verschiedenen Beleuchtungsbedingungen alle photophysikalischen Größen experimentell zu bestimmen, die den Aufbau des Raumladungsfelds in organischen photorefraktiven Materialien bestimmen. So konnte durch Experimente unter Beleuchtung mit kurzen Einzelpulsen sowohl die Beweglichkeit der freien Ladungsträger als auch die charakteristischen Parameter flacher Fallen ermittelt werden. Zur Bestimmung der Dichte tiefer Fallen wurde die Intensitätsabhängigkeit des stationären Photostroms untersucht. Durch die analytische Lösung des bestimmenden Gleichungssystems konnte gezeigt werden, dass die Sublinearität der Intensitätsabhängigkeit des Photostroms primär mit dem Verhältnis zwischen Entleerungs- und Einfangkoeffizienten tiefer Fallen korreliert. Zur unabhängigen Bestimmung des Entleerungskoeffizienten der tiefen Fallen wurden Doppelpulsexperimente mit variabler Verzögerungszeit zwischen den Pulsen verwendet. Mit den erhaltenen Parametern konnte dann das untere Limit der zum Aufbau des Raumladungsfelds notwendigen Zeit abgeschätzt werden. Diese Werte wurden mit den gemessenen photorefraktiven Ansprechzeiten verglichen. Es zeigt sich, dass weder die Photogeneration noch der Transport der Ladungsträger die Geschwindigkeit des Aufbaus des Raumladungsfeldes limitiert. Stattdessen konnte erstmals quantitativ nachgewiesen werden, dass die Dynamik des Raumladungsfelds in den hier untersuchten PR-Materialien durch das Füllen tiefer Fallen mit photogenerierten Ladungsträgern bestimmt wird. Dabei spielt das Verhältnis zwischen dem Einfang- und dem Rekombinationskoeffizienten eine wesentliche Rolle. Weiterhin wurde die Dynamik des Aufbaus des Raumladungsfelds bei unterschiedlichen Vorbeleuchtungsbedingungen quantitativ simuliert und mit den experimentellen PR-Transienten verglichen. Die gute Übereinstimmung zwischen den simulierten und gemessenen Transienten erlaubte es abschließend, die kritischen Parameter, die die Dynamik des PR-Effekts in den untersuchten Polymeren begrenzen, zu identifizieren.
Mit der vorliegenden Arbeit sollten mit Hilfe elektronenmikroskopischer Methoden verschiedene Liposomen-DNA-Komplexe zum Gentransfer charakterisiert sowie die Aufnahme und Verteilung in der Zellkultur untersucht werden. Dabei waren vor allem solche Präparationen von besonderem Interesse, die in unserer Arbeitsgruppe 'Drug Targeting' getestet oder entwickelt und verwendet wurden, wie Sendai-Virus Liposomen (HVJ-Liposomen), Virosomen sowie DAC-Chol und DOCSPER-Liposomen als Vertreter der kationischen Lipide. Im ersten Teil der Arbeit wurden fusogene Liposomen und Virosomen charakterisiert. Bei diesen Untersuchungen wurden folgende Ergebnisse erzielt: ·Sendai-Viren fusionieren mit Liposomen unterschiedlicher Lipidzusammensetzung. ·Die daraus resultierenden HVJ-Liposomen sind mit elektronenmikroskopischen Methoden identifizierbar. ·Die Spikes auf den HVJ-Liposomen besitzen fusogene Eigenschaften. ·HVJ-Liposomen eignen sich auf Grund der geringen Ausbeute sowie der geringen Transfektionseffizienz nicht zum in vitro Gentransfer. ·Virosomen stellen einen weiteren Typ fusogener Gentransfervesikel dar. ·Ihre Größe und fusogenen Eigenschaften sind abhängig von der externen Zugabe einer optimierten Lipidmischung. ·Im Innenraum der Virosomen kann mit Poly-L-Lysin vorkomplexierte DNA verkapselt werden. ·Die fusogenen Eigenschaften der Virosomen wurden mit Hilfe immunelektronenmikroskopischer Techniken und monoklonaler Antikörper gegen Hämagglutinin/Neuraminidase und das Fusionsprotein sowie mit polyklonalen Antiseren gezeigt. ·An Hand goldmarkierter DNA sind Virosomen nach der Transfektion in der Zelle nachweisbar. Da in unserer Arbeitsgruppe bevorzugt kationische Liposomen zum Gentransfer verwendet werden, wurde auch die Struktur der Liposomen untersucht und folgende Ergebnisse dokumentiert: ·Die Struktur und die Größe kationischer Liposomen werden hauptsächlich durch die Lipidzusammensetzung bestimmt. ·Die Bildung von Liposomen-DNA-Komplexen ist mit einer Größenzunahme der Komplexe gekoppelt. ·Die Anzahl gebundener Plasmide steigt mit der Größe der Lipoplexe. ·Gentransferaktive Lipopolyplexe (mit Protaminsulfat komplexierte DNA und DAC-Chol- Liposomen) sind kleiner als Lipoplexe. Ihre Struktur wird von der Zusammensetzung bestimmt. Eine weitere wichtige Frage betrifft den Weg der Gencarrier in der Zelle. Kenntnisse über diese Vorgänge sind vorteilhaft, um die einzelnen Schritte zu verstehen und möglichst gezielt zu verbessern. Bei der Untersuchung der Partikel im Hinblick auf zelluläre Barrieren beim Gentransfer konnten folgende Ergebnisse erzielt werden: ·Die Bindung der Partikel an die Zellmembran und Aufnahme sind abhängig von den eingesetzten Zellen und Komplexen sowie derInkubationszeit. ·Die Aufnahme erfolgt über endozytotische Mechanismen, wobei Lipopolyplexe schneller als Lipoplexe in die Zellen gelangen. Nicht alle gebundenen Komplexe werden aufgenommen. ·Die aufgenommenen Partikel befinden sich in Endosomen und werden ins Innere der Zelle transportiert. ·Freisetzung der DNA und Eintritt in den Zellkern über Kernporen konnte nicht beobachtet werden. ·DNA-haltige Vesikel in Kernnähe deuten auf einen weiteren Mechanismus hin (Vesikeltransfer zum Zellkern).
Im Landschaftszustand und in der Landschaftsentwicklung kommen funktionale Beziehungen zwischen dem naturbedingten Energie-, Wasser- und Stoffhaushalt einerseits und den Auswirkungen der Landnutzung andererseits zum Ausdruck. Gegenwärtig verändert der globale Anstieg der bodennahen Temperaturen vielerorts den landschaftlichen Energie-, Wasser- und Stoffhaushalt, wobei besonders in Trockengebieten zu erwarten ist, dass dieser Trend in Verbindung mit einer unangepassten Landnutzung das Regenerationsvermögen der Vegetation einschränkt und zur Zerstörung der Bodendecke führt. Für die Mongolei und für benachbarte Gebiete Asiens sind in Szenarien zur globalen Erwärmung hohe Werte des Temperaturanstiegs prognostiziert worden. Eine globale Einschätzung der anthropogen induzierten Bodendegradation hat diese Region als stark oder extrem stark betroffen eingestuft. Vor diesem Hintergrund wurde im Uvs-Nuur-Becken, das im Nordwesten der Mongolei und damit in einer der trockensten Regionen des Landes gelegen ist, untersucht, wie sich der globale Temperaturanstieg auf der lokalen und regionalen Ebene widerspiegelt und wie der Landschaftshaushalt dabei verändert wird. Die Auswirkungen des sommerlichen Witterungsverlaufes auf den Landschaftszustand sind 1997 bis 1999 an einem Transsekt erfasst worden, das sich zwischen dem Kharkhiraa-Gebirge am Westrand des Beckens und dem See Uvs Nuur im Beckeninneren von den Polsterfluren und Matten der alpinen Stufe über die Gebirgswaldsteppe, die Trockensteppe bis zur Halbwüste erstreckt. An neun Messpunkten wurden witterungsklimatische Daten in Verbindung mit Merkmalen der Vegetation, des Bodens und der Bodenfeuchte aufgenommen. Die im Sommer 1998 gewonnenen Messwerte wurden mit Hilfe einer Clusteranalyse gebündelt und verdichtet. Auf dieser Grundlage konnten landschaftliche Zustandsformen inhaltlich gekennzeichnet, zeitlich eingeordnet und durch Zeit-Verhaltens-Modelle (Stacks) abgebildet werden. Aus den Zeit-Verhaltens-Modellen wird ersichtlich, dass man Zustandsformen, in denen die Hitze und die Trockenheit des Sommers 1998 besonders stark zum Ausdruck kommen, an allen Messpunkten beobachten kann, nimmt man die Station auf dem fast 3.000 m hohen Gipfel des Khukh Uul sowie die grundwasserbeeinflusste Station in unmittelbarer Seenähe aus. In ihrer extremen Form sind Trockenperioden jedoch nur im Beckeninneren und am Fuß der Randgebirge, also in der Halbwüste, in der Trockensteppe und in der Wiesensteppe aufgetreten. Im Bergwald sowie im Bereich der alpinen Matten und Polsterfluren fehlen sie. Am stärksten sind die grundwasserfreien Bereiche der Halbwüste von der Hitze und Niederschlagsarmut des Sommers 1998 betroffen. An vier Fünfteln der Tage des Beobachtungszeitraumes herrscht an diesem Messpunkt extreme Trockenheit. Es fällt entweder gar kein Niederschlag oder nur so wenig, dass der seit dem Frühjahr erschöpfte Bodenwasservorrat nicht aufgefüllt wird. Das Verhältnis zwischen Niederschlag und potenzieller Verdunstung liegt hier bei 1:12. In der Halbwüste zeichnet sich eine fortschreitende Desertifikation ab, zumal hier eine nichtangepasste Weidenutzung dominiert, in der Ziegen eine immer größere Rolle spielen. Dies gilt insbesondere für Bereiche in Siedlungsnähe. Örtlich ist auch der Bestand der Trockensteppe gefährdet, die sich an die Halbwüste zum Beckenrand hin anschließt. Hier ist nicht nur die Viehdichte am höchsten, sondern hier werden auch die meisten unbefestigten Fahrwege wild angelegt und die Bodendecke damit zerstört. Dies kann im Endeffekt zu einem Übergreifen von Prozessen der Desertifikation führen. Aus methodischer Sicht zeigt sich, dass die Kennzeichnung landschaftlicher Zustandsformen durch Zeit-Verhaltens-Modelle die Ermittlung der Auswirkungen von Witterung und Klima auf den Landschaftszustand erleichtert, da sie deren Aussage konzentriert. Zur Interpretation der Ergebnisse ist jedoch ein Rückgriff auf die beschreibende Darstellung der Messwerte notwendig. Die im westlichen Uvs-Nuur-Becken und seinen Randgebirgen angewandte Verfahrensweise ermöglicht es, globale Aussagen zur globalen Erwärmung der Kontinente regional oder lokal zu überprüfen und zu untersetzen."
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
This work incorporates three treatises which are commonly concerned with a stochastic theory of the Lyapunov exponents. With the help of this theory universal scaling laws are investigated which appear in coupled chaotic and disordered systems. First, two continuous-time stochastic models for weakly coupled chaotic systems are introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck formalism scaling relations are derived, which are confirmed by results of numerical simulations. Next, coupling sensitivity is shown to exist for coupled disordered chains, where it appears as a singular increase of the localization length. Numerical findings for coupled Anderson models are confirmed by analytic results for coupled continuous-space Schrödinger equations. The resulting scaling relation of the localization length resembles the scaling of the Lyapunov exponent of coupled chaotic systems. Finally, the statistics of the exponential growth rate of the linear oscillator with parametric noise are studied. It is shown that the distribution of the finite-time Lyapunov exponent deviates from a Gaussian one. By means of the generalized Lyapunov exponents the parameter range is determined where the non-Gaussian part of the distribution is significant and multiscaling becomes essential.
Menschen nehmen Tausende von Stoffen als bitter wahr. Die chemische Struktur der verschiedenen Bitterstoffe ist sehr vielfältig: Sie reicht von kleinen Molekülen wie Kaliumchlorid oder Harnstoff, bis zu sehr komplexen organischen Verbindungen. Die Größe der einzigen bekannten menschlichen Familie von Bitterrezeptoren (TAS2Rs) wurde auf nur ca. 80-120 Mitglieder geschätzt. In Anbetracht der hohen Zahl und Komplexität der Bitterstoffe erscheint die Zahl von Rezeptoren als sehr gering. Dies führt natürlich zu einer Reihe von Fragen: Wie viele Mitglieder hat die menschliche TAS2R-Genfamilie? Wie viele verschiedene Substanzen können denselben Rezeptor aktivieren? Scheint die Zahl der TAS2R-Rezeptoren ausreichend, alle Bitterstoffe wahrnehmen zu können oder muss es noch andere Bitterrezeptorfamilien geben? Diese Fragen zu beantworten, ist das Ziel der vorliegenden Arbeit. Hier durchgeführte Analysen des menschlichen Genomprojektes zeigen, dass Menschen ca. 25 TAS2R-Rezeptoren besitzt, die eine sehr divergente Aminosäurestruktur aufweisen. Diese Rezeptoren wurden in eine neu entwickelte Expressionskassette kloniert, die den Transport des Rezeptors an die Zelloberfläche ermöglicht. Um Liganden für die menschliche TAS2R-Rezeptoren zu identifizieren, wurden die Rezeptoren in HEK293 Zellen exprimiert und mit verschiedenen Bitterstoffen stimuliert. Der Nachweis der Rezeptoraktivierung erfolgte durch Calcium-Imaging. Es konnte gezeigt werden, dass hTAS2R16 der menschliche Rezeptor zur Wahrnehmung von Salicin und verwandten bitteren Pyranosiden ist. So wird hTAS2R16 in HEK293 Zellen durch Salicin und chemisch verwandte Substanzen aktiviert. Ein Vergleich der in diesem Messsystem erhaltenen Daten mit psychophysikalisch ermittelten Geschmackswahrnehmungen beim Menschen, ergab eine hohe Übereinstimmung. Die Ergebnisse deuten auch darauf hin, dass die Desensitiverung einzelner Rezeptoren die Ursache für die Adaption des Bittergeschmacks ist. Der Nachweis der Expression des Rezeptors in menschlichen Geschmackspapillen, sowie die festgestellte Assoziation des G/A Polymorpphismus an Position 665 des hTAS2R16 Gens mit einer reduzierten Salicinwahrnehmung, sind weitere unabhängige Beweise für diese These. Ein anderer menschlicher Rezeptor, hTAS2R10, wird durch die Bitterstoffe Strychnin, Brucin und Denatonium aktiviert. Dies sowie die Tatsache, dass die zur Aktivierung benutzten Konzentrationen eine sinnvolle Korrelation zu dem menschlichen Geschmacksschwellwert von Strychnin zeigen, sind starke Hinweise, dass hTAS2R10 der menschliche Rezeptor zur Wahrnehmung von Strychnin und verwandten Substanzen ist. Die vorliegenden Daten zeigen eindeutig, dass die TAS2R-Rezeptoren auch beim Menschen Bitterrezeptoren darstellen. Sowohl hTAS2R16, als auch hTAS2R10 werden durch ein Spektrum strukturell sehr unterschiedlicher Bitterstoffe aktiviert. Falls die anderen Mitglieder der TAS2R-Familie ebenfalls dieses Verhalten zeigen, wäre es möglich, dass die nur ca. 25 Mitglieder umfassende TAS2R-Rezeptorfamilie des Menschen tatsächlich zur Wahrnehmung aller Bitterstoffe ausreicht.
Die Präeklampsie ist eine schwangerschaftsspezifische Bluthochdruck-Erkrankung, die im Allgemeinen nach der 20. Schwangerschaftswoche auftritt. Neben der Hypertonie sind die Proteinurie und die Ödembildung charakteristische Symptome der Präeklampsie. Obwohl heute die Pathophysiologie der Präeklampsie zum großen Teil verstanden ist, ist die Ätiologie dieser Erkrankung noch unklar. 1999 konnten wir in den Seren von Präeklampsie-Patientinnen agonistische Autoantikörper, die gegen den Angiotensin II AT1-Rezeptor gerichtet sind (AT1-AAK), nachweisen. Diese AT1-AAK gehören zur Antikörpersubklasse IgG3. Die AT1-AAK führen in Kulturen neonataler Rattenkardiomyozyten AT1-Rezeptor spezifisch zu einem positiv chronotropen Effekt. Mittels Immunpräzipitation wurde gezeigt, dass AT1-AAK spezifisch den AT1-Rezeptor präzipitieren. Kontrollproben, aus denen die AT1-AAK entfernt wurden, führen zu keiner Präzipitation des AT1-Rezeptors. Die Präzipitation des AT1-Rezeptors bleibt ebenfalls aus, wenn die AT1-AAK mit einem Peptid, welches der Aminosäuresequenz des zweiten extrazellulären Loops des humanen AT1-Rezeptors entspricht, behandelt wurden. Eine Langzeitbehandlung der Kulturen neonataler Rattenherzzellen mit AT1-AAK vermindert die funktionelle Ansprechbarkeit der Zellen auf einen erneuten AT1-Rezeptor-Stimulus. Eine veränderte AT1-Rezeptorexpression wurde nicht nachgewiesen. In guter Übereinstimmung mit den in vitro-Expressionsdaten wurde gezeigt, dass die plazentare AT1-Rezeptorexpression bei Präeklampsie-Patientinnen nicht verschieden von der plazentaren AT1-Rezeptorexpression gesunder Schwangerer mit nicht pathogen verändertem Blutdruck ist. Im Zellsystem der neonatalen Rattenherzzellen führen die AT1-AAK zur Aktivierung von Gi-Proteinen und zu verringerten intrazellulären cAMP-Spiegeln. Des Weiteren wurde gezeigt, dass die AT1-AAK in Kulturen neonataler Rattenherzzellen die Transkriptionsfaktoren AP-1 und NFkB aktivieren. Die Aktivierung des Transkriptionsfaktors NFkB wurde vornehmlich in den Nicht-Myozyten der Rattenherzzellkultur nachgewiesen. Generell wurde festgestellt, dass sich die AT1-AAK pharmakologisch wie der natürliche Agonist des AT1-Rezeptors, Angiotensin II, verhalten. Erste Daten dieser Arbeit deuten auf einen eventuellen Einfluss der AT1-AAK auf die Expression von Komponenten der extrazellulären Matrix bzw. assoziierter Faktoren (Kollagen III, MMP-2, TIMP-2, Colligin) hin. In allen in dieser Arbeit untersuchten Seren von klinisch diagnostizierten Präeklampsie-Patientinnen wurden agonistische AT1-AAK nachgewiesen. Wir vermuten daher, dass die AT1-AAK möglicherweise bedeutend in der Pathogenese der Präeklampsie sind.
During the past several decades polymer materials become widely used as components of medical devices and implants such as hemodialysers, bioartificial organs as well as vascular and recombinant surgery. Most of the devices cannot avoid the blood contact in their use. When the polymer materials come in contact with blood they can cause different undesired host responses like thrombosis, inflammatory reactions and infections. Thus the materials must be hemocompatible in order to minimize these undesired body responses. The earliest and one of the main problems in the use of blood-contacting biomaterials is the surface induced thrombosis. The sequence of the thrombus formation on the artificial surfaces has been well established. The first event, which occurs, after exposure of biomaterials to blood, is the adsorption of blood proteins. Surface physicochemical properties of the materials as wettability greatly influence the amount and conformational changes of adsorbed proteins. In turn the type, amount and conformational state of the adsorbed protein layer determines whether platelets will adhere and become activated or not on the artificial surface and thus to complete the thrombus formation. The adsorption of fibrinogen (FNG), which is present in plasma, has been shown to be closely related to surface induced thrombosis by participating in all processes of the thrombus formation such as fibrin formation, platelet adhesion and aggregation. Therefore study the FNG adsorption to artificial surfaces could contribute to better understanding of the mechanisms of platelet adhesion and activation and thus to controlling the surface induced thrombosis. Endothelization of the polymer surfaces is one of the strategies for improving the materials hemocompatibility, which is believed to be the most ideal solution for making truly blood-compatible materials. Since at physiological conditions proteins such as FNG and fibronectin (FN) are the usual extracellular matrix (ECM) for endothelial cells (EC) adhesion, precoating of the materials with these proteins has been shown to improve EC adhesion and growth in vitro. ECM proteins play an essential role not only like a structural support for cell adhesion and spreading, but also they are important factor in transmitting signals for different cell functions. The ability of cells to remodel plasma proteins such as FNG and FN in matrix-like structures together with the classical cell parameters such as actin cytoskeleton and focal adhesion formation could be used as an criteria for proper cell functioning. The establishment and the maintaining of delicate balance between cell-cell and cell-substrate contacts is another important factor for better EC colonization of the implants. The functionality of newly established endothelium in order to produce antithromotic substances should be always considered when EC seeding is used for improving the hemocompatibility of the polymer materials. Controlling the polymer surface properties such as surface wettability represents a versatile approach to manipulate the above cellular responses and therefore can be used in biomaterial and tissue engineering applications for producing better hemocompatible materials.
This thesis describes the development and application of the impacts module of the ICLIPS model, a global integrated assessment model of climate change. The presentation of the technical aspects of this model component is preceded by a discussion of the sociopolitical context for model-based integrated assessments, which defines important requirements for the specification of the model. Integrated assessment of climate change comprises a broad range of scientific efforts to support the decision-making about objectives and measures for climate policy, whereby many different approaches have been followed to provide policy-relevant information about climate impacts. Major challenges in this context are the large diversity of the relevant spatial and temporal scales, the multifactorial causation of many climate impacts', considerable scientific uncertainties, and the ambiguity associated with unavoidable normative evaluations. A hierarchical framework is presented for structuring climate impact assessments that reflects the evolution of their practice and of the underlying theory. Integrated assessment models of climate change (IAMs) are scientific tools that contain simplified representations of the relevant components of the coupled society-climate system. The major decision-analytical frameworks for IAMs are evaluated according to their ability to address important aspects of the pertinent social decision problem. The guardrail approach is presented as an inverse' framework for climate change decision support, which aims to identify the whole set of policy strategies that are compatible with a set of normatively specified constraints (guardrails'). This approach combines, to a certain degree, the scientific rigour and objectivity typical of predictive approaches with the ability to consider virtually all decision options that is at the core of optimization approaches. The ICLIPS model is described as the first IAM that implements the guardrail approach. The representation of climate impacts is a key concern in any IAM. A review of existing IAMs reveals large differences in the coverage of impact sectors, in the choice of the impact numeraire(s), in the consideration of non-climatic developments, including purposeful adaptation, in the handling of uncertainty, and in the inclusion of singular events. IAMs based on an inverse approach impose specific requirements to the representation of climate impacts. This representation needs to combine a level of detail and reliability that is sufficient for the specification of impact guardrails with the conciseness and efficiency that allows for an exploration of the complete domain of plausible climate protection strategies. Large-scale singular events can often be represented by dynamic reduced-form models. This approach, however, is less appropriate for regular impacts where the determination of policy-relevant results generally needs to consider the heterogeneity of climatic, environmental, and socioeconomic factors at the local or regional scale. Climate impact response functions (CIRFs) are identified as the most suitable reduced-form representation of regular climate impacts in the ICLIPS model. A CIRF depicts the aggregated response of a climate-sensitive system or sector as simulated by a spatially explicit sectoral impact model for a representative subset of plausible futures. In the CIRFs presented here, global mean temperature and atmospheric CO2 concentration are used as predictors for global and regional impacts on natural vegetation, agricultural crop production, and water availability. Application of a pattern scaling technique makes it possible to consider the regional and seasonal patterns in the climate anomalies simulated by several general circulation models while ensuring the efficiency of the dynamic model components. Efforts to provide quantitative estimates of future climate impacts generally face a trade-off between the relevance of an indicator for stakeholders and the exactness with which it can be determined. A number of non-monetary aggregated impact indicators for the CIRFs is presented, which aim to strike the balance between these two conflicting goals while taking into account additional constraints of the ICLIPS modelling framework. Various types of impact diagrams are used for the visualization of CIRFs, each of which provides a different perspective on the impact result space. The sheer number of CIRFs computed for the ICLIPS model precludes their comprehensive presentation in this thesis. Selected results referring to changes in the distribution of biomes in different biogeographical regions, in the agricultural potential of various countries, and in the water availability in selected major catchments are discussed. The full set of CIRFs is accessible via the ICLIPS Impacts Tool, a graphical user interface that provides convenient access to more than 100,000 impact diagrams developed for the ICLIPS model. The technical aspects of the software are described as well as the accompanying database of CIRFs. The most important application of CIRFs is in inverse' mode, where they are used to translate impact guardrails into simultaneous constraints for variables from the optimizing ICLIPS climate-economy model. This translation is facilitated by algorithms for the computation of reachable climate domains and for the parameterized approximation of admissible climate windows derived from CIRFs. The comprehensive set of CIRFs, together with these algorithms, enables the ICLIPS model to flexibly explore sets of climate policy strategies that explicitly comply with impact guardrails specified in biophysical units. This feature is not found in any other intertemporally optimizing IAM. A guardrail analysis with the integrated ICLIPS model is described that applies selected CIRFs for ecosystem changes. So-called necessary carbon emission corridors' are determined for a default choice of normative constraints that limit global vegetation impacts as well as regional mitigation costs, and for systematic variations of these constraints. A brief discussion of recent developments in integrated assessment modelling of climate change connects the work presented here with related efforts.
In this thesis the gravitational lensing effect is used to explore a number of cosmological topics. We determine the time delay in the gravitationally lensed quasar system HE1104-1805 using different techniques. We obtain a time delay Delta_t(A-B) Delta_t(A-B) =-310 +- 20 days (2 sigma errors) between the two components. We also study the double quasar Q0957+561 during a three years monitoring campaign. The fluctuations we find in the difference light curves are completely consistent with noise and no microlensing is needed to explain these fluctuations. Microlensing is also studied in the quadruple quasar Q2237+0305 during the GLITP collaboration (Oct.1999-Feb.2000). We use the absence of a strong microlensing signal to obtain an upper limit of v=600 km/s for the effective transverse velocity of the lens galaxy (considering microlenses with 0.1 solar masses). The distribution of dark matter in galaxy clusters is also studied in the second part of the thesis. In the cluster of galaxies Cl0024+1654 we obtain a mass-to-light ratio of M/L = 200 M_sun/L_sun (within a radius of 3 arcminutes). In the galaxy cluster RBS380 we find a relatively low X-ray luminosity for a massive cluster of L =2*10^(44) erg/s, but a rich distribution of galaxies in the optical band.
Ein Spezialgebiet der modernen Mikroelektronik ist die Miniaturisierung und Entwicklung von neuen nanostrukturierten und Komposit-Materialen aus 3d-Metallen. Durch geeignete Zusammensetzungen können diese sowohl mit einer hohen Sättigungsmagnetisierung und Koerzitivfeldstärke als mit besserer Oxidationsbeständigkeit im Vergleich zu den reinen Elementen erzielt werden. In der vorliegenden Arbeit werden neue Methoden für die Herstellung von bimetallischen kolloidalen Nanopartikeln vor allem mit einer Kern-Hülle-Struktur (Kern@Hülle) präsentiert. Bei der überwiegenden Zahl der vorgestellten Reaktionen handelt es sich um die thermische Zersetzung von metallorganischen Verbindungen wie Kobaltcarbonyl, Palladium- und Platinacetylacetonate oder die chemische Reduktion von Metallsalze mit langkettigem Alkohol in organischem Lösungsmittel. Daneben sind auch Kombinationen aus diesen beiden Verfahren beschrieben. Es wurden Kolloide aus einem reinen Edelmetall (Pt, Pd, Ag) in einem organischen Lösungsmittel synthetisiert und daraus neue, bisher in dieser Form nicht bekannte Ag@Co-, Pt@Co-, Pd@Co- und Pt@Pd@Co-Nanopartikel gewonnen. Der Kobaltgehalt der Ag@Co-, Teilchen konnte im Bereich von 5 bis 73 At. % beliebig eingestellt werden. Der mittlere Durchmesser der Ag@Co-Partikel wurde von 5 nm bis 15 nm variiert. Bei der Herstellung von Pt@Co-Teilchen wurde eine unterschiedlich dicke Kobalt-Hülle von ca. 1,0 bis 2,5 nm erzielt. Im Fall des Palladiums wurden sowohl monodispere als auch polydisperse Pd-Nanopartikel mit einer maximal 1,7-2,0nm dicken Kobalthülle synthetisiert. Ein großer Teil dieser Arbeit befasst sich mit den magnetischen Eigenschaften der kolloidalen Teilchen, wobei die SQUID-Magnetometrie und Röntgenzirkulardichroismus (XMCD) dafür eingesetzt wurden. Weil magnetische Messungen alleine nur indirekte Schlüsse über die untersuchten Systeme erlauben, wurde dabei besonderer Wert auf die möglichst genaue strukturelle Charakterisierung der Proben mittels moderner Untersuchungsmethoden gelegt. Röntgendiffraktometrie (XRD), Röntgenabsorptionsfeinstruktur- (EXAFS) und UV-Vis-Spektroskopie sowie Transmissionselektronenmikroskopie (TEM) in Kombination mit Elektronen Energieverlustspektroskopie (EELS) und energiedispersive Röntgenfluoreszensanalyse (EDX) wurden verwendet.