Refine
Has Fulltext
- yes (247) (remove)
Year of publication
- 2016 (247) (remove)
Document Type
- Article (127)
- Doctoral Thesis (36)
- Monograph/Edited Volume (20)
- Part of Periodical (14)
- Review (14)
- Part of a Book (11)
- Master's Thesis (8)
- Postprint (6)
- Conference Proceeding (4)
- Bachelor Thesis (2)
Language
- German (247) (remove)
Keywords
- Migration (13)
- religion (13)
- Religion (12)
- interkulturelle Missverständnisse (12)
- migration (12)
- religiöses Leben (12)
- confusions and misunderstandings (11)
- Gender (4)
- Korrespondenz (4)
- Borders (3)
Institute
- Institut für Slavistik (58)
- Vereinigung für Jüdische Studien e. V. (24)
- Verband für Patholinguistik e. V. (vpl) (18)
- Institut für Germanistik (13)
- Institut für Lebensgestaltung-Ethik-Religionskunde (12)
- Institut für Romanistik (12)
- Bürgerliches Recht (10)
- Institut für Informatik und Computational Science (10)
- MenschenRechtsZentrum (10)
- Wirtschaftswissenschaften (9)
„Was ist Migration?“
(2016)
Auch wenn die Appelle, die Bedeutung von Migration für Erwachsenenbildung deutlicher wahrzunehmen, unüberhörbar sind, bleiben sie bezüglich kategorialer Arbeit bemerkenswert wenig beachtet. Grundlagentheoretisch motivierte Arbeit am Begriff „Migration“ ist in der Erwachsenenbildung noch lange nicht hinreichend ausgeschöpft. Auch wenn sich einzelne Studien mit ihm auseinandersetzen, besteht dennoch der Eindruck, dass kategoriale Klärungsversuche singulär bleiben. Die nicht einfache Aufgabe, den Begriff Migration vor seiner kategorialen Stilllegung zu bewahren, bleibt eine ernsthafte Herausforderung für erwachsenenpädagogische Migrationsforschung, sofern sie daran interessiert ist, die Risiken eines bisher essentialistischen Kurses ernsthaft ins Visier zu nehmen.
Portal alumni
(2016)
Die Universität Potsdam hat in diesem Jahr groß gefeiert: Sie ist 25 Jahre alt geworden. Zahlreiche Veranstaltungen und Publikationen zum Jubeljahr beleuchten, wie sich die Universität seit ihrer Gründung am 15. Juli 1991 entwickelt hat. Auch die Redaktion von Portal Alumni will dieses Vierteljahrhundert in den Blick nehmen und zwar aus der Perspektive der Studierenden und Alumni. Wir haben uns gefragt: Wie hat sich das Studium an der Universität Potsdam in der Vergangenheit geändert? Was ist den Studierenden heute wichtig, was waren wichtige Themen vor zehn oder zwanzig Jahren? Welche Erinnerungen haben Alumni an ihre Hochschulzeit? In diesem Heft lassen wir Alumni zu Wort kommen, die zu unterschiedlichen Zeiten an der Universität studiert haben und die für uns einen Blick zurück werfen auf ihre Generation. Mit dabei ist etwa Stefan Uhlmann, der sein Studium kurz vor dem Wendeherbst aufgenommen hatte. Sein erstes Semester war noch geprägt von sozialer Sicherheit: Der Staat zahlte den monatlichen studentischen Unterhalt von 200 Mark, die Universität stellte den Wohnheimplatz. Selbst der Arbeitsplatz war nach den Gesetzen der Planwirtschaft sicher. Wenige Monate später war alles anders: Die Inhalte aller Studiengänge wurden auf den Prüfstand gestellt, alle Rahmenbedingungen neu gestaltet, die gesamte Gesellschaft und damit auch der Arbeitsmarkt waren im Umbruch. Zwischen der Generation von Stefan Uhlmann und der der jungen Bachelorabsolventin Friederike Bath liegen 25 Jahre Universitätsgeschichte. Eine Zeit, in der sich Lehre und Studium gewandelt haben. Der Einführung von einer Studienordnung nach bundesdeutschem Recht folgte in der Jahrtausendwende die Bologna-Reform, die nicht nur das Studieren verändert hat. Sie hat auch einen Wertewandel mit sich gebracht, den der Sozialisationswissenschaftler Wilfried Schubarth in dieser Ausgabe beschreibt.
Portal Wissen = klein
(2016)
Seien wir mal ehrlich: Auch Wissenschaft hat das Ziel, groß rauszukommen, zumindest im Namen der Erkenntnis. Dabei gilt doch: Wenn etwas ins Stammbuch erfolgreicher Forschung gehört, dann ist es wohl die Vorstellung vom Kleinen. Schließlich ist es schon immer ihr Selbstverständnis gewesen, das zu ergründen, was sich nicht auf den ersten Blick erschließt. Schon Seneca war der Ansicht: „Wenn etwas kleiner ist als das Große, so ist es darum noch lange nicht unbedeutend.“
Kleinste Einheiten des Lebens wie Bakterien oder Viren bewirken Gewaltiges. Und immer wieder müssen (scheinbar) große Dinge erst ver- oder zerkleinert werden, um ihre Natur zu erkennen. Eines der größten Geheimnisse unserer Welt – das Atom als kleinste, wenn auch (nicht mehr) unteilbare Einheit der chemischen Elemente – hat sich erst beim Blick auf Winzigkeiten offenbart. Dabei war klein mitnichten immer nur das Gegenstück zu groß. Zumindest sprachlich, denn das Wort geht auf das westgermanische klaini zurück, das so viel wie „fein“ und „zierlich“ bedeutet, und ist darüber hinaus auch mit dem englischen clean, also „sauber“, verwandt. Fein und sauber – durchaus ein erstrebenswertes Credo für wissenschaftliches Arbeiten. Auch ein wenig Kleinlichkeit schadet nicht.
Dabei darf ein Forscher beileibe kein Kleingeist, sondern sollte bereit sein, das Unvermutete zu ahnen und seine Arbeit entsprechend darauf auszurichten. Und wenn das Ziel nicht kurzfristig zu erreichen ist, braucht es den namhaften langen Atem, sich nicht kleinreden zu lassen und klein beizugeben.
Genau genommen ist Forschung eigentlich ein nicht enden wollendes Klein-klein. Jede nobelpreiswürdige Entdeckung, jedes Großforschungsprojekt muss mit einer kleinen Idee, einem Fünklein beginnen, nur um anschließend bis ins Kleinste durchgeplant zu werden. Was folgt, die Niederungen der Ebene, ist Kleinarbeit: stundenlange Interviews auf der Suche nach dem Geheimnis des Kleinhirns, tagelange Feldstudien, die Kleinstlebewesen nachspüren, wochenlange Experimentreihen, die das mikroskopisch Kleine sichtbar machen sollen, monatelange Archivrecherche, die Kleinkram zutage fördert, oder jahrelange Lektüre des Kleingedruckten. All das auf der Jagd nach dem großen Wurf …
Darum haben wir Ihnen ein paar „Kleinigkeiten“ aus der Forschung an der Universität Potsdam zusammengestellt, ganz nach dem Motto: Klein, aber oho! So arbeiten Ernährungswissenschaftler daran, einigen der kleineren Erdenbewohner – den Mäusen – das Schicksal von „Laborratten“ zu ersparen, indem sie Alternativen zu Tierversuchen entwickeln. Wie Hänschen klein Sprachen lernt, untersuchen Sprachwissenschaftler gleich in mehreren Projekten und mit innovativen Methoden. Nur scheinbar klitzeklein sind dagegen die Milliarden von Sternen der Magellanschen Wolken, die Potsdamer Astrophysiker im Blick haben – vom Babelsberg aus. Die Geowissenschaftler des Graduiertenkollegs „StRATEGy“ wiederum waren vor Ort in Argentinien, um das (Klein-)„Kind“ – das Wetterphänomen El Niño – und seine Ursachen einmal genauer unter die Lupe zu nehmen. Klein anfangen, aber (die Potsdamer Kulturlandschaft) groß rausbringen soll das Research Center Sanssouci, das die Stiftung Preußische Schlösser und Gärten und die Universität Potsdam gemeinsam initiiert haben. Schließlich zeigen wir, dass schon jetzt eine ganze Reihe von Projekten und Initiativen angeschoben wird, um 2019 ein Kleinod der Region neu zu entdecken: den Wanderer durch die Mark, Theodor Fontane.
Wie gesagt: Kleinigkeiten. Wir wünschen viel Spaß beim Lesen!
Die Redaktion
Portal Wissen = Punkt
(2016)
Ein Punkt hat es in sich, auch wenn man es ihm nicht unbedingt ansieht. Immerhin gilt er in der Geometrie als Objekt ohne Ausdehnung – etwas, das da ist, aber sich nicht „breit macht“. Man sollte annehmen, was so klein ist, wird leicht übersehen. Aber Punkte sind, wenn man genauer hinschaut, nicht nur überall zu finden, sondern auch präsent und spielen gewichtige Rollen. In der Physik etwa ist ein Massepunkt die höchstmögliche Idealisierung eines realen Körpers: Er beschreibt die – theoretische – Vorstellung, die gesamte Masse des Körpers wäre in einem Punkt, seinem Schwerpunkt, vereinigt. Punkte finden sich am Anfang (Ausgangspunkt), an den Übergängen (Dreh- und Angelpunkt) und am Ende (Schlusspunkt). Ein Punkt ist das Symbol größter Präzision, nicht umsonst kommt man sprichwörtlich „auf den Punkt“. Als Bestandteil unserer Schrift kürzt er ab, gliedert und bringt Gesagtes zu Ende. Sogar Musiker und Mediziner punktieren. Und Sportler aller Arten sammeln Punkte auf Plätzen, Bahnen und in Tabellen.
Kein Wunder, dass gerade Wissenschaftler von Punkten „umgeben“ sind und täglich mit ihnen arbeiten: Sie bringen Ordnung ins Chaos, strukturieren das Unerklärte, benennen das Namenlose. Allzu oft macht ein Punkt den Anfang, von dem aus sich Zugänge eröffnen, zu Welten, Erkenntnissen oder Problemen.
Aber Punkte sind für alle da! Der deutsche Mathematiker Oskar Perron schrieb: „Ein Punkt ist genau das, was der intelligente, aber harmlose, unverbildete Leser sich darunter vorstellt.“ So wollen wir es halten: Das vorliegende Heft will spannende Anknüpfungspunkte bieten, Standpunkte analysieren und punktgenau erklären.
So folgen wir etwa einem Physiker zur Sonne, in den Mittelpunkt unseres Sonnensystems, um zu ergründen, wie Sonneneruptionen entstehen. Mit einem Juristen diskutierten wir über Streitpunkte zwischen Recht und Religion, während Religionswissenschaftler in einem Reisetagebuch von einzigartigen Berührungspunkten mit der (Wissenschafts-)Kultur im Iran berichten. Kognitionsund Literaturwissenschaftler eröffnen gemeinsam besondere Blickpunkte – nämlich, wie wir Comics lesen und verstehen – und Wirtschaftsinformatiker zeigen Ansatzpunkte, mit denen sie Mensch und Maschine gemeinsam fit machen für Fabriken im Zeitalter von Industrie 4.0. Bildungswissenschaftler wiederum erläutern ihr Konzept dafür, wie das kreative Potenzial von Künstlern zum Ausgangspunkt werden kann, um Schülern einen individuellen Zugang zu Kunst zu ermöglichen. Psychologen offenbaren, warum die Farbe Rot uns zu Anziehungspunkten macht, während Geowissenschaftler erklären, warum ein Klimaphänomen namens El Niño weltweit – nasse und trockene – Brennpunkte verursacht. Und das sind nur einige Punkte von vielen …
Mit all dem hoffen wir natürlich, auch bei Ihnen zu punkten. Wir wünschen Ihnen eine anregende Lektüre! Punkt. Aus. Ende. Nein, Anfang!
Die Redaktion
Portal = Klima im Wandel
(2016)
Die Projektierung und Abwicklung sowie die statische und dynamische Analyse von Geschäftsprozessen im Bereich des Verwaltens und Regierens auf kommunaler, Länder- wie auch Bundesebene mit Hilfe von Informations- und Kommunikationstechniken beschäftigen Politiker und Strategen für Informationstechnologie ebenso wie die Öffentlichkeit seit Langem.
Der hieraus entstandene Begriff E-Government wurde in der Folge aus den unterschiedlichsten technischen, politischen und semantischen Blickrichtungen beleuchtet.
Die vorliegende Arbeit konzentriert sich dabei auf zwei Schwerpunktthemen:
• Das erste Schwerpunktthema behandelt den Entwurf eines hierarchischen Architekturmodells, für welches sieben hierarchische Schichten identifiziert werden können. Diese erscheinen notwendig, aber auch hinreichend, um den allgemeinen Fall zu beschreiben.
Den Hintergrund hierfür liefert die langjährige Prozess- und Verwaltungserfahrung als Leiter der EDV-Abteilung der Stadtverwaltung Landshut, eine kreisfreie Stadt mit rund 69.000 Einwohnern im Nordosten von München. Sie steht als Repräsentant für viele Verwaltungsvorgänge in der Bundesrepublik Deutschland und ist dennoch als Analyseobjekt in der Gesamtkomplexität und Prozessquantität überschaubar.
Somit können aus der Analyse sämtlicher Kernabläufe statische und dynamische Strukturen extrahiert und abstrakt modelliert werden.
Die Schwerpunkte liegen in der Darstellung der vorhandenen Bedienabläufe in einer Kommune. Die Transformation der Bedienanforderung in einem hierarchischen System, die Darstellung der Kontroll- und der Operationszustände in allen Schichten wie auch die Strategie der Fehlererkennung und Fehlerbehebung schaffen eine transparente Basis für umfassende Restrukturierungen und Optimierungen.
Für die Modellierung wurde FMC-eCS eingesetzt, eine am Hasso-Plattner-Institut für Softwaresystemtechnik GmbH (HPI) im Fachgebiet Kommunikationssysteme entwickelte Methodik zur Modellierung zustandsdiskreter Systeme unter Berücksichtigung möglicher Inkonsistenzen (Betreuer: Prof. Dr.-Ing. Werner Zorn [ZW07a, ZW07b]).
• Das zweite Schwerpunktthema widmet sich der quantitativen Modellierung und Optimierung von E-Government-Bediensystemen, welche am Beispiel des Bürgerbüros der Stadt Landshut im Zeitraum 2008 bis 2015 durchgeführt wurden. Dies erfolgt auf Basis einer kontinuierlichen Betriebsdatenerfassung mit aufwendiger Vorverarbeitung zur Extrahierung mathematisch beschreibbarer Wahrscheinlichkeitsverteilungen.
Der hieraus entwickelte Dienstplan wurde hinsichtlich der erzielbaren Optimierungen im dauerhaften Echteinsatz verifiziert.
[ZW07a] Zorn, Werner: «FMC-QE A New Approach in Quantitative Modeling», Vortrag anlässlich: MSV'07- The 2007 International Conference on Modeling, Simulation and Visualization Methods WorldComp2007, Las Vegas, 28.6.2007.
[ZW07b] Zorn, Werner: «FMC-QE, A New Approach in Quantitative Modeling», Veröffentlichung, Hasso-Plattner-Institut für Softwaresystemtechnik an der Universität Potsdam, 28.6.2007.
Das dritte Working Paper in der KFG Working Paper Series analysiert Zustand und Perspektiven völkerrechtlicher Abrüstungsverträge unter der Ägide der Vereinten Nationen. Während die dreißig Jahre zwischen der Kuba-Krise und dem Fall des Eisernen Vorhangs für die Abrüstung eine erfolgreiche Periode gewesen seien, seien in den Vereinten Nationen seither außer dem Waffenhandelsvertrag keine weiteren Abrüstungsverträge abgeschlossen worden. Die gegenwärtige Stimmung sei abwartend bis negativ, obwohl es ein Nachholbedürfnis gebe, Abrüstungsverträge an die heutigen politischen Gegebenheiten sowie an den Stand der Technik anzupassen. Die Verfasserin schlägt als Lösung vor, durch eine Politik der kleinen Schritte ein besseres Abrüstungsklima zu schaffen, indem dem Diskurs auf Grundlage zusätzlicher Protokolle zu bestehenden Verträgen und notfalls auch durch ein Ausweichen auf andere Gremien eine neue Richtung verliehen werde.
Die vorliegende Arbeit beschäftigt sich mit dem Einfluss der Organisationsform von Mikrofinanzinstitutionen (MFIs) auf deren soziale Performance. In diesem Kontext wird die soziale Performance als die direkte Übersetzung der sozialen Mission der MFIs in die Praxis verstanden. Konkret wird die soziale Performance der zwei Organisationsformen Shareholder Owned Firm (SOF) sowie Non-Governmental Organisation (NGO) betrachtet und verglichen. Dieser Vergleich stützt sich auf die in der Fachwelt häufig vertretene Annahme, dass NGO MFIs eine höhere soziale Performance aufweisen als SOF MFIs, da sie dem Nonprofit-Sektor zugeschrieben werden können. Die bis dato vorhandenen relevanten empirischen Forschungen zu dem Thema werden anhand einer Literaturdiskussion analysiert. Bislang existiert nur eine relativ geringe Anzahl an empirischen Forschungen in diesem Themenfeld, da die Erforschung der sozialen Performance von MFIs ein recht neues Forschungsgebiet darstellt. Die Ergebnisse der Literaturdiskussion verdeutlichen zudem, dass hinsichtlich des Einflusses der Organisationsform von MFIs auf deren soziale Performance keine eindeutige Aussage getroffen werden kann, da die betrachteten Studien zu unterschiedlichen Resultaten kommen. Die Ergebnisse deuten jedoch darauf hin, dass in einigen geografischen Regionen der Welt NGO MFIs eine bessere soziale Performance aufweisen als SOF MFIs. Insgesamt liefert die Arbeit einen wichtigen Überblick über den Forschungsstand auf diesem Forschungsgebiet und deckt diverse Forschungslücken auf, welche in zukünftigen Untersuchungen berücksichtigt werden sollten.
Die vorliegende Arbeit beschäftigt sich mit Qualitätsmanagementsystemen in Nonprofit-Organisationen. Sie stellt dabei das Spannungsfeld verschiedener Akteursinteressen innerhalb von Nonprofit-Organisationen in den Vordergrund. Dies erfolgt anhand des mikropolitischen Ansatzes, der allen Akteuren innerhalb einer Organisation eigene Interessen zugesteht, die sie durch Taktiken und Strategien in Machtkämpfen versuchen durchzusetzen.
Untersucht wird der Prozess der Entstehung und Evaluation von konkreten Maßnahmen, den sogenannten Qualitätszielen, und den Einfluss von pädagogischen Mitarbeitenden auf deren Formulierung. Dies erfolgt anhand einer Einzelfallstudie. Mithilfe von qualitativen Interviews wurde untersucht, inwieweit pädagogische Mitarbeitende die Einflussmöglichkeiten des Qualitätsmanagementsystems zur strategischen Organisationsentwicklung und Durchsetzung eigener Interessen nutzen.
Die Ergebnisse zeigen, dass es zwei Typen von Mitarbeitenden gibt, aktive und passive, die entweder einen Machtgewinn oder -verlust erleben. Aufgrund der kooperativen Art der Kommunikation und Entscheidungsfindung sowie kaum divergierenden Interessen zwischen den verschiedenen Akteuren bleiben die vorhandenen Einflussmöglichkeiten im Sinne von organisationsinternen Machtkämpfen und mikropolitischen Taktiken bisher jedoch weitestgehend ungenutzt. Diese Falleigenschaften erklären, wieso der mikropolitische Ansatz bei der Analyse nicht zu den antizipierten Resultaten geführt hat.
Jeden Tag werden unzählige Mengen an medizinischen Patientendaten in Krankenhäusern und Arztpraxen digital gespeichert. Für Forschungszwecke werden diese Daten bisher größtenteils nicht verwendet. Ziel dieser Arbeit ist es täglich anfallende anonymisierte Patientendaten, die aus einer Praxis für ganzheitliche Innere Medizin stammen, zu analysieren. Aufgrund mangelnder Kooperation seitens des Anbieters der Praxissoftware konnten die Patientendaten nicht automatisch extrahiert werden. Daher wurde eine Auswahl an Diagnosen und anthropometrischen Parametern manuell in eine Datenbank übertragen. Informationen über die Behandlung wurden dabei nicht berücksichtigt. Data-Mining Verfahren ermöglichen die Forschung auf der Grundlage von alltäglichen Patientendaten. Durch die Anwendung maschinellen Lernens kann Präventionsmedizin und die Überwachung von Behandlungsverläufen unterstützt werden.
Das Potenzial der Analyse dieser sonst weitgehend ungenutzten Daten wird anhand von Untersuchungen zur Komorbidität verdeutlicht. Dabei zeigt sich, dass einerseits das Metabolische Syndrom und dessen Komponenten zusammen mit Krebserkrankungen ein Cluster bilden und andererseits psychosomatische Störungen vermehrt mit Autoimmunerkrankungen der Schilddrüse auftreten. Außerdem wird eine noch nicht schulmedizinisch anerkannte Stoffwechselerkrankung, die Hämopyrrollaktamurie (HPU) untersucht. Diese lässt sich durch eine vermehrte Ausscheidung von Pyrrolen im Urin nachweisen. Bezüglich der Patienten bei denen ein HPU-Test vorliegt, weisen 84 % einen erhöhten Titer auf. Diese Beobachtung steht im Widerspruch zur vorherigen Annahme, dass in etwa 10 % der Bevölkerung von HPU betroffen sind.
Präventives Handeln ermöglicht es Gesundheit zu erhalten. Zu diesem Zweck ist es notwen- dig Krankheiten möglichst früh zu erkennen. In dieser Studie können Entscheidungsbaum-Modelle die Hashimoto Thyreoiditis mit einer Genauigkeit von 87.5 % bei einem Patienten diagnostizieren. Defizite durch die fehlenden Informationen über die medikamentöse Behandlung werden anhand des Modells zur Vorhersage von Hypothyreoiditis (Genauigkeit von 60.9 %) aufgezeigt.
Mit Hilfe von STATIS, das auf einer Erweiterung der Hauptkomponentenanalyse basiert, die es ermöglicht mehrere Tabellen simultan zu vergleichen, wurde der Behandlungsverlauf von 20 Patienten über einen Zeitraum von fünf Jahren überwacht. Anhand von Hypertonie wird gezeigt, dass sich sich die Patenten bezüglich Ihrer Laborwerte voneinander unterscheiden und sich Muster für Krankheiten erkennen lassen.
Diese Arbeit demonstriert den Nutzen, der durch die vermehrte Analyse alltäglicher hochdimensionaler und heterogener Daten erbracht werden kann.
Mit der Patientenmobilitätsrichtlinie (2011/24/EU) wurde eine verbindliche gesetzliche Grundlage geschaffen, im Bereich der hochspezialisierten Gesundheitsversorgung freiwillig und in strukturierter Form in europäischen Referenznetzwerken (ERN) von Gesundheits-dienstleistern und Fachzentren zusammenzuarbeiten. Dabei kommt dem Austausch von Fachwissen eine besondere Bedeutung zu. Diese qualitative Studie geht der Frage nach, wel-che wesentlichen Faktoren den Informations- und Wissensaustausch sowie das Lernen in Netzwerken beeinflussen und wie diese gefördert werden können. Es werden Netzwerkkoor-dinatoren und deren steuernde Einheiten in den hochspezialisierten Versorgungsbereichen Krebs und Seltene Erkrankungen in Deutschland und in Frankreich sowie auf europäischer Ebene befragt. Die Studie wird durch einen Literaturvergleich von bi- und trilateralen Ge-sundheitskooperationen mit multilateralen Netzwerken ergänzt. Für die ERN wird die zentra-le Bedeutung der digitalen Medien und Technologien herausgearbeitet sowie die Empfeh-lung ausgesprochen, die ERN ein systematisches Wissensverwendungs- und -generierungskonzept erarbeiten zu lassen. Durch die zukünftigen ERN wird die vernetzte Informationsgesellschaft Einzug in die medizinische Praxis halten.
Faktor Mensch
(2016)
Eine Krisensituation ist eine Umbruchssituation. Sie kann als Chance, als Herausforderung sowie im Sinne einer SCHUMPETER’SCHEN „schöpferischen Zerstörung“ als Ausgangspunkt von bedeutsamen Veränderungen und neuen Entwicklungsmöglichkeiten begriffen werden. Die Krisensituation der 1970er und 1980er Jahre bildet dahingehend durch ihre Einzigartigkeit einen herausragenden wirtschaftshistorischen Untersuchungsgegenstand. Für die westeuropäischen Staaten waren es nicht nur Jahre einer, nach der außergewöhnlich langen Boomzeit der „Wirtschaftswunderjahre“, problematischen sozialen und wirtschaftliche Situation. Es war auch eine Zeit eines bedeutungsvollen und beschleunigten Wandels. Die Gleichzeitigkeit vieler Veränderungen, das zeitliche Zusammentreffen von konjunkturellen und strukturellen Problemlagen sowie die äußerst kritische Situation an den westeuropäischen Arbeitsmärkten bildete eine multiple Krisensituation. Deren Auswirkungen waren weitreichender, als es von den Zeitgenossen erahnt werden konnte. Es gab nicht nur Änderungen im (wirtschafts-)politischen Makrogefüge vieler Volkswirtschaften, auch bedeutende Einflüsse waren auf der Mikroebene feststellbar. Marktorientierte Unternehmen mussten sich auf die neue Situation einstellen und im Rahmen einer Neupositionierung von Betriebsstrategien, organisatorischen Umgestaltungen und einer stärkeren Ressourcenorientierung betriebswirtschaftlich handeln. Das schien letztlich zu einer stärkeren Beachtung und Entwicklung der in den Unternehmen vorhandenen humanen und sozialen Ressourcen zu führen.
Diese Arbeit stellt die Hypothese auf, dass umfassende organisatorische Veränderungen und strategische Neupositionierungen, insbesondere die effektivere Nutzung sowie der intensive Auf- und Ausbau betriebsinterner Personalressourcen Unternehmen maßgeblich halfen, die Krisensituation der 1970er und 1980er Jahre besser und nachhaltiger überwinden zu können. Anders als die bisherige wirtschaftshistorische Forschungsliteratur nimmt diese Dissertation nicht die makroökonomisch Perspektive in den Fokus, sondern untersucht die Hypothese anhand mehrerer Unternehmensfallstudien. Ausgewählt sind drei Großunternehmen der westeuropäischen Elektroindustrie. Diese Arbeit liefert mit dieser Untersuchung einen weiteren Baustein zur wirtschaftshistorischen Annäherung an die 1970er und 1980er Jahre und leistet ebenso einen Beitrag zur Fortschreibung der Firmengeschichte der drei Unternehmen.
Die Elektrobranche fand bisher wirtschaftshistorisch nur wenig Beachtung, dennoch ist sie ein gutes Beispiel für die umfassende Veränderungssituation jener Jahre. Entsprechende Sekundärquellen sind für diesen Zeitraum für die drei Unternehmen kaum vorhanden. Aus diesem Grund bildet eine Vielzahl von Archivalien das Fundament dieser Arbeit. Sie werden als Primärquellen aus den jeweiligen Unternehmensarchiven als Basis der Fallanalyse herangezogen. Mit Hilfe zahlreicher Dokumente des betrieblichen „Alltagsgeschäfts“, wie beispielsweise Daten des betrieblichen Personal- und Rechnungswesens, Protokolle von Sitzungen der Arbeitsnehmervertreter, des Aufsichtsrats oder des Vorstands sowie interne Strategiepapiere und Statistiken, wird nicht nur der anfangs aufgestellten Hypothese nachgegangen, sondern auch mehrerer sich aus ihr ergebende Fragenkomplexe. Im Rahmen derer wird untersucht, wie die Unternehmen – die Beschäftigten, die Leitungsebenen und die Aufsichtsräte – auf die Krisensituation reagierten, ob sie ggf. ihrerseits Einfluss darauf zu nehmen versuchten und welche betriebswirtschaftlichen Schlüsse daraus gezogen wurden. Es wird hinterfragt, ob eine stärkere Ressourcenorientierung wirklich eine neue Strategieperspektive bot und es diesbezüglich zu einer stärkeren Beachtung humaner und sozialer Ressourcen im Unternehmen kam. Diese Arbeit untersucht, ob gezielt zur Krisenüberwindung in diese Ressourcen investiert wurde und diese Investitionen halfen, die Krisensituation erfolgreich zu überstehen und nachhaltig den Unternehmenserfolg zu sichern.
Die vorliegende explorative empirische Untersuchung muslimischer Frauengruppen leistet einen Beitrag zur Erforschung des religiösen Wandels im religiösen Feld in Deutschland. Zum einen werden damit erstmals qualitative Daten zu religiösen Gruppen muslimischer Frauen erhoben. Zum anderen liefern die analysierten Anlässe der Gruppengründung und die Gruppenziele Einblicke in die relevanten Themen des religiös-muslimischen Engagements im Zeitverlauf. Gemäß der explorativen Konzeption interessiert sich diese Studie insbesondere für die Vielfalt muslimischer Frauengruppen in Deutschland. Es wurde gefragt, welche Selbstbeschreibungen als muslimische Frauengruppen sich derzeit erkennen lassen? Dazu wurden thematische Leitfadeninterviews mit Ansprechpartnerinnen muslimischer Frauengruppen im religiösen Feld (2006-2011) durchgeführt.
Die Gründungen der zwölf untersuchten muslimischen Frauengruppen lagen im Zeitraum von 1978 bis 2009. Dies umfasst im Hinblick auf das muslimisch-religiöse Engagement Phasen mit unterschiedlichen Schwerpunkten, die von der Verfestigung der religiösen Strukturen über den Kampf um rechtliche Gleichstellung als religiöse Minderheit bis zu einer Auseinandersetzung mit der staatlichen Islampolitik reichen. Die ältesten der untersuchten Gruppen reflektieren in ihrem historischen Verlauf den Aufbau der religiösen Strukturen, indem sie zunächst Räume für sich in den Gemeinden schufen. Diese füllten sie in Form von religiösen Bildungsprozessen und zwar indem sie einander an ihren Kenntnissen teilhaben ließen und gemeinsam die religiöse Quelle erschlossen. Andere Gruppen schlossen sich zusammen, um von den Kenntnissen religiöser Expertinnen zu profitieren, wieder andere etablierten Angebote, die über den eigenen Gruppenzusammenhang hinausreichten. Mit dieser Ausrichtung der Weltgestaltung ging auch die Gründung einer Organisation, d.h. ein Wandel der Sozialform einher.
Die Ergebnisse konstatieren eine Kontingenz hinsichtlich der Selbstzuordnung muslimische Frauengruppe. Es handelt sich um historisch spezifische Selbstzuschreibungen, die Ausdruck eines religiösen Wandels im muslimisch-religiösen Feld initiiert von muslimischen Frauen sind. Zentrales Ergebnis ist hier, dass die Gruppen zwar hinsichtlich ihrer Formen heterogen sind, allerdings eine Verbindungslinie in ihren Kernideen als Frauengruppen- und Organisationen besteht. Es zeigt sich durch alle Phasen des muslimisch-religiösen Engagements im religiösen Feld ein hohes Interesse an religiösen Bildungsthemen seitens muslimischer Frauen. Diese sind verbunden mit der Auseinandersetzung mit dem religiösen Geschlechterverhältnis.
Die Aufmerksamkeit, die das religiöse Geschlechterverhältnis im Kontext des Institutionalisierungs- und Partizipationsprozess des Islam im politischen Feld derzeit besitzt, kann einerseits als spezifisch gelten. Andererseits zeigen historische Kontextualisierungen mit der religiösen Frauenbewegung im 19. Jahrhundert, dass auch hier über religiöse Geschlechterbilder Partizipationsfragen verhandelt wurden.
Die Ergebnisse dieser Studie belegen die Relevanz von religiösen Gruppen innerhalb religiöser Wandlungsprozesse. Weiterhin liefern sie neue Erkenntnisse hinsichtlich des Verhältnisses von religiöser Individualisierung und Gruppenbindung: Muslimische Frauen vergemeinschaften sich aus religiösen Bildungszwecken innerhalb von religiösen Gruppen und behandeln dabei Themen ihre weibliche religiöse Identität und die religiöse Lebensführung als Frau betreffend und dies stärkt ihre individuelle religiöse Bindung.
Trotz aller Bemühungen um Chancengleichheit entscheiden sich weitaus weniger Frauen als Männer für einen MINT-bezogenen Studiengang oder Beruf. Auch in der heranwachsenden Generation deutscher Schülerinnen liegt die Motivation einen naturwissenschaftlichen Beruf zu ergreifen unter dem Durchschnitt deutscher Schüler. Schulleistungsuntersuchungen belegen, dass vor allem Schülerinnen der Sekundarstufe I ein deutlich geringeres Interesse an Fächern der Naturwissenschaften, insbesondere Physik, aufweisen als gleichaltrige Jungen. Aus diesem Grund widmet sich die vorliegende Untersuchung der Frage, ob es bereits am Ende der Grundschulzeit einen geschlechtstypischen Unterschied des Interesses am Fach Physik bei Schülerinnen und Schüler gibt. Teil der schriftlichen Befragung wurden Schülerinnen und Schüler der sechsten Klasse des Landes Brandenburg (N=235). Die Datenerhebung erfolgte mittels eines eigens entwickelten Messinstrumentes (.52≤α≤.79). Es lassen sich mit Effektstärken von |d|_1=.38, |d|_2=.27, |d|_3=.18 sowie |d|_4=.28 Unterschiede mit einer teils geringen praktischen Bedeutsamkeit zugunsten der befragten Jungen finden. Zudem deuten die Ergebnisse darauf hin, dass sowohl Jungen als auch Mädchen, die der Ansicht sind, dass das eigene Geschlecht generell mehr Interesse an Physik aufweist, tatsächlich selbst mehr Interesse als das jeweils andere Geschlecht haben. Eine Interpretation der Ergebnisse sowie Limitationen und Implikationen der Untersuchung werden diskutiert.
Im Graduiertenkolleg NatRiskChange der Universität Potsdam und anderen Forschungseinrichtungen werden beobachtete sowie zukünftig mögliche Veränderungen von Naturgefahren untersucht. Teil des strukturierten Doktorandenprogramms sind sogenannte Task-Force-Einsätze, bei denen die Promovierende zeitlich begrenzt ein aktuelles Ereignis auswerten. Im Zuge dieser Aktivität wurde die Sturzflut vom 29.05.2016 in Braunsbach (Baden-Württemberg) untersucht.
In diesem Bericht werden erste Auswertungen zur Einordnung der Niederschläge, zu den hydrologischen und geomorphologischen Prozessen im Einzugsgebiet des Orlacher Bachs sowie zu den verursachten Schäden beleuchtet.
Die Region war Zentrum extremer Regenfälle in der Größenordnung von 100 mm innerhalb von 2 Stunden. Das 6 km² kleine Einzugsgebiet hat eine sehr schnelle Reaktionszeit, zumal bei vorgesättigtem Boden. Im steilen Bachtal haben mehrere kleinere und größere Hangrutschungen über 8000 m³ Geröll, Schutt und Schwemmholz in das Gewässer eingetragen und möglicherweise kurzzeitige Aufstauungen und Durchbrüche verursacht. Neben den großen Wassermengen mit einer Abflussspitze in einer Größenordnung von 100 m³/s hat gerade die Geschiebefracht zu großen Schäden an den Gebäuden entlang des Bachlaufs in Braunsbach geführt.
Die Gründung des Europäischen Stabilitätsmechanismus (ESM) durch einen völkerrechtlichen Vertrag außerhalb der EU-Verträge ist mit mehreren Nachteilen verbunden. So schwächt die Zersplitterung der Rechtsquellen die europäischen Institutionen und deren Legitimation. Auch kann der ESM nicht ohne weiteres auf die Strukturen und das Personal der Europäischen Kommission zurückgreifen. Daher ist eine Integration des ESM in das Gemeinschaftsrecht sinnvoll. Dies setzt eine Rechtsgrundlage voraus. Die Arbeit kommt unter Berücksichtigung der deutschen und französischen Positionen sowie der einschlägigen Rechtsprechung des EuGH zu dem Ergebnis, dass die bestehenden EUVerträge keine Rechtsgrundlage für die Integration des ESM in das Gemeinschaftsrecht enthalten. Vor diesem Hintergrund ist eine Änderung des AEUV gemäß dem ordentlichen Vertragsänderungsverfahren unumgänglich. Damit sollte eine ausdrückliche Rechtsgrundlage für einen gemeinschaftsrechtlichen Stabilitätsmechanismus geschaffen werden. In der Arbeit wird ein konkreter Formulierungsvorschlag für eine derartige Rechtsgrundlage entwickelt, auf deren Basis der Rat mit einer Verordnung einen gemeinschaftsrechtlichen Stabilitätsmechanismus schaffen kann. Außerdem werden die wesentlichen Strukturprinzipien für den gemeinschaftsrechtlichen Stabilitätsmechanismus entwickelt, im Hinblick auf Trägerschaft, Governance, Finanzierung, demokratische Kontrolle und die verfügbaren Finanzhilfeinstrumente.
In der vorliegenden Arbeit wird die planetare Grenzschicht in Ny-Ålesund, Spitzbergen, sowohl bezüglich kleinskaliger („mikrometeorologischer“) Effekte als auch in ihrer Kopplung mit der Synoptik untersucht. Dazu werden verschiedene Beobachtungsdaten aus der Säule und in Bodennähe zusammengezogen und bewertet. Die so gewonnenen Datensätze werden dann zur Validierung eines nicht-hydrostatischen, regionalen Klimamodells genutzt. Weiterhin werden orographisch bedingte Einflüsse, die Untergrundbeschaffenheit und die lokale Heterogenität der Unterlage untersucht. Hierzu werden meteorologische Größen, wie die Variabilität der Temperatur und insbesondere die jährliche Windverteilung in Bodennähe untersucht und es erfolgt ein Vergleich von in-situ gemessenen turbulenten Flüssen von den Eddy-Kovarianz-Messkomplexen bei Ny-Ålesund und im Bayelva-Tal unter demselben Aspekt. Es zeigt sich, dass der Eddy-Kovarianz-Messkomplex im Bayelva-Tal sehr stark durch eine orographisch bedingte Kanalisierung der Strömung beeinflusst ist und sich nicht für Vergleiche mit regionalen Klimamodellen mit horizontalen Auflösungen von <1km eignet. Die hohe Bodenfeuchte im Bayelva-Tal führt zudem zu einem deutlich kleineren Bowen-Verhältnis, als es für diese Region zu erwarten ist. Der Eddy-Kovarianz-Messkomplex bei Ny-Ålesund erweist sich hingegen als geeigneter für solche Modellvergleiche, aufgrund der typischen, küstennahen Windverteilung und des repräsentativen Footprints. Letzteres wird durch die Bestimmung der Footprint-Klimatologie des Jahres 2013 mit einem aktuellen Footprint-Modell erarbeitet.
Weiterhin wird die Auswirkung von (Anti-) Zyklonen über den Archipel auf die zeitliche Variabilität der lokalen Grenzschichteigenschaften untersucht und bewertet. Dazu wird ein Zyklonen-Detektions-Algorithmus auf ERA-Interim-Reanalysedatensätze angewendet, wodurch die Häufigkeit von nahezu ideal konzentrischen Hoch- und die Tiefdruckgebieten für drei Jahre bestimmt wird. Aus dieser Verteilung werden insgesamt drei interessante Zeiträume zu verschiedenen Jahreszeiten ausgewählt und im Rahmen von Prozessstudien die lokalen bodennahen meteorologischen Messungen, der turbulente Austausch an der Oberfläche und die Grenzschichtdynamik in der Säule untersucht. Die zeitliche Variabilität der dynamischen Grenzschichtstabilität in der Säule wird anhand von zeitlich hoch aufgelösten vertikalen Profilen der Bulk-Richardson-Zahl aus Kompositprofilen aus Fernerkundungsinstrumenten (Radiometer, Wind-LIDAR) sowie Mastdaten (BSRN-Mast) untersucht und die Grenzschichthöhe ermittelt. Aus diesen Analysen ergibt sich eine deutliche Abhängigkeit der thermischen Stabilität beim Durchzug von Fronten, eine damit einhergehende erhebliche Abhängigkeit der Grenzschichtdynamik und der Grenzschichthöhe sowie des turbulenten Austauschs von der zeitlichen Variabilität der Windgeschwindigkeit in der Säule.
Auf Grundlage der Standortanalysen und Prozessstudien erfolgt ein Vergleich der bodennahen Messungen und den Beobachtungen aus der Säule, sowohl von den genannten Fernerkundungsinstrumenten als auch von In-situ-Messungen (Radiosonden) für den Zeitraum einer Radiosondierungskampagne mit dem nicht-hydrostatischen, regionalen Klimamodel WRF (ARW). Auf Grundlage der Fragestellung, inwieweit aktuelle Schemata die Grenzschichtcharakteristika in orographisch stark gegliedertem Gelände in der Arktis reproduzieren können, werden zwei Grenzschichtparametrisierungsschemata mit verschiedenen Ordnungen der Schließung validiert. Hierzu wird die zeitliche Variabilität der Temperatur, der Feuchte und des Windfeldes in der Säule bis 2000m in den Simulationen mit den Beobachtungsdaten vergleichen. Es wird gezeigt, dass durch Modifikation der Initialwertfelder eine sehr gute Übereinstimmung zwischen den Simulationen und den Beobachtungen bereits bei einer horizontalen Auflösung von 1km erreicht werden kann und die Wahl des Grenzschichtschemas nur untergeordneten Einfluss hat. Hieraus werden Ansätze der Weiterentwicklung der Parametrisierungen, aber auch Empfehlungen bezüglich der Initialwertfelder, wie der Landmaske und der Orographie, vorgeschlagen.
Diese Arbeit ist im Bereich des Qualitätsmanagements (QM) in öffentlichen Organisationen zu verorten. Sie fragt konkret, welche Faktoren eine effektive Implementierung des QM-Systems Common Assessment Framework (CAF) in Deutschen Bundesbehörden beeinflussen. Auf der Basis des soziologischen Neo-Institutionalismus wurden Hypothesen zu möglichen Einflussfaktoren aufgestellt. Im Rahmen einer systematischen Fallauswahl wurden folgende Organisationen untersucht: das Bundeskartellamt, das Bundeszentralamt für Steuern sowie die Staatsbibliothek zu Berlin. Für den empirischen Teil dieser Arbeit wurden halbstrukturierte Leitfadeninterviews mit Experten der ausgewählten Organisationen geführt. Im Rahmen einer qualitativen Inhaltsanalyse wurden diese dann ausgewertet und mit einer „cross case synthesis“ nach Yin (2014) anschließend theoriegeleitet analysiert.
Es lassen sich letztendlich drei entscheidende Bedingungen für eine effektive CAF-Implementierung in Bundesbehörden ableiten: Zum einen die formale Unterstützung der jeweiligen Hausleitung, die eine aktive Rolle innerhalb des CAF-Projektes einnimmt und dabei auch alle mittleren Führungsspitzen zielführend mit einbinden sollte, beispielsweise durch die Übernahme der QM-Projektleitung. Zum anderen ist es für eine zielkohärente Handlungsweise aller Organisationsmitgliedern vonnöten, die verschiedenen Steuerungsinstrumente im Rahmen einer mittelfristigen Gesamtstrategie miteinander zu verzahnen und so formal zu institutionalisieren. Außerdem ist die formale Institutionalisierung einer QM-Einheit, nahe der Hausleitung außerhalb der Fachabteilungen angesiedelt, zu empfehlen. Es hat sich im Rahmen der untersuchten Fallbeispiele gezeigt, dass diese Einheiten ein größeres Potential aufweisen, sich zu QM- und CAF-Kompetenzzentren zu entwickeln und unnötige Arbeiten, die das CAF-Engagement der Mitarbeiterschaft schmälern würden, von eben jener fernzuhalten.
Durch diese Ergebnisse konnte die Arbeit zwei entscheidende Beiträge leisten: Die Forschungslandkarte der QM- und CAF-Forschung in öffentlichen Organisationen wies, speziell auf Bundesebene, vorab verschiedenste weiße Flecken auf, die von dieser Arbeit teilweise gefüllt werden konnten. Zum anderen ist es auf Basis dieser Forschungsarbeit nun möglich, Verwaltungspraktikern konkrete Handlungsempfehlungen an die Hand zu geben, wenn diese erstmals CAF in ihrer Organisation implementieren möchten oder bei einer schon erfolgten Einführung des QM-Instruments nachsteuern möchten.
Kritische Anthropologie?
(2016)
This article compares Max Horkheimer’s and Theodor W. Adorno’s foundation of the Frankfurt Critical Theory with Helmuth Plessner’s foundation of Philosophical Anthropology. While Horkheimer’s and Plessner’s paradigms are mutually incompatible, Adorno’s „negative dialectics“ and Plessner’s „negative anthropology“ (G. Gamm) can be seen as complementing one another. Jürgen Habermas at one point sketched a complementary relationship between his own publicly communicative theory of modern society and Plessner’s philosophy of nature and human expressivity, and though he then came to doubt this, he later reaffirmed it. Faced with the „life power“ in „high capitalism“ (Plessner), the ambitions for a public democracy in a pluralistic society have to be broadened from an argumentative focus (Habermas) to include the human condition and the expressive modes of our experience as essentially embodied persons. The article discusses some possible aspects of this complementarity under the title of a „critical anthropology“ (H. Schnädelbach)
Kommunikative Vernunft
(2016)
Jürgen Habermas explicates the concept of communicative reason. He explains the key assumptions of the philosophy of language and social theory associated with this concept. Also discussed is the category of life-world and the role of the body-mind difference for the consciousness of exclusivity in our access to subjective experience. as well as the role of emotions and perceptions in the context of a theory of communicative action. The question of the redemption of the various validity claims as they are associated with the performance of speech acts is related to processes of social learning and to the role of negative experiences. Finally the interview deals with the relationship between religion and reason and the importance of religion in modern, post-secular societies. Questions about the philosophical culture of our present times are discussed at the end of the conversation.
Diese Arbeit befasst sich mit der Herstellung und Charakterisierung von thermoresponsiven Filmen auf Goldelektroden durch Fixierung eines bereits synthetisierten thermoresponsiven Polymers. Als Basis für die Entwicklung der responsiven Grenzfläche dienten drei unterschiedliche Copolymere (Polymere I, II und III) aus der Gruppe der thermisch schaltbaren Poly(oligo(ethylenglykol)methacrylate).
Die turbidimetrischen Messungen der Copolymere in Lösungen haben gezeigt, dass der Trübungspunkt vom pH-Wert, der Gegenwart von Salzen sowie von der Ionenstärke der Lösung abhängig ist. Nach der Charakterisierung der Polymere in Lösung wurden Experimente der kovalenten Kopplung der Polymere I bis III an die Oberfläche der Gold-Elektroden durchgeführt. Während bei Polymeren I und II die Ankopplung auf einer Amidverbrückung basierte, wurde bei Polymer III als alternative Methode zur Immobilisierung eine photoinduzierte Anbindung unter gleichzeitiger Vernetzung gewählt. Der Nachweis der erfolgreichen Ankopplung erfolgte bei allen Polymeren elektrochemisch mittels Cyclovoltammetrie und Impedanzspektroskopie in K3/4[Fe(CN)6]-Lösungen. Wie die Ellipsometrie-Messungen zeigten, waren die erhaltenen Polymer-Filme unterschiedlich dick. Die Ankopplung über Amidverbrückung lieferte dünne Filme (10 – 15 nm), während der photovernetzte Film deutlich dicker war (70-80 nm) und die darunter liegende Oberfläche relativ gut isolierte.
Elektrochemische Temperaturexperimente an Polymer-modifizierten Oberflächen in Lösungen in Gegenwart von K3/4[Fe(CN)6] zeigten, dass auch die immobilisierten Polymere I bis III responsives Temperaturverhalten zeigen. Bei Elektroden mit den immobilisierten Polymeren I und II ist der Temperaturverlauf der Parameterwerte diskontinuierlich – ab einem kritischen Punkt (37 °C für Polymer I und 45 °C für Polymer II) wird zunächst langsame Zunahme der Peakströme wird deutlich schneller. Das Temperaturverhalten von Polymer III ist dagegen bis 50 °C kontinuierlich, der Peakstrom sinkt hier durchgehend.
Weiterhin wurde mit den auf Polymeren II und III basierten Elektroden deren Anwendung als responsive Matrix für Bioerkennungsreaktionen untersucht. Es wurde die Ankopplung von kleinen Biorezeptoren, TAG-Peptiden, an Polymer II- und Polymer III-modifizierten Elektroden durchgeführt. Das hydrophile FLAG-TAG-Peptid verändert das Temperaturverhalten des Polymer II-Films unwesentlich, da es die Hydrophilie des Netzwerkes nicht beeinflusst. Weiterhin wurde der Effekt der Ankopplung der ANTI-FLAG-TAG-Antikörper an FLAG-TAG-modifizierte Polymer II-Filme untersucht. Es konnte gezeigt werden, dass die Antikörper spezifisch an FLAG-TAG-modifiziertes Polymer II binden. Es wurde keine unspezifische Anbindung von ANTI-FLAG-TAG an Polymer II beobachtet. Die Temperaturexperimente haben gezeigt, dass die thermische Restrukturierung des Polymer II-FLAG-TAG-Filmes auch nach der Antikörper-Ankopplung noch stattfindet. Der Einfluss der ANTI-FLAG-TAG-Ankopplung ist gering, da der Unterschied in der Hydrophilie zwischen Polymer II und FLAG-TAG bzw. ANTI-FLAG-TAG zu gering ist.
Für die Untersuchungen mit Polymer III-Elektroden wurde neben dem hydrophilen FLAG-TAG-Peptid das deutlich hydrophobere HA-TAG-Peptid ausgewählt. Wie im Falle der Polymer II Elektrode beeinflusst das gekoppelte FLAG-TAG-Peptid das Temperaturverhalten des Polymer III-Netzwerkes nur geringfügig. Die gemessenen Stromwerte sind geringer als bei der Polymer III-Elektrode. Das Temperaturverhalten der FLAG-TAG-Elektrode ähnelt dem der reinen Polymer III-Elektrode – die Stromwerte sinken kontinuierlich bis die Temperatur von ca. 40 °C erreicht ist, bei der ein Plateau beobachtet wird. Offensichtlich verändert FLAG-TAG auch in diesem Fall nicht wesentlich die Hydrophilie des Polymer III-Netzwerkes. Das an Polymer III-Elektroden gekoppelte hydrophobe HA-TAG-Peptid beeinflusst dagegen im starken Maße den Quellzustand des Netzwerkes. Die Ströme für die HA-TAG-Elektroden sind deutlich geringer als die für die FLAG-TAG-Polymer III-Elektroden, was auf geringeren Wassergehalt und dickeren Film zurückzuführen ist. Bereits ab 30 °C erfolgt der Anstieg von Stromwerten, der bei Polymer III- bzw. bei Polymer III-FLAG-TAG-Elektroden nicht beobachtet werden kann. Das gekoppelte hydrophobe HA-TAG-Peptid verdrängt Wasser aus dem Polymer III-Netzwerk, was in der Stauchung des Films bereits bei Raumtemperatur resultiert. Dies führt dazu, dass der Film im Laufe des Temperaturanstieges kaum noch komprimiert. Die Stromwerte steigen in diesem Fall entsprechend des Anstiegs der temperaturabhängigen Diffusion des Redoxpaares. Diese Untersuchungen zeigen, dass das HA-TAG-Peptid als Ankermolekül deutlich besser für eine potentielle Verwendung der Polymer III-Filme für sensorische Zwecke geeignet ist, da es sich deutlich in der Hydrophilie von Polymer III unterscheidet.
Möglichkeiten der Mittelstandsförderung durch Vergaberechtsgestaltung und Vergaberechtspraxis
(2016)
Die Förderungswürdigkeit und die Förderungsfähigkeit mittelständischer Unternehmen ist ein gesamteuropäisches, wirtschaftspolitisches Anliegen. Hiervon zeugen zum einen zahlreiche Regelungen im Primär-, Sekundär-, Verfassungs- und einfachgesetzlichem Recht, zum anderen auch die Bedeutung der mittelständischen Unternehmen im wirtschaftlichen, gesellschaftlichen und sozialen Gefüge. So herrscht innerhalb der Europäischen Union nicht nur der Slogan „Vorfahrt für KMU“, sondern auch die im Frühjahr 2014 verabschiedeten Vergaberichtlinien legten ein besonderes Augenmerk auf die Förderung des Zugangs der KMU zum öffentlichen Beschaffungsmarkt. Denn gemessen am Steuerungs- und Lenkungspotenzial der Auftragsvergabe, deren Einfluss auf die Innovationstätigkeit der Wirtschaft sowie deren Auswirkungen auf die Wirtschafts- und Wettbewerbstätigkeit auf der einen Seite und dem gesamtwirtschaftlichen Stellenwert der mittelständischen Unternehmen auf der anderen Seite, sind mittelständische Unternehmen trotz zahlreicher europäischer und nationaler Initiativen im Vergabeverfahren unterrepräsentiert. Neben der undurchsichtigen Regelungsstruktur des deutschen Vergaberechts, unterliegen die mittelständischen Unternehmen vom Beginn bis zum Ende des Vergabeverfahrens besonderen Schwierigkeiten. Dieser Ausgangsbefund wurde zum Anlass genommen, um die Möglichkeiten der Mittelstandsförderung durch Vergaberechtsgestaltung und Vergaberechtspraxis erneut auf den Prüfstand zu stellen.
Das Widerspenstige bändigen
(2016)
Dem Handeln von Lehrkräften wird in der schulischen Praxis wie in der wissenschaftlichen Literatur ein wesentlicher Einfluss auf die Qualität von schulischem Unterricht zugesprochen. Auch wenn umfangreiche normative Vorstellungen über ein gutes Lehr-Handeln bestehen, so gibt es wenig Erkenntnis darüber, welche Gründe Lehrkräfte für ihr pädagogisches Handeln haben. Das Handeln von Lehrkräften kann nur dann adäquat erfasst werden, wenn Bildung einerseits als Weitergabe von Kultur an die nachfolgende Generation und andererseits als eine vom sich bildenden Subjekt ausgehende Selbst- und Weltverständigung verstanden wird. Damit einhergehende Anforderungen an die Lehrkraft stehen notwendigerweise in Widerspruch zueinander; dies gilt besonders für eine Gesellschaft mit großer kultureller und sozialer Heterogenität. Bei der Suche nach Zusammenhängen zwischen Persönlichkeit, pädagogischem Wissen oder Kompetenzen und einem unterrichtlichen Handeln wird häufig von einer Bedingtheit dieses Handelns ausgegangen und dieses auf kognitive Aspekte und an externen Normen orientierte Merkmale verkürzt. Ertragreicher für eine Antwort auf die Frage nach den Begründungen sind wissenschaftliche Arbeiten, die Professionalität als eine Bezugnahme auf einen besonderen strukturellen Rahmen beschreiben, der durch Widersprüche geprägt ist und Entscheidungen zu den Spannungsfeldern pädagogischer Verhältnisse erfordert. Die subjektwissenschaftliche Lerntheorie bietet eine Basis für ein Verständnis eines Lernens in institutionellen Kontexten ausgehend von den Lerninteressen der Schülerinnen und Schüler. Lehren kann darauf bezugnehmend als Unterstützung von Selbst- und Weltverständigungsprozessen durch Wertschätzung, Verstehen und Angebote alternativer Bedeutungshorizonte verstanden werden. Das Handeln von Lehrkräften ist als sinngebende Bezugnahme auf daraus resultierende sowie institutionelle Anforderungen mittels gesellschaftlicher Bedeutungsstrukturen verstehbar. Das handelnde Subjekt erschließt sich selbst und die Welt mit Hilfe von Bedeutungen. Diese können verstanden werden als der Besonderheit der Biographie, der gesellschaftlichen Position sowie der Lebenslage geschuldete Reinterpretationen gesellschaftlicher Bedeutungsstrukturen. Im empirischen Verfahren können mittels eines Übergangs von sequentiellen zu komparativen Analysen Positionierungen als thematisch spezifische und über die konkrete Handlungssituation hinausreichende Bedeutungs-Begründungs-Zusammenhänge rekonstruiert werden. Daraus werden situationsunabhängige Strukturmomente des Gegenstands Lehren an beruflichen Schulen aber auch komplexe, situationsbezogene subjektive Bedeutungs-Begründungs-Muster abgeleitet. Als wesentliche strukturelle Merkmale lassen sich die Schlüsselkategorien ‚Deutungsmacht‘ und ‚instrumentelle pädagogische Beziehung‘ aus dem empirischen Material unter Zuhilfenahme weiterer theoretischer Folien entwickeln. Da Deutungsmacht auf Akzeptanz angewiesen ist und in instrumentellen Beziehungen eine kooperative Bezugnahme auf den Lehr-Lern-Gegenstand allenfalls punktuell erfolgt, können damit asymmetrische metastabile Arrangements zwischen einer Lehrkraft und Schülerinnen und Schülern verstanden werden. Als empirische Ausprägungen weist Deutungsmacht die Varianten ‚absoluter Anspruch‘, ‚Akzeptanz der Fragilität‘ und ‚Akzeptanz der Legitimität eines Infragestellens‘ auf. Bei der zweiten Schlüsselkategorie treten die Varianten ‚strukturelle Prägung‘, ‚unspezifischer allgemein-menschlicher Charakter‘ und ‚Außenprägung‘ der instrumentellen pädagogischen Beziehung auf. Die Bedeutungs-Begründungs-Musters weisen teilweise Inkonsistenzen und Übergänge in den Positionierungen bezogen auf die dargestellten Varianten auf. Nur bei einem Teil der Muster sind Bemühungen um Wertschätzung und Verstehen der Schülerinnen und Schüler plausibel ableitbar, gleiches gilt in Hinblick auf eine Offenheit für eine Revision der Muster. Die Muster, wie etwa ‚Durchsetzend-ertragendes Nachsteuern‘, ‚Direktiv-personalisierendes Praktizieren‘ oder ‚Regulierend-flexibles Managen‘ sind zu verstehen als Bewältigungsmodi der kontingenten pädagogischen (Konflikt-)Situationen, auf die sich die Fallschilderungen beziehen. Die jeweilige Lehrkraft hat dieses Muster in dem beschriebenen Fall genutzt, was allerdings keine Aussage darüber zulässt, auf welche Muster die Lehrkraft in anderen Fällen zugreifen würde. Die Ergebnisse der vorliegenden Arbeit eignen sich als eine heuristische bzw. theoretische Folie, die Lehrkräfte beim Erschließen ihres eigenen pädagogischen Handelns - etwa in einer als Fallberatung konzipierten Fortbildung - unterstützen kann. Möglich sind Anschlüsse an andere theoretische Ansätze zum Handeln von Lehrkräften aber auch deren veränderte Einordnung. Erweitert werden die Optionen, dieses Handeln über wissenschaftliche Zugänge zu erfassen.
Durch die Zunahme metabolischer Stoffwechselstörungen und Erkrankungen in der Weltbevölkerung wird in der Medizin und den Lebenswissenschaften vermehrt nach Präventionsstrategien und Ansatzpunkten gesucht, die die Gesundheit fördern, Erkrankungen verhindern helfen und damit auch die Gesamtlast auf die Gesundheitssysteme erleichtern. Ein Ansatzpunkt wird dabei in der Ernährung gesehen, da insbesondere der Konsum von gesättigten Fetten die Gesundheit nachträglich zu beeinflussen scheint. Dabei wird übersehen, dass in vielen Studien Hochfettdiäten nicht ausreichend von den Einflüssen einer zum Bedarf hyperkalorischen Energiezufuhr getrennt werden, sodass die Datenlage zu dem Einfluss von (gesättigten) Fetten auf den Metabolismus bei gleichbleibender Energieaufnahme noch immer unzureichend ist.
In der NUtriGenomic Analysis in Twins-Studie wurden 46 Zwillingspaare (34 monozygot, 12 dizygot) über einen Zeitraum von sechs Wochen mittels einer kohlenhydratreichen, fettarmen Diät nach Richtlinien der Deutschen Gesellschaft für Ernährung für ihr Ernährungsverhalten standardisiert, ehe sie zu einer kohlenhydratarmen, fettreichen Diät, die insbesondere gesättigte Fette enthielt, für weitere sechs Wochen wechselten. Beide Diäten waren dem individuellen Energiebedarf der Probanden angepasst, um so sowohl akut nach einerWoche als auch längerfristig nach sechs Wochen Änderungen des Metabolismus beobachten zu können, die sich in der vermehrten Aufnahme von (gesättigten) Fetten begründeten.
Die über die detaillierte Charakterisierung der Probanden an den klinischen Untersuchungstagen generierten Datensätze wurden mit statistischen und mathematischen Methoden (z.B. lineare gemischte Modellierung) analysiert, die der Größe der Datensätze und damit ihrem Informationsvolumen angepasst waren.
Es konnte gezeigt werden, dass die metabolisch gesunden und relativ jungen Probanden, die eine gute Compliance zeigten, im Hinblick auf ihren Glukosestoffwechsel adaptieren konnten, indem die Akutantwort nach einer Woche im Nüchterninsulin und dem Index für Insulinresistenz in den weiteren fünf Wochen ausgeglichen wurde.
Der Lipidstoffwechsel in Form der klassischen Marker wie Gesamtcholesterin, LDL und HDL war dagegen stärker beeinflusst und auch nach insgesamt sechs Wochen deutlich erhöht.
Letzteres unterstützt die Beobachtung im Transkriptom des weißen, subkutanen Fettgewebes, bei der eine Aktivierung der über die Toll-like receptors und das Inflammasom vermittelten subklinischen Inflammation beobachtet werden konnte.
Die auftretenden Veränderungen in Konzentration und Komposition des Plasmalipidoms zeigte ebenfalls nur eine teilweise und auf bestimmte Spezies begrenzte Gegenregulation.
Diesbezüglich kann also geschlussfolgert werden, dass auch die isokalorische Aufnahme von (gesättigten) Fetten zu Veränderungen im Metabolismus führt, wobei die Auswirkungen in weiteren (Langzeit-)Studien und Experimenten noch genauer untersucht werden müssen. Insbesondere wäre dabei ein längerer Zeitraum unter isokalorischen Bedingungen von Interesse und die Untersuchung von Probanden mit metabolischer Vorbelastung (z.B. Insulinresistenz).
Darüber hinaus konnte in NUGAT aber ebenfalls gezeigt werden, dass die Nutrigenetik und Nutrigenomik zwei nicht zu vernachlässigende Faktoren darstellen. So zeigten unter anderem die Konzentrationen einiger Lipidspezies eine starke Erblichkeit und Abhängigkeit der Diät.
Zudem legen die Ergebnisse nahe, dass laufende wie geplante Präventionsstrategien und medizinische Behandlungen deutlich stärker den Patienten als Individuum mit einbeziehen müssen, da die Datenanalyse interindividuelle Unterschiede identifizierte und Hinweise lieferte, dass einige Probanden die nachteiligen, metabolischen Auswirkungen einer Hochfettdiät besser ausgleichen konnten als andere.
Der Fall der Rachel Dolezal
(2016)
Die Amerikanerin Rachel Dolezal war bis ins Jahr 2015 als Afroamerikanerin bekannt. Als Aktivistin der National Association for the Advancement of Colored People setzte sie sich für die Rechte der afroamerikanischen Bevölkerung ein, lebte in einem schwarzen Umfeld und lehrte an einer Universität Afroamerikanische Studien. „I identify as black“ antwortete sie auf die Frage eines amerikanischen Fernsehmoderators, ob sie Afroamerikanerin sei. Ihre Kollegen und ihr näheres Umfeld identifizierten sie ebenfalls als solche. Erst, als regionale Journalisten auf sie aufmerksam wurden und ihre Eltern sich zu Wort meldeten, wurde deutlich, dass Dolezal eigentlich eine weiße Frau ist. Dolezals Eltern bestätigten dies, indem sie Kindheitsfotos einer hellhäutigen, blonden Rachel veröffentlichten. Dolezals Verhalten entfachte daraufhin eine rege mediale Diskussion über ihre Person im Kontext von Ethnizität und »Rasse«.
Die Verfasserin greift Dolezals Fall exemplarisch auf, um der Frage nachzugehen, ob ein Doing Race nach Belieben möglich ist. Darf sich Dolezal als schwarz identifizieren, obwohl sie keine afrikanischen Vorfahren hat? Welche gesellschaftliche Wissensvorräte schränken diese Wahl ein und welche Konsequenzen ergeben sich daraus? Anhand einer Diskursanalyse amerikanischer Zeitungsartikel geht die Verfasserin diesen Fragen nach. Hierbei werden »Rasse« und Ethnizität als soziale Konstruktionen, basierend auf dem Konzept von Stephen Cornell und Douglas Hartmann, betrachtet.
Molekulare Charakterisierung des Centrosom-assoziierten Proteins CP91 in Dictyostelium discoideum
(2016)
Das Dictyostelium-Centrosom ist ein Modell für acentrioläre Centrosomen. Es besteht aus einer dreischichtigen Kernstruktur und ist von einer Corona umgeben, welche Nukleationskomplexe für Mikrotubuli beinhaltet. Die Verdoppelung der Kernstruktur wird einmal pro Zellzyklus am Übergang der G2 zur M-Phase gestartet. Durch eine Proteomanalyse isolierter Centrosomen konnte CP91 identifiziert werden, ein 91 kDa großes Coiled-Coil Protein, das in der centrosomalen Kernstruktur lokalisiert. GFP-CP91 zeigte fast keine Mobilität in FRAP-Experimenten während der Interphase, was darauf hindeutet, dass es sich bei CP91 um eine Strukturkomponente des Centrosoms handelt. In der Mitose hingegen dissoziieren das GFP-CP91 als auch das endogene CP91 ab und fehlen an den Spindelpolen von der späten Prophase bis zur Anaphase. Dieses Verhalten korreliert mit dem Verschwinden der zentralen Schicht der Kernstruktur zu Beginn der Centrosomenverdopplung. Somit ist CP91 mit großer Wahrscheinlichkeit ein Bestandteil dieser Schicht. CP91-Fragmente der N-terminalen bzw. C-terminalen Domäne (GFP-CP91 N-Terminus, GFP-CP91 C-Terminus) lokalisieren als GFP-Fusionsproteine exprimiert auch am Centrosom, zeigen aber nicht die gleiche mitotische Verteilung des Volllängenproteins. Das CP91-Fragment der zentralen Coiled-Coil Domäne (GFP-CP91cc) lokalisiert als GFP-Fusionsprotein exprimiert, als ein diffuser cytosolische Cluster, in der Nähe des Centrosoms. Es zeigt eine partiell ähnliche mitotische Verteilung wie das Volllängenprotein. Dies lässt eine regulatorische Domäne innerhalb der Coiled-Coil Domäne vermuten. Die Expression der GFP-Fusionsproteine unterdrückt die Expression des endogenen CP91 und bringt überzählige Centrosomen hervor. Dies war auch eine markante Eigenschaft nach der Unterexpression von CP91 durch RNAi. Zusätzlich zeigte sich in CP91-RNAi Zellen eine stark erhöhte Ploidie verursacht durch schwere Defekte in der Chromosomensegregation verbunden mit einer erhöhten Zellgröße und Defekten im Abschnürungsprozess während der Cytokinese. Die Unterexpression von CP91 durch RNAi hatte auch einen direkten Einfluss auf die Menge an den centrosomalen Proteinen CP39, CP55 und CEP192 und dem Centromerprotein Cenp68 in der Interphase. Die Ergebnisse deuten darauf hin, dass CP91 eine zentrale centrosomale Kernkomponente ist und für den Zusammenhalt der beiden äußeren Schichten der Kernstruktur benötigt wird. Zudem spielt CP91 eine wichtige Rolle für eine ordnungsgemäße Centrosomenbiogenese und, unabhängig davon, bei dem Abschnürungsprozess der Tochterzellen während der Cytokinese.
Inhalt
- Reinhard Andress: Ein unveröffentlichter Brief Alexander von Humboldts an den Buchhändler Jean-Georges Treuttel
- Julian Drews: Écriture (auto)biographique dans l‘Examen critique d‘Alexandre de Humboldt
- Alberto Gómez Gutiérrez: Alexander von Humboldt y la cooperación transcontinental en la Geografía de las plantas: una nueva apreciación de la obra fitogeográfica de Francisco José de Caldas
- Karin Reich und Elena Roussanova: Der Briefwechsel zwischen Karl Kreil und Alexander von Humboldt, ein wichtiger Beitrag zur Geschichte des Erdmagnetismus
- Alexander Stöger: Experiment und Wissensvermittlung. Alexander von Humboldts Darstellungsmethoden in seinen Versuchen über die gereizte Muskel- und Nervenfaser
- Friedrich Herneck und Ingo Schwarz: Friedrich Herneck: Hegel und Alexander von Humboldt
Alexander von Humboldt hat sich in jungen Jahren mit galvanischen Experimenten beschäftigt und die Resultate in einem umfassenden, zweibändigen Werk publiziert. Dabei zeigte er nicht nur, dass er als Experimentator und Teil der wissenschaftlichen Gemeinschaft fähig war, sich mit einem so neuen und komplexen Phänomen zu beschäftigen. Es lässt sich auch erkennen, dass er bereits in dieser frühen Schrift versuchte, das umfangreiche Wissen dem Leser zugänglich zu machen.
Der Artikel betrachtet Humboldts Galvanismusschrift Versuche über die gereizte Muskel- und Nervenfaser (1797–1798) und untersucht einige Elemente wie Anhänge und Schreibstil, die Humboldt nutzte, um die umfangreichen Informationen zu ordnen und dem Leser so neben den Big Data seiner Erkenntnisse auch passende Suchfunktionen zur Verfügung zu stellen, die eine gezielte Nutzung überhaupt ermöglichen.
Die Korrespondenz zwischen Alexander von Humboldt und Karl Kreil war umfangreich und betraf den Erdmagnetismus. Aber heute ist nur noch ein einziger Brief im Original bekannt. Dieser Brief, den Kreil am 3. September 1836 Alexander von Humboldt zukommen ließ, stimmt inhaltlich und teilweise wortwörtlich mit dem Brief überein, den Kreil nur einen Tag später, am 4. September 1836, an Carl Friedrich Gauß schickte. Vier Briefe von Kreil an Humboldt wurden in den „Annalen der Physik und Chemie“ publiziert, eine nicht allzu große Anzahl weiterer Briefe an Humboldt wurde in der biographischen Literatur über Kreil und in Briefen Kreils an Koller und Gauß erwähnt. Aber nicht nur die lückenhafte und bruchstückhaft bekannte Korrespondenz zwischen Humboldt und Kreil, die bis 1851 reicht, gibt Aufschluss über die Beziehungen, sondern von besonderer Bedeutung ist des Weiteren der Bestand an Kreiliana in der Bibliothek Humboldts. Es handelt sich um neun Werke Kreils, das letzte aus dem Jahr 1856. Nachweisbare Kontakte zwischen Kreil und Humboldt fanden also mit Sicherheit mindestens bis zu diesem Jahr statt!
Ein unveröffentlichter Brief Alexander von Humboldts an den Buchhändler Jean-Georges Treuttel
(2016)
In der Lilly Library der Indiana University befindet sich ein kurzer unveröffentlichter Brief Alexander von Humboldts an den Buchhändler und Autor Jean-Georges Treuttel. Dieser Artikel unternimmt den Versuch, den historisch-bibliographischen Kontext des Briefes herzustellen und ihn in Humboldts wissenschaftliches Schaffen einzuordnen.
Die vorgelegte Dissertation präsentiert wissenschaftliche Ergebnisse, die in der Zeit vom Dezember 2012 bis August 2016, erarbeitet wurden. Der zentrale Inhalt der Arbeit ist die Simulation von Röntgenabsorptionsprozessen von verschiedenen Systemen in kondensierter Phase. Genauer gesagt, werden Nahkantenabsorptions- (NEXAFS) sowie Röntgenphotoelektronenspektren (XPS) berechnet. In beiden Fällen wird ein Röntgenphoton von einem molekularen System absorbiert. Aufgrund der hohen Photonenenergie wird ein stark gebundenes kernnahes Elektron angeregt. Bei der XPS gelangt dieses mit einer zu messenden kinetischen Energie in Kontinuumszustände. In Abhängigkeit der eingestrahlten Photonenenergie und der kinetischen Energie des austreten Elektrons, kann die Bindungsenergie berechnet werden, welche die zentrale Größe der XPS ist. Im Falle der NEXAFS-Spektroskopie wird das kernnahe Elektron in unbesetzte gebundene Zustände angeregt. Die zentrale Größe ist die Absorption als Funktion der eingestrahlten Photonenenergie. Das erste Kapitel meiner Arbeit erörtert detailliert die experimentellen Methoden sowie die daraus gewonnenen charakteristischen Größen.
Die experimentellen Spektren zeigen oft viele Resonanzen, deren Interpretation aufgrund fehlender Referenzmaterialien schwierig ist. In solchen Fällen bietet es sich an, die Spektren mittels quantenchemischer Methoden zu simulieren. Der dafür erforderliche mathematisch-physikalische Methodenkatalog wird im zweiten Kapitel der Arbeit erörtert.
Das erste von mir untersuchte System ist Graphen. In experimentellen Arbeiten wurde die Oberfläche mittels Bromplasma modifiziert. Die im Anschluss gemessenen NEXAFS-Spektren unterscheiden sich maßgeblich von den Spektren der unbehandelten Oberfläche. Mithilfe periodischer DFT-Rechnungen wurden verschiedene Gitterdefekte sowie bromierte Systeme untersucht und die NEXAFS-Spektren simuliert. Mittels der Simulationen können die Beiträge verschiedener Anregungszentren analysiert werden. Die Berechnungen erlauben den Schluss, dass Gitterdefekte maßgeblich für die entstandenen Veränderungen verantwortlich sind.
Polyvinylalkohol (PVA) wurde als zweites System behandelt. Hierbei sollte untersucht werden, wie groß der Einfluss der Molekularbewegung auf die Verbreiterung der Peaks im XP-Spektrum ist. Des Weiteren wurde untersucht, wie groß der Einfluss von intermolekularen Wechselwirkungen auf die Peakpositionen und Peakverbreiterung ist. Für die Berechnung dieses Systems wurde eine Kombination aus molekulardynamischen und quantenchemischen Methoden verwendet. Als Strukturen dienten Oligomermodelle, die unter dem Einfluss eines (ab initio) Potentials propagiert wurden. Entlang der erstellten Trajektorie wurden Schnappschüsse der Geometrien extrahiert und für die Berechnung der XP-Spektren verwendet. Die Spektren werden bereits mithilfe klassischer Molekulardynamik sehr gut reproduziert. Die erhaltenen Peakbreiten sind verglichen mit dem Experiment allerdings zu klein. Die Hauptursache der Peakverbreiterung ist die Molekularbewegung. Intermolekulare Wechselwirkungen verschieben die Peakpositionen um 0.6 eV zu kleineren Anregungsenergien.
Im dritten Teil der Arbeit stehen die NEXAFS-Spektren von ionischen Flüssigkeiten (ILs) im Fokus. Die experimentell gefundenen Spektren zeigen eine komplexe Struktur mit vielen Resonanzen. In der Arbeit wurden zwei ILs untersucht. Als Geometrien verwenden wir Clustermodelle, die aus experimentellen Kristallstrukturen extrahiert wurden. Die berechneten Spektren erlauben es, die Resonanzen den Anregungszentren zuzuordnen. Außerdem kann eine erstmals gemessene Doppelresonanz simuliert und erklärt werden. Insgesamt kann die Interpretation der Spektren mithilfe der Simulation signifikant erweitert werden.
In allen Systemen wurde zur Berechnung des NEXAFS-Spektrums eine auf Dichtefunktionaltheorie basierende Methode verwendet (die sogenannte Transition-Potential Methode). Gängige wellenfunktionsbasierte Methoden, wie die Konfigurationswechselwirkung mit Einfachanregungen (CIS), zeigen eine starke Blauverschiebung, wenn als Referenz eine Hartree-Fock Slaterdeterminante verwendet wird. Wir zeigen, dass die Verwendung von kernnah-angeregten Determinanten sowohl das resultierende Spektrum als auch die Anregungsenergien deutlich verbessert. Des Weiteren werden auch Referenzen aus Dichtefunktionalrechnungen getestet. Zusätzlich werden auch Referenzen mit gebrochenen Besetzungszahlen für kernnahe Elektronen verwendet. In der Arbeit werden die Resultate der verschiedenen Referenzen miteinander verglichen. Es zeigt sich, dass Referenzen mit gebrochenen Besetzungszahlen das Spektrum nicht weiter verbessern. Der Einfluss der verwendeten Elektronenstrukturmethode ist eher gering.
Physikalische Hydrogele gewinnen derzeit als Zellsubstrate zunehmend an Interesse, da Viskoelastizität oder Stressrelaxation ein bedeutender Parameter in der Mechanotransduktion ist, der bisher vernachlässigt wurde. In dieser Arbeit wurden multi-funktionelle Polyurethane entworfen, die über einen neuartigen Gelierungsmechanismus physikalische Hydrogele bilden. In Wasser bilden die anionischen Polyurethane spontan Aggregate, welche durch elektrostatische Abstoßung in Lösung gehalten werden. Eine schnelle Gelierung kann von hier aus durch Ladungsabschirmung erreicht werden, wodurch die Aggregation voranschreitet und ein Netzwerk ausgebildet wird. Dies kann durch die Zugabe von verschiedenen Säuren oder Salzen geschehen, sodass sowohl saure (pH 4 - 5) als auch pH-neutrale Hydrogele erhalten werden können. Während konventionelle Hydrogele auf Polyurethan-Basis in der Regel durch toxische isocyanat-haltige Präpolymere hergestellt werden, eignet sich der hier beschriebene physikalische Gelierungsmechanismus für in situ Anwendungen in sensitiven Umgebungen. Sowohl Härte als auch Stressrelaxation der Hydrogele können unabhängig voneinander über einen breiten Bereich eingestellt werden. Darüberhinaus zeichnen sich die Hydrogele durch exzellente Stressregeneration aus.
Kleine Kosmopolitismen
(2016)
Seit der Einführung von Antibiotika in die medizinische Behandlung von bakteriellen Infektionskrankheiten existiert ein Wettlauf zwischen der Evolution von Bakterienresistenzen und der Entwicklung wirksamer Antibiotika. Während bis in die 80er Jahre verstärkt an neuen Antibiotika geforscht wurde, gewinnen multiresistente Keime heute zunehmend die Oberhand. Um einzelne Pathogene erfolgreich nachzuweisen und zu bekämpfen, ist ein grundlegendes Wissen über den Erreger unumgänglich. Bakterielle Proteine, die bei einer Infektion vorrangig vom Immunsystem prozessiert und präsentiert werden, könnten für die Entwicklung von Impfstoffen oder gezielten Therapeutika nützlich sein. Auch für die Diagnostik wären diese immundominanten Proteine interessant. Allerdings herrscht ein Mangel an Wissen über spezifische Antigene vieler pathogener Bakterien, die eine eindeutige Diagnostik eines einzelnen Erregers erlauben würden.
Daher wurden in dieser Arbeit vier verschiedene Humanpathogene mittels Phage Display untersucht: Neisseria gonorrhoeae, Neisseria meningitidis, Borrelia burgdorferi und Clostridium difficile. Hierfür wurden aus der genomischen DNA der vier Erreger Bibliotheken konstruiert und durch wiederholte Selektion und Amplifikation, dem sogenannten Panning, immunogene Proteine isoliert. Für alle Erreger bis auf C. difficile wurden immunogene Proteine aus den jeweiligen Bibliotheken isoliert. Die identifizierten Proteine von N. meningitidis und B. burgdorferi waren größtenteils bekannt, konnten aber in dieser Arbeit durch Phage Display verifiziert werden. Für N. gonorrhoeae wurden 21 potentiell immunogene Oligopeptide isoliert, von denen sechs Proteine als neue zuvor unbeschriebene Proteine mit immunogenem Charakter identifiziert wurden. Von den Phagen-präsentierten Oligopeptide der 21 immunogenen Proteine wurden Epitopmappings mit verschiedenen polyklonalen Antikörpern durchgeführt, um immunogene Bereiche näher zu identifizieren und zu charakterisieren. Bei zehn Proteinen wurden lineare Epitope eindeutig mit drei polyklonalen Antikörpern identifiziert, von fünf weiteren Proteinen waren Epitope mit mindestens einem Antikörper detektierbar. Für eine weitere Charakterisierung der ermittelten Epitope wurden Alaninscans durchgeführt, die eine detaillierte Auskunft über kritische Aminosäuren für die Bindung des Antikörpers an das Epitop geben.
Ausgehend von dem neu identifizierten Protein mit immunogenem Charakter NGO1634 wurden 26 weitere Proteine aufgrund ihrer funktionellen Ähnlichkeit ausgewählt und mithilfe bioinformatischer Analysen auf ihre Eignung zur Entwicklung einer diagnostischen Anwendung analysiert. Durch Ausschluss der meisten Proteine aufgrund ihrer Lokalisation, Membrantopologie oder unspezifischen Proteinsequenz wurden scFv-Antikörper gegen acht Proteine mittels Phage Display generiert und anschließend als scFv-Fc-Fusionsantikörper produziert und charakterisiert.
Die hier identifizierten Proteine und linearen Epitope könnten einen Ansatzpunkt für die Entwicklung einer diagnostischen oder therapeutischen Anwendung bieten. Lineare Epitopsequenzen werden häufig für die Impfstoffentwicklung eingesetzt, sodass vor allem die in dieser Arbeit bestimmten Epitope von Membranproteinen interessante Kandidaten für weitere Untersuchungen in diese Richtung sind. Durch weitere Untersuchungen könnten möglicherweise unbekannte Virulenzfaktoren entdeckt werden, deren Inhibierung einen entscheidenden Einfluss auf Infektionen haben könnten.
Diese Arbeit zu Grunde liegenden Forschung zielte darauf ab, neue schmelzbare Acrylnitril-Copolymere zu entwickeln. Diese sollten im Anschluss über ein Schmelzspinnverfahren zur Chemiefaser geformt und im letzten Schritt zur Carbonfaser konvertiert werden. Zu diesem Zweck wurden zunächst orientierende Untersuchungen an unterschiedlichen Copolymeren des Acrylnitril aus Lösungspolymerisation durchgeführt. Die Untersuchungen zeigten, dass elektrostatische Wechselwirkungen besser als sterische Abschirmung dazu geeignet sind, Schmelzbarkeit unterhalb der Zersetzungstemperatur von Polyacrylnitril zu bewirken. Aus der Vielzahl untersuchter Copolymere stellten sich jene mit Methoxyethylacrylat (MEA) als am effektivsten heraus. Für diese Copolymere wurden sowohl die Copolymerisationsparameter bestimmt als auch die grundlegende Kinetik der Lösungspolymerisation untersucht. Die Copolymere mit MEA wurden über Schmelzspinnen zur Faser umgeformt und diese dann untersucht. Hierbei wurden auch Einflüsse verschiedener Parameter, wie z.B. die der Molmasse, auf die Fasereigenschaften und -herstellung untersucht. Zuletzt wurde ein Heterophasenpolymerisationsverfahren zur Herstellung von Copolymeren aus AN/MEA entwickelt; dadurch konnten die Materialeigenschaften weiter verbessert werden. Zur Unterdrückung der thermoplastischen Eigenschaften der Fasern wurde ein geeignetes Verfahren entwickelt und anschließend die Konversion zu Carbonfasern durchgeführt.
Die Empirie des beginnenden 21. Jahrhunderts weist mehr autoritäre Regime aus als am Ende des 20. Jahrhunderts angenommen. Die gegenwärtige Autoritarismusforschung versucht die Fortdauer dieses Regimetyps in Hinblick auf die politischen Institutionen zu erklären – dabei bleiben politische Akteure, die nicht zum Herrschaftszentrum gehören, außen vor.
Das vorliegende Projekt untersucht die Rolle und Funktion politischer Opposition in autoritären Regimen. Es wird davon ausgegangen, dass sich an der Opposition eine signifikante Charakteristik autoritärer Regime manifestiert. Das akteurszentrierte Projekt ist der qualitativ orientierten Politikwissenschaft zuzurechnen und verknüpft das Autoritarismuskonzept von Juan Linz mit klassischen Ansätzen der Oppositionsforschung und macht diese Theorien für die gegenwärtige Autoritarismusforschung nutzbar.
Die eigens entwickelte elitenorientierte Oppositionstypologie wird am Beispiel Kenias im Zeitraum 1990-2005 angewendet. Die Oppositionsgruppen werden im Institutionengefüge autoritärer Regime verortet und ihr politisches Agieren in den Dimensionen Handlungsstatus, Handlungsüberzeugung und Handlungsstrategie analysiert. Unter Beachtung der historisch gewachsenen regionalen und kulturellen Spezifika wird angenommen, dass generelle, Regionen übergreifende Aussagen zur Opposition in autoritären Regimen getroffen werden können: Kein Oppositionstyp kann allein einen Herrschaftswechsel bewirken. Der Wechsel bzw. die Fortdauer der Herrschaft hängt von der Dominanz bestimmter Oppositionstypen im Oppositionsgeflecht sowie der gleichzeitigen Schwäche anderer Oppositionstypen ab.
Durch die konzeptionelle Beschäftigung mit Opposition sowie deren empirische Erschließung soll ein substantieller Beitrag für die notwendige Debatte um autoritäre Regime im 21. Jahrhundert geleistet werden.
Editorial (Dr. Roswitha Lohwaßer) ; Schon im Studium von gelingenden Schulen lernen (Jannis Andresen, Jakob Erichsen) ; Wie ein Funke überspringt (Laura Zrenner) ; Lerneffekte unter der Lupe (Ariane Faulian) ; Die Lernreise als Ultima Ratio? (Leroy Großmann) ; Die Lernreise als Schulperspektive (Laura Zrenner) ; Teamgeist gefragt (Cornelia Brückner) ; Wunschberuf Lehrerin (Robin Miska) ; Gelebte Integration (Cornelia Brückner) ; Souverän Führen im Unterricht (Dr. Helga Breuninger, Marina Rottig, Prof. Dr. Wilfried Schley) ; Was lernen Lehramtsstudierende durch ein videogestütztes Klassenmanagement-Training? (Dr. Janine Neuhaus, Mirko Wendland)
Der Klimawandel
(2016)
Was ist Gerechtigkeit? Wie könnten gerechte Regelungen aussehen für die Katastrophen und Leiden, die der Klimawandel auslöst bzw. auslösen wird? Diese sind häufig ungerecht, weil sie oft deutlich stärker diejenigen treffen, die am wenigsten zur Klimaveränderung beigetragen haben.
Doch was genau verstehen wir unter dem Schlagwort: ‚Klimawandel‘? Und kann dieser wirklich den Menschen direkt treffen? Ein kurzer naturwissenschaftlicher Abriss klärt hier die wichtigsten Fragen.
Da es sich hierbei um eine philosophische Arbeit handelt, muss zunächst geklärt werden, ob der Mensch überhaupt die Ursache von so etwas sein kann wie z.B. der Klimaerwärmung. Robert Spaemanns These dazu ist, dass der Mensch durch seinen freien Willen mit seinen Einzelhandlungen das Weltgeschehen verändern kann. Hans Jonas fügt dem hinzu, dass wir durch diese Fähigkeit, verantwortlich sind für die gewollten und ungewollten Folgen unserer Handlungen.
Damit wäre aus naturwissenschaftlicher Sicht (1. Teil der Arbeit) und aus philosophischer Sicht (Anfang 2. Teil) geklärt, dass der Mensch mit größter Wahrscheinlichkeit die Ursache des Klimawandels ist und diese Verursachung moralische Konsequenzen für ihn hat.
Ein philosophischer Gerechtigkeitsbegriff wird aus der Kantischen Rechts- und Moralphilosophie entwickelt, weil diese die einzige ist, die dem Menschen überhaupt ein Recht auf Rechte zusprechen kann. Diese entspringt der transzendentalen Freiheitsfähigkeit des Menschen, weshalb jedem das Recht auf Rechte absolut und immer zukommt. Gleichzeitig mündet Kants Philosophie wiederum in dem Freiheitsgedanken, indem Gerechtigkeit nur existiert, wenn alle Menschen gleichermaßen frei sein können.
Was heißt das konkret? Wie könnte Gerechtigkeit in der Realität wirklich umgesetzt werden? Die Realisierung schlägt zwei Grundrichtungen ein. John Rawls und Stefan Gosepath beschäftigen sich u.a. eingehend mit der prozeduralen Gerechtigkeit, was bedeutet, dass gerechte Verfahren gefunden werden, die das gesellschaftliche Zusammenleben regeln. Das leitende Prinzip hierfür ist vor allem: ein Mitbestimmungsrecht aller, so dass sich im Prinzip alle Bürger ihre Gesetze selbst geben und damit frei handeln.
In Bezug auf den Klimawandel steht die zweite Ausrichtung im Vordergrund – die distributive oder auch Verteilungs-Gerechtigkeit. Materielle Güter müssen so aufgeteilt werden, dass auch trotz empirischer Unterschiede alle Menschen als moralische Subjekte anerkannt werden und frei sein können.
Doch sind diese philosophischen Schlussfolgerungen nicht viel zu abstrakt, um auf ein ebenso schwer fassbares und globales Problem wie den Klimawandel angewendet zu werden? Was könnte daher eine Klimagerechtigkeit sein?
Es gibt viele Gerechtigkeitsprinzipien, die vorgeben, eine gerechte Grundlage für die Klimaprobleme zu bieten wie z.B. das Verursacherprinzip, das Fähigkeitsprinzip oder das Grandfathering-Prinzip, bei dem die Hauptverursacher nach wie vor am meisten emittieren dürfen (dieses Prinzip leitete die bisherigen internationalen Verhandlungen).
Das Ziel dieser Arbeit ist, herauszufinden, wie die Klimaprobleme gelöst werden können, so dass für alle Menschen unter allen Umständen die universellen Menschenrechte her- und sichergestellt werden und diese frei und moralisch handeln können.
Die Schlussfolgerung dieser Arbeit ist, dass Kants Gerechtigkeitsbegriff durch eine Kombination des Subsistenzemissions-Rechts, des Greenhouse-Development-Rights-Principles (GDR-Prinzip) und einer internationalen Staatlichkeit durchgesetzt werden könnte.
Durch das Subsistenzemissions-Recht hat jeder Mensch das Recht, so viel Energie zu verbrauchen und damit zusammenhängende Emissionen zu produzieren, dass er ein menschenwürdiges Leben führen kann. Das GDR-Prinzip errechnet den Anteil an der weltweiten Gesamtverantwortung zum Klimaschutz eines jeden Landes oder sogar eines jeden Weltbürgers, indem es die historischen Emissionen (Klimaschuld) zu der jetzigen finanziellen Kapazität des Landes/ des Individuums (Verantwortungsfähigkeit) hinzuaddiert. Die Implementierung von internationalen Gremien wird verteidigt, weil es ein globales, grenzüberschreitendes Problem ist, dessen Effekte und dessen Verantwortung globale Ausmaße haben.
Ein schlagendes Argument für fast alle Klimaschutzmaßnahmen ist, dass sie Synergien aufweisen zu anderen gesellschaftlichen Bereichen aufweisen wie z.B. Gesundheit und Armutsbekämpfung, in denen auch noch um die Durchsetzung unserer Menschenrechte gerungen wird.
Ist dieser Lösungsansatz nicht völlig utopisch?
Dieser Vorschlag stellt für die internationale Gemeinschaft eine große Herausforderung dar, wäre jedoch die einzig gerechte Lösung unserer Klimaprobleme. Des Weiteren wird an dem Kantischen Handlungsgrundsatz festgehalten, dass das ewige Streben auf ideale Ziele hin, die beste Verwirklichung dieser durch menschliche, fehlbare Wesen ist.
Protektiver Effekt von 6-Shogaol, Ellagsäure und Myrrhe auf die intestinale epitheliale Barriere
(2016)
Viele bioaktive Pflanzeninhaltsstoffe bzw. Pflanzenmetabolite besitzen antiinflammatorische Eigenschaften. Diese versprechen ein hohes Potential für den Einsatz in der Phytotherapie bzw. Prävention von chronisch-entzündlichen Darmerkrankungen (CED). Eine intestinale Barrieredysfunktion ist ein typisches Charakteristikum von CED Patienten, die dadurch an akuter Diarrhoe leiden.
In dieser Arbeit werden die Pflanzenkomponenten 6-Shogaol, Ellagsäure und Myrrhe an den intestinalen Kolonepithelzellmodellen HT-29/B6 und Caco-2 auf ihr Potential hin, die intestinale Barriere zu stärken bzw. eine Barrieredysfunktion zu verhindern, untersucht. Hauptschwerpunkt der Analysen ist die parazelluläre Barrierefunktion und die Regulation der dafür entscheidenden Proteinfamilie der Tight Junctions (TJs), der Claudine.
Die Barrierefunktion wird durch Messung des transepithelialen Widerstands (TER) und der Fluxmessung in der Ussing-Kammer bestimmt. Dazu werden die HT-29/B6- und Caco-2-Monolayer mit den Pflanzenkomponenten (6-Shogaol, Ellagsäure, Myrrhe), dem proinflammatorischen Zytokin TNF-α oder der Kombination von beiden Subsztanzen für 24 oder 48 h behandelt. Außerdem wurden zur weiteren Charakterisierung die Expression sowie die Lokalisation der für die parazelluläre Barriere relevanten Claudine, die TJ-Ultrastruktur und verschiedene Signalwege analysiert.
In Caco-2-Monolayern führten Ellagsäure und Myrrhe, nicht aber 6-Shogaol, allein zu einem TER-Anstieg bedingt durch eine verringerte Permeabilität für Natriumionen. Myrrhe verminderte die Expression des Kationenkanal-bildenden TJ-Proteins Claudin-2 über die Inhibierung des PI3K/Akt-Signalweges, während Ellagsäure die Expression der TJ-Proteine Claudin-4 und -7 reduzierte. Alle Pflanzenkomponenten schützten in den Caco-2-Zellen vor einer TNF-α-induzierten Barrieredysfunktion.
An den HT-29/B6-Monolayern änderte keine der Pflanzenkomponenten allein die Barrierefunktion. Die HT-29/B6-Zellen reagierten auf TNF-α mit einer deutlichen Verminderung des TER und einer erhöhten Fluoreszein-Permeabilität. Die TER-Abnahme war durch eine PI3K/Akt-vermittelte gesteigerte Claudin-2-Expression sowie eine NFκB-vermittelte Umverteilung des abdichtenden TJ-Proteins Claudin-1 gekennzeichnet. 6-Shogaol konnte den TER-Abfall partiell hemmen sowie die PI3K/Akt-induzierte Claudin-2-Expression und die NFκB-bedingte Claudin-1-Umverteilung verhindern. Ebenso inhibierte Myrrhe, nicht aber Ellagsäure, den TNF-α-induzierten TER-Abfall. Dabei konnte Myrrhe zwar den Claudin-2-Expressionsanstieg und die Claudin-1-Umverteilung unterbinden, jedoch weder die NFκB- noch die PI3K/Akt-Aktivierung hemmen. Diese Arbeit zeigt, dass auch STAT6 an dem Claudin-2-Expressionsanstieg durch
TNF-α in HT-29/B6-Zellen beteiligt ist. So wurde durch Myrrhe die TNF-α-induzierte Phosphorylierung von STAT6 und die erhöhte Claudin-2-Expression inhibiert.
Die Ergebnisse deuten darauf hin, dass die Pflanzenkomponenten 6-Shogaol, Ellagsäure und Myrrhe mit unterschiedlichen Mechanismen stärkend auf die Barriere einwirken. Zur Behandlung von intestinalen Erkrankungen mit Barrieredysfunktion könnten daher Kombinationspräparate aus verschiedenen Pflanzen effektiver sein als Monopräparate.
Das Ziel der Doktorarbeit war die Entwicklung und Evaluation eines skillsbasierten primären Präventionsprogramms (Mainzer Schultraining zur Essstörungsprävention (MaiStep)) für partielle und manifeste Essstörungen. Dabei wurde die Wirksamkeit durch einen primären (Reduktion vorhandener Essstörungssymptome) und sekundären (assoziierte Psychopathologie) Zielparameter 3 und 12 Monate nach Durchführung des Trainings überprüft. Innerhalb der randomisiert kontrollierten Studie gab es zwei Interventionsgruppe und eine aktive Kontrollgruppe. 1.654 Jugendliche (weiblich/männlich: 781/873; mittleres Alter: 13.1±0.7; BMI: 20.0±3.5) konnten für die Studie, an zufällig ausgewählten Schulen in Rheinland-Pfalz, rekrutiert werden. Die Entwicklung des Präventionsprogramms basiert auf einem systematischen Literaturreview von 63 wissenschaftlichen Studien über die Prävention von Essstörungen im Kindes- und Jugendalter. Eine Interventionsgruppe wurde durch Psychologinnen/Psychologen und eine zweite durch Lehrkräfte angeleitet. Das in der aktiven Kontrollgruppe durchgeführte Sucht- bzw. Stresspräventionsprogramm wurde durch Lehrkräfte geleitet. MaiStep zeigte zur 3-Monatskatamnese keine signifikanten Effekte im Vergleich zur aktiven Kontrollgruppe. Allerdings zeigten sich nach 12 Monaten multiple signifikante Effekte zwischen den Interventions- und der aktiven Kontrollgruppe. Im Rahmen der Analyse des primären Parameters wurden in den Interventionsgruppen signifikant weniger Jugendliche mit einer partiellen Anorexia nervosa (CHI²(2) = 8.74, p = .01**) und/oder partiellen Bulimia nervosa (CHI²(2) = 7.25, p = .02*) gefunden. Im Rahmen der sekundären Zielparameter zeigten sich signifikante Veränderungen in Subskalen des Eating Disorder Inventory (EDI-2) Schlankheitsstreben (F (2, 355) = 3.94, p = .02*) und Perfektionismus (F (2, 355) = 4.19, p = .01**) sowie dem Body Image Avoidance Questionnaire (BIAQ) (F (2, 525) = 18.79, p = .01**) zwischen den Interventions- und der aktiven Kontrollgruppe. MaiStep kann somit als erfolgreiches Programm zur Reduktion von partiellen Essstörungen für die Altersgruppe der 13- 15-jährigen bezeichnet werden. Trotz unterschiedlicher Wirkmechanismen zeigten sich die Lehrkräfte im Vergleich zu den Psychologinnen/Psychologen ebenso erfolgreich in der Durchführung.
Trial registration MaiStep is registered at the German Clinical Trials Register (DRKS00005050).
Das Wissen um die lokale Struktur von Seltenen Erden Elementen (SEE) in silikatischen und aluminosilikatischen Schmelzen ist von fundamentalem Interesse für die Geochemie der magmatischen Prozesse, speziell wenn es um ein umfassendes Verständnis der Verteilungsprozesse von SEE in magmatischen Systemen geht. Es ist allgemein akzeptiert, dass die SEE-Verteilungsprozesse von Temperatur, Druck, Sauerstofffugazität (im Fall von polyvalenten Kationen) und der Kristallchemie kontrolliert werden. Allerdings ist wenig über den Einfluss der Schmelzzusammensetzung selbst bekannt. Ziel dieser Arbeit ist, eine Beziehung zwischen der Variation der SEE-Verteilung mit der Schmelzzusammensetzung und der Koordinationschemie dieser SEE in der Schmelze zu schaffen.
Dazu wurden Schmelzzusammensetzungen von Prowatke und Klemme (2005), welche eine deutliche Änderung der Verteilungskoeffizienten zwischen Titanit und Schmelze ausschließlich als Funktion der Schmelzzusammensetzung zeigen, sowie haplogranitische bzw. haplobasaltische Schmelzzusammensetzungen als Vertreter magmatischer Systeme mit La, Gd, Yb und Y dotiert und als Glas synthetisiert. Die Schmelzen variierten systematisch im Aluminiumsättigungsindex (ASI), welcher bei den Prowatke und Klemme (2005) Zusammensetzungen einen Bereich von 0.115 bis 0.768, bei den haplogranitischen Zusammensetzungen einen Bereich von 0.935 bis 1.785 und bei den haplobasaltischen Zusammensetzungen einen Bereich von 0.368 bis 1.010 abdeckt. Zusätzlich wurden die haplogranitischen Zusammensetzungen mit 4 % H2O synthetisiert, um den Einfluss von Wasser auf die lokale Umgebung von SEE zu studieren. Um Informationen über die lokalen Struktur von Gd, Yb und Y zu erhalten wurde die Röntgenabsorptionsspektroskopie angewendet. Dabei liefert die Untersuchung der Feinstruktur mittels der EXAFS-Spektroskopie (engl. Extended X-Ray Absorption Fine Structure) quantitative Informationen über die lokale Umgebung, während RIXS (engl. resonant inelastic X-ray scattering), sowie die daraus extrahierte hoch aufgelöste Nahkantenstruktur, XANES (engl. X-ray absorption near edge structure) qualitative Informationen über mögliche Koordinationsänderungen von La, Gd und Yb in den Gläsern liefert. Um mögliche Unterschiede der lokalen Struktur oberhalb der Glastransformationstemperatur (TG) zur Raumtemperatur zu untersuchen, wurden exemplarisch Hochtemperatur Y-EXAFS Untersuchungen durchgeführt.
Für die Auswertung der EXAFS-Messungen wurde ein neu eingeführter Histogramm-Fit verwendet, der auch nicht-symmetrische bzw. nichtgaußförmige Paarverteilungsfunktionen beschreiben kann, wie sie bei einem hohen Grad der Polymerisierung bzw. bei hohen Temperaturen auftreten können. Die Y-EXAFS-Spektren für die Prowatke und Klemme (2005) Zusammensetzungen zeigen mit Zunahme des ASI, eine Zunahme der Asymmetrie und Breite der Y-O Paarverteilungsfunktion, welche sich in sich in der Änderung der Koordinationszahl von 6 nach 8 und einer Zunahme des Y-O Abstand um 0.13Å manifestiert. Ein ähnlicher Trend lässt sich auch für die Gd- und Yb-EXAFS-Spektren beobachten. Die hoch aufgelösten XANESSpektren für La, Gd und Yb zeigen, dass sich die strukturellen Unterschiede zumindest halb-quantitativ bestimmen lassen. Dies gilt insbesondere für Änderungen im mittleren Abstand zu den Sauerstoffatomen. Im Vergleich zur EXAFS-Spektroskopie liefert XANES jedoch keine Informationen über die Form und Breite von Paarverteilungsfunktionen. Die Hochtemperatur EXAFS-Untersuchungen von Y zeigen Änderungen der lokalen Struktur oberhalb der Glasübergangstemperatur an, welche sich vordergründig auf eine thermisch induzierte Erhöhung des mittleren Y-O Abstandes zurückführen lassen. Allerdings zeigt ein Vergleich der Y-O Abstände für Zusammensetzungen mit einem ASI von 0.115 bzw. 0.755, ermittelt bei Raumtemperatur und TG, dass der im Glas beobachtete strukturelle Unterschied entlang der Zusammensetzungsserie in der Schmelze noch stärker ausfallen kann, als bisher für die Gläser angenommen wurde.
Die direkte Korrelation der Verteilungsdaten von Prowatke und Klemme (2005) mit den strukturellen Änderungen der Schmelzen offenbart für Y eine lineare Korrelation, wohingegen Yb und Gd eine nicht lineare Beziehung zeigen. Aufgrund seines Ionenradius und seiner Ladung wird das 6-fach koordinierte SEE in den niedriger polymerisierten Schmelzen bevorzugt durch nicht-brückenbildende Sauerstoffatome koordiniert, um stabile Konfigurationen zu bilden. In den höher polymerisierten Schmelzen mit ASI-Werten in der Nähe von 1 ist 6-fache Koordination nicht möglich, da fast nur noch brückenbildende Sauerstoffatome zur Verfügung stehen. Die Überbindung von brückenbildenden Sauerstoffatomen um das SEE wird durch Erhöhung der Koordinationszahl und des mittleren SEE-O Abstandes ausgeglichen. Dies bedeutet eine energetisch günstigere Konfiguration in den stärker depolymerisierten Zusammensetzungen, aus welcher die beobachtete Variation des Verteilungskoeffizienten resultiert, welcher sich jedoch für jedes Element stark unterscheidet. Für die haplogranitischen und haplobasaltischen Zusammensetzungen wurde mit Zunahme der Polymerisierung auch eine Zunahme der Koordinationszahl und des durchschnittlichen Bindungsabstands, einhergehend mit der Zunahme der Schiefe und der Asymmetrie der Paarverteilungsfunktion, beobachtet. Dies impliziert, dass das jeweilige SEE mit Zunahme der Polymerisierung auch inkompatibler in diesen Zusammensetzungen wird. Weiterhin zeigt die Zugabe von Wasser, dass die Schmelzen depolymerisieren, was in einer symmetrischeren Paarverteilungsfunktion resultiert, wodurch die Kompatibilität wieder zunimmt.
Zusammenfassend zeigt sich, dass die Veränderungen der Schmelzzusammensetzungen in einer Änderung der Polymerisierung der Schmelzen resultieren, die dann einen signifikanten Einfluss auf die lokale Umgebung der SEE hat. Die strukturellen Änderungen lassen sich direkt mit Verteilungsdaten korrelieren, die Trends unterscheiden sich aber stark zwischen leichten, mittleren und schweren SEE. Allerdings konnte diese Studie zeigen, in welcher Größenordnung die Änderungen liegen müssen, um einen signifikanten Einfluss auf den Verteilungskoeffizenten zu haben. Weiterhin zeigt sich, dass der Einfluss der Schmelzzusammensetzung auf die Verteilung der Spurenelemente mit Zunahme der Polymerisierung steigt und daher nicht vernachlässigt werden darf.
Die Dissertation befasst sich mit der Organisation von humanitären Lufttransporten bei internationalen Katastrophen. Diese Flüge finden immer dann statt, wenn die eigene Hilfeleistungsfähigkeit der von Katastrophen betroffenen Regionen überfordert ist und Hilfe aus dem Ausland angefordert wird. Bei jedem der darauffolgenden Hilfseinsätze stehen Hilfsorganisationen und weitere mit der Katastrophenhilfe beteiligte Akteure erneut vor der Herausforderung, in kürzester Zeit eine logistische Kette aufzubauen, damit die Güter zum richtigen Zeitpunkt in der richtigen Menge am richtigen Ort eintreffen.
Humanitäre Lufttransporte werden in der Regel als Charterflüge organisiert und finden auf langen Strecken zu Zielen statt, die nicht selten abseits der hochfrequentierten Warenströme liegen. Am Markt ist das Angebot für derartige Transportdienstleistungen nicht gesichert verfügbar und unter Umständen müssen Hilfsorganisationen warten bis Kapazitäten mit geeigneten Flugzeugen zur Verfügung stehen. Auch qualitativ sind die Anforderungen von Hilfsorganisationen an die Hilfsgütertransporte höher als im regulären Linientransport.
Im Rahmen der Dissertation wird ein alternatives Organisationsmodell für die Beschaffung und den Betrieb sowie die Finanzierung von humanitären Lufttransporten aufgebaut. Dabei wird die gesicherte Verfügbarkeit von besonders flexibel einsetzbaren Flugzeugen in Betracht gezogen, mit deren Hilfe die Qualität und insbesondere die Planbarkeit der Hilfeleistung verbessert werden könnte.
Ein idealtypisches Modell wird hier durch die Kopplung der Kollektivgütertheorie, die der Finanzwissenschaft zuzuordnen ist, mit der Vertragstheorie als Bestandteil der Neuen Institutionenökonomik erarbeitet.
Empirische Beiträge zur Vertragstheorie bemängeln, dass es bei der Beschaffung von transaktionsspezifischen Investitionsgütern, wie etwa Flugzeugen mit besonderen Eigenschaften, aufgrund von Risiken und Umweltunsicherheiten zu ineffizienten Lösungen zwischen Vertragspartnern kommt. Die vorliegende Dissertation zeigt eine Möglichkeit auf, wie durch Aufbau einer gemeinsamen Informationsbasis ex-ante, also vor Vertragsschluss, Risiken und Umweltunsicherheiten reduziert werden können. Dies geschieht durch eine temporale Erweiterung eines empirischen Modells zur Bestimmung der Organisationsform bei transaktionsspezifischen Investitionsgütern aus der Regulierungsökonomik.
Die Arbeitet leistet darüber hinaus einen Beitrag zur Steigerung der Effizienz in der humanitären Logistik durch die fallspezifische Betrachtung von horizontalen Kooperationen und Professionalisierung der Hilfeleistung im Bereich der humanitären Luftfahrt.
www.BrAnD2. Wille.
(2016)
2014 fand der Potsdamer Lateintag zum 10. Mal statt. Das Jubiläum war ein angemessener Anlass, unser neues Projekt vorzustellen. Die Robert Bosch-Stiftung fördert wieder für drei Jahre die Zusammenarbeit der Klassischen Philologie der Universität Potsdam mit Schulen aus Brandenburg. Der Titel lautet: www.BrAnD2. Wille. Würde. Wissen. Zweites Brandenburger Antike-Denkwerk. Zur Auftaktveranstaltung zum Thema „Wille“ erschienen wieder über 500 Teilnehmerinnen und Teilnehmer. Der Band versammelt einen Projektbericht, die Vorträge von Frau Prof. Dr. Christiane Kunst und Herrn Prof. Dr. Christoph Horn sowie eine Auswahl an Materialen der betreuenden Studierenden.
Software-Fehlerinjektion
(2016)
Fehlerinjektion ist ein essentielles Werkzeug, um die Fehlertoleranz komplexer Softwaresysteme experimentell zu evaluieren.
Wir berichten über das Seminar zum Thema Software-Fehlerinjektion, das am Fachgebiet für Betriebssysteme und Middleware am Hasso-Plattner-Institut der Universität Potsdam im Sommersemester 2015 stattfand.
In dem Seminar ging es darum, verschiedene Fehlerinjektionsansätze und -werkzeuge anzuwenden und hinsichtlich ihrer Anwendbarkeit in verschiedenen Szenarien zu bewerten.
In diesem Bericht werden die studierten Ansätze vorgestellt und verglichen.
Der deutsche Zeitungsmarkt ist von einem breiten Angebot überregionaler Tageszeitungen gekennzeichnet, denen innerhalb der Bevölkerung unterschiedliche politische Ausrichtungen zugeschrieben werden. Als konservatives Blatt gilt die „Frankfurter Allgemeine Zeitung“ (F.A.Z.), wohingegen sich die „taz.die tageszeitung“ (taz) durch eine linksalternative Orientierung auszeichnet. Ausgehend von diesem Unterschied untersucht die Arbeit die sprachliche Gestaltung der Überschriften, Unter- und Zwischenzeilen der F.A.Z. und der taz zu den Themen „Alternative für Deutschland“ (AfD), „Nationalsozialistischer Untergrund“ (NSU) und „Front National“ (FN). Die qualitativ-quantitative Korpusuntersuchung fokussiert neben lexikalischen und syntaktischen auch sprachstilistische Faktoren, die eine Stellungnahme zu der Forschungsthese, dass mit der sprachlichen Formulierung der Haupt-, Unter- und Zwischenzeilen die politische Ausrichtung und ideologische Grundhaltung der Zeitungen deutlich wird, erlauben. Die Grundlage für die Analysen bildet ein konstruktivistischer Ansatz, der auf systemtheoretischen Annahmen beruht. Dadurch kann zum einen gezeigt werden, wie sich die Ergebnisse der sprachlichen Analysen mit den unterschiedlichen zugrunde liegenden Wirklichkeitskonstruktionen der Zeitungen verbinden lassen, zum anderen wird deutlich, dass sich die Formulierung der Überschriften auch auf die individuelle Realitätskonstruktion der Rezipienten auswirkt. Die vergleichenden Auswertungen geben unterschiedlich gewichtete Hinweise auf die Einstellung der Kommunikatoren und bestätigen, dass die jeweiligen Perspektivierungen der Wirklichkeit sowie ideologischen Grundhaltungen der F.A.Z. und der taz bereits in der sprachlichen Gestaltung ihrer Titelkomplexe deutlich werden.
Seit Mitte der 2000er Jahre richtet sich angesichts der starken Schülerzahlenrückgänge die wissenschaftliche und bildungspolitische Aufmerksamkeit wieder stärker auf Fragen der Gestaltung beruflicher Bildung in ländlich-peripheren Räumen. Einerseits knüpft sich an die demografische Entwicklung die Erwartung einer Entspannung der lange Zeit sehr prekären Ausbildungsplatzsituation in diesen Räumen. Andererseits ist offen, inwiefern mit den Anpassungsprozessen die Ausbildung neuer räumlichen Disparitäten verbunden ist, etwa durch die Schließung von Berufsschulen. Die Arbeit setzt sich mit der aktuellen Situation und dem Umgang mit Berufsschulen unter den folgenden Fragestellungen auseinander: Wie kann in Regionen mit dünner Besiedlung auf der einen und einer schwierigen regionalökonomischen Situation auf der anderen Seite diese komplexe Infrastruktur betrieben werden? Welche Steuerungsinstrumente kommen in dem anstehenden Rückbauprozess zum Tragen und welche Rolle spielen demographische Entwicklungen, strukturelle Faktoren und Akteurshandeln? Ein besonderer Fokus liegt auf der theoretischen und empirischen Verknüpfung von raumspezifischen Fragestellungen mit der Komplexität von Berufsschulen als ausdifferenzierte Institutionen zwischen Schulsystem und Wirtschaft.
Untersucht wurde die Entwicklung des brandenburgischen Berufsschulnetzes ab den 1990er Jahren mit einer vertieften Fallstudie im Landkreis Uckermark. Entgegen der Annahme eines starken Einbruchs der Infrastrukturversorgung in Folge des Schülerzahlenrückganges wird gezeigt, dass sich die brandenburgische Berufsschullandschaft seit den 2000er Jahren durch eine relative Stabilität auszeichnet. Allerdings erfolgte eine berufsspezifische Ausdünnung des Angebotes. Im Jahr 2013 fanden nur 41% aller Auszubilden in ihrem jeweiligen Ausbildungsberuf ein relativ flächendeckendes Berufsschulnetz vor. Als Faktoren für gelingende Steuerungsprozesse (in ländlich-peripheren Räumen) zeigten sich das Subsidaritätsprinzip, ein gemeinsam geteiltes Professionsverständnis sowie die Orientierung auf einen gewissen räumlichen Ausgleich. Erfolgreiche Interventionen gegen Konzentration basierten maßgeblich auf einem ausgeprägten, fachlichen „Selbstbewusstsein“ und Anspruch von Bildungsorganisationen. Demgegenüber konnten unspezifische Bezugnahmen auf Peripherisierungen keine handlungswirksamen Strategien entfalten. Teilentwicklungen im Schulberufssystem sind durch die Expansion privater Berufsschulen in einen ausgeprägten institutionellen Wandel eingebettet. Die Infrastrukturentwicklung führte in diesem Segment zur Ausbildung eines spezifischen Marktes, der teilweise nur begrenzt einem klassischen Angebots-Nachfrage-Modell folgt und potentiell zu Überausbildung führt.
Die vorgefundenen Steuerungsformen sind angesichts von Ressourcenmangel, der sektoralen Zersplitterung sowie des Mangels an Institutionen für die Ausbildung von Regionen als Handlungsräume in der Berufsausbildung ambivalent. Der demografische Diskurs führte (bisher) nicht zur Ausbildung von Steuerungsformen, welche die in der Infrastrukturgestaltung dominierenden, sektoralen Zuständigkeiten „überwinden“. Daher fungiert der Diskurs teilweise nur begrenzt als eine neue Orientierung für die Ausbildung von „peripheriespezifischen“ Infrastrukturstrategien und alternativen Steuerungsmodellen. Er kann dann neue, über klassische Anpassungsprozesse hinausgehende, Optionen generieren, wenn er sich stärker auf die Bedarfe der Akteure und Adressaten von Berufsbildung im ländlichen Raum bezieht und enger mit den Fachdiskursen verbindet.
Effektivität frühzeitiger Interventionen zur Prävention von Lese- und Rechtschreibschwierigkeiten
(2016)
Die vorliegende Studie beschäftigt sich mit der Förderung der Lese- und Schreibkompetenz in der Anfangsphase des Schriftspracherwerbs. Ziel der Untersuchung ist die Erprobung und Evaluierung frühzeitiger, diagnosegeleiteter Interventionen zur Prävention von Lese- und Rechtschreibschwierigkeiten. Im Unterschied zu vielen Studien in diesem Bereich werden alle Maßnahmen unter realen schulischen Bedingungen im Rahmen des Erstlese- und Schreibunterrichts durch die Klassenlehrer selbst durchgeführt, wobei diese von der Autorin unterstützt und begleitet werden. Förder- und Prozessdiagnose sowie Elemente diagnosegeleiteter Förderung werden aus Theorien und Forschungslage abgeleitet und zu einem Interventionsset verbunden. Die Effektivität der evidenzbasierten Maßnahmen wird durch Parallelgruppenvergleiche überprüft.
An der empirischen Untersuchung nahmen insgesamt 25 Schulklassen mit 560 Erstklässlern teil, geteilt in Versuchs- und Kontrollgruppe. Mit der Eingangsdiagnose am Schulbeginn wurden Voraussetzungen für den Schriftspracherwerb erhoben und mit der Evaluierungsdiagnose am Ende der ersten Schulstufe entwicklungsadäquate schriftsprachliche Kompetenzen auf der Wortebene überprüft. Zusätzlich erfasst wurden internale und externale Einflussfaktoren, deren Wirkung in der statistischen Auswertung berücksichtigt wurde. Alle Datenerhebungen wurden in Versuchs- und Kontrollgruppe durchgeführt, während die evidenzbasierten Treatments nur in der Versuchsgruppe stattfanden.
Die Auswertung bestätigt mit signifikanten Ergebnissen den engen Zusammenhang zwischen der Phonologischen Bewusstheit zu Beginn des Schriftspracherwerbs und der Lese- und Rechtschreibfähigkeit am Ende der ersten Schulstufe sowie zwischen Familiärer Literalität und Lesefertigkeit. Schriftsprachliche Vorkenntnisse weisen eine Tendenz zur Signifikanz hinsichtlich ihrer positiven Wirkung auf die Basale Lesefertigkeit auf. Eine höchst signifikante positive Wirkung auf die Basale Lesefertigkeit zeigt die Druckschrift als Ausgangsschrift.
Die Ergebnisse deuten auf eine Überlegenheit vorschulischer präliteraler Fertigkeiten hinsichtlich ihrer Wirkung auf die Lese- und Rechtschreibfertigkeit am Ende der ersten Schulstufe gegenüber Fördermaßnahmen unter realen schulischen Bedingungen hin. Die positive Wirkung einer unverbundenen Ausgangsschrift auf den Leseerwerb betont die Wichtigkeit der Wahl der Ausgangsschrift. Im frühen Schriftspracherwerb sollte die Druckschrift für das Lesen und Schreiben verwendet werden.
„Vajanie iz vremeni“
(2016)
Die Museumsbesucher
(2016)
Erneuertes Gestern?
(2016)
Tarkovskijs Scham
(2016)
Der Jüdische Friedhof in Potsdam ist der einzige authentische Gedächtnisort, der vom Lebenszyklus der jüdischen Bevölkerung in der ehemaligen preußischen Residenz- und Garnisonstadt zeugt. Er ist zudem Ausdruck des unterschiedlichen Umgangs der Nachgeborenen mit ihrem Kulturgut. Außerdem ist dieser Jüdische Friedhof zurzeit als einziger in Deutschland durch die UNESCO als Welterbe anerkannt.
Da die jüdische Geschichte Potsdams bislang nur wenig bekannt ist, entstand ein durch die Stiftung „Erinnerung, Verantwortung und Zukunft“ gefördertes Projekt, in dem sich Schüler*innen des Potsdamer Humboldt-Gymnasiums im Rahmen eines Seminarkurses mit dem jüdischen Erbe ihrer Stadt intensiv auseinandersetzten. Neben einer Annäherung an das Thema über verschiedene, den Friedhof betreffende Sachthemen beschäftigten sich die Jugendlichen mit einzelnen jüdischen Potsdamern, ihren Familienschicksalen und Lebenskonzepten. Ergänzend wurden Aspekte des religiösen Verständnisses von Tod und Trauer im Judentum vorgestellt.
Die Ergebnisse all dieser Ausarbeitungen sind im vorliegenden Lehrmaterial vereinigt und dienen als Anregung für Lehrende und Lernende, die jüdische Geschichte ihrer jeweiligen Heimatorte zu thematisieren.
Die vorliegende Modularbeit vergleicht die Häufigkeit des Imperativs auf Plakaten der Berliner Abgeordnetenhauswahl 2016 mit der auf den Plakaten der Weimarer Republik. Sie geht dabei der These nach, dass diese Häufigkeit abgenommen hat und kann diese bestätigen: 2016 tritt der Imperativ achtmal seltener (5,7 % zu 45,7 %) auf. Zusätzlich leistet die Arbeit einen Überblick zum Imperativ und weiteren Möglichkeiten, mittels der deutschen Sprache eine Aufforderung zu artikulieren.
Für die Untersuchung wurden zwei Untersuchungskorpora herangezogen, wovon der Korpus mit den Slogans zur Abgeordnetenhauswahl extra für diese Arbeit erstellt wurde und ihr auch beiliegt. In diesem, wie im Korpus zur Weimarer Republik, sind alle die Slogans enthalten und die verwendeten Imperative ausgezählt. So bietet sich ein Einblick in die politische Werbesprache der beiden Zeiten.
Die Elbe und ihr Einzugsgebiet sind vom Klimawandel betroffen. Um die Wirkkette von projizierten Klimaveränderungen auf den Wasserhaushalt und die daraus resultierenden Nährstoffeinträge und -frachten für große Einzugsgebiete wie das der Elbe zu analysieren, können integrierte Umweltmodellsysteme eingesetzt werden. Fallstudien, die mit diesen Modellsystemen ad hoc durchgeführt werden, repräsentieren den Istzustand von Modellentwicklungen und -unsicherheiten und sind damit statisch.
Diese Arbeit beschreibt den Einstieg in die Dynamisierung von Klimafolgenanalysen im Elbegebiet. Dies umfasst zum einen eine Plausibilitätsprüfung von Auswirkungsrechnungen, die mit Szenarien des statistischen Szenariengenerators STARS durchgeführt wurden, durch den Vergleich mit den Auswirkungen neuerer Klimaszenarien aus dem ISI-MIP Projekt, die dem letzten Stand der Klimamodellierung entsprechen. Hierfür wird ein integriertes Modellsystem mit "eingefrorenem Entwicklungsstand" verwendet. Die Klimawirkungsmodelle bleiben dabei unverändert. Zum anderen wird ein Bestandteil des integrierten Modellsystems – das ökohydrologische Modell SWIM – zu einer "live"-Version weiterentwickelt. Diese wird durch punktuelle Testung an langjährigen Versuchsreihen eines Lysimeterstandorts sowie an aktuellen Abflussreihen validiert und verbessert.
Folgende Forschungsfragen werden bearbeitet: (i) Welche Effekte haben unterschiedliche Klimaszenarien auf den Wasserhaushalt im Elbegebiet und ist eine Neubewertung der Auswirkung des Klimawandels auf den Wasserhaushalt notwendig?, (ii) Was sind die Auswirkungen des Klimawandels auf die Nährstoffeinträge und -frachten im Elbegebiet sowie die Wirksamkeit von Maßnahmen zur Reduktion der Nährstoffeinträge?, (iii) Ist unter der Nutzung (selbst einer sehr geringen Anzahl) verfügbarer tagesaktueller Witterungsdaten in einem stark heterogenen Einzugsgebiet eine valide Ansprache der aktuellen ökohydrologischen Situation des Elbeeinzugsgebiets möglich?
Die aktuellen Szenarien bestätigen die Richtung, jedoch nicht das Ausmaß der Klimafolgen: Die Rückgänge des mittleren jährlichen Gesamtabflusses und der monatlichen Abflüsse an den Pegeln bis Mitte des Jahrhunderts betragen für das STARS-Szenario ca. 30 %. Die Rückgänge bei den auf dem ISI-MIP-Szenario basierenden Modellstudien liegen hingegen nur bei ca. 10 %. Hauptursachen für diese Divergenz sind die Unterschiede in den Niederschlagsprojektionen sowie die Unterschiede in der jahreszeitlichen Verteilung der Erwärmung. Im STARS-Szenario gehen methodisch bedingt die Niederschläge zurück und der Winter erwärmt sich stärker als der Sommer. In dem ISI-MIP-Szenario bleiben die Niederschläge nahezu stabil und die Erwärmung im Sommer und Winter unterscheidet sich nur geringfügig.
Generell nehmen die Nährstoffeinträge und -frachten mit den Abflüssen in beiden Szenarien unterproportional ab, wobei die Frachten jeweils stärker als die Einträge zurückgehen. Die konkreten Effekte der Abflussänderungen sind gering und liegen im einstelligen Prozentbereich. Gleiches gilt für die Unterschiede zwischen den Szenarien. Der Effekt von zwei ausgewählten Maßnahmen zur Reduktion der Nährstoffeinträge und -frachten unterscheidet sich bei verschiedenen Abflussverhältnissen, repräsentiert durch unterschiedliche Klimaszenarien in unterschiedlich feuchter Ausprägung, ebenfalls nur geringfügig.
Die Beantwortung der ersten beiden Forschungsfragen zeigt, dass die Aktualisierung von Klimaszenarien in einem ansonsten "eingefrorenen" Verbund von ökohydrologischen Daten und Modellen eine wichtige Prüfoption für die Plausibilisierung von Klimafolgenanalysen darstellt. Sie bildet die methodische Grundlage für die Schlussfolgerung, dass bei der Wassermenge eine Neubewertung der Klimafolgen notwendig ist, während dies bei den Nährstoffeinträgen und -frachten nicht der Fall ist.
Die zur Beantwortung der dritten Forschungsfrage mit SWIM-live durchgeführten Validierungsstudien ergeben Diskrepanzen am Lysimeterstandort und bei den Abflüssen aus den Teilgebieten Saale und Spree. Sie lassen sich zum Teil mit der notwendigen Interpolationsweite der Witterungsdaten und dem Einfluss von Wasserbewirtschaftungsmaßnahmen erklären. Insgesamt zeigen die Validierungsergebnisse, dass schon die Pilotversion von SWIM-live für eine ökohydrologische Ansprache des Gebietswasserhaushaltes im Elbeeinzugsgebiet genutzt werden kann. SWIM-live ermöglicht eine unmittelbare Betrachtung und Beurteilung simulierter Daten. Dadurch werden Unsicherheiten bei der Modellierung direkt offengelegt und können infolge dessen reduziert werden. Zum einen führte die Verdichtung der meteorologischen Eingangsdaten durch die Verwendung von nun ca. 700 anstatt 19 Klima- bzw. Niederschlagstationen zu einer Verbesserung der Ergebnisse. Zum anderen wurde SWIM-live beispielhaft für einen Zyklus aus punktueller Modellverbesserung und flächiger Überprüfung der Simulationsergebnisse genutzt.
Die einzelnen Teilarbeiten tragen jeweils zur Dynamisierung von Klimafolgenanalysen im Elbegebiet bei. Der Anlass hierfür war durch die fehlerhaften methodischen Grundlagen von STARS gegeben. Die Sinnfälligkeit der Dynamisierung ist jedoch nicht an diesen konkreten Anlass gebunden, sondern beruht auf der grundlegenden Einsicht, dass Ad-hoc-Szenarienanalysen immer auch pragmatische Vereinfachungen zugrunde liegen, die fortlaufend überprüft werden müssen.
Ein Blick zurück
(2016)
1 Einleitung, 2 Die Entstehung des organisierten Turnens in Deutschland, 3 Vom Turnen zum Sport, 4 Friedrich Ludwig Jahn und die Herausbildung der deutschen Turnersprache, 5 Sportsprache in der Zeit des Nationalsozialismus, 6 Didaktische Anregungen, 7 Materialien und Diskussionsanregungen, 8 Literatur
Mit Korbmachern zum Sieg
(2016)
1 Hinführung und Zielstellung, 2 Angestrebte Ergebnisse der Entwicklung lexikalischer Kompetenz - vernetzt mit der Entwicklung von Lese-/Textverstehenskompetenz, 3 Arbeit am Wortschatz und Textverstehen - Textanalyse als das Erschließen eines Feldes von Möglichkeiten, 4 Die Tätigkeit des Schülers optimal in Gang setzen - handlungs-regulierende Aufgaben stellen, 5 Literatur
Rezensiertes Werk:
Anne-Katrin Henkel / Thomas Rahe (Hrsg.): Publizistik in jüdischen Displaced-Persons-Camps. Charakteristika, Medien und bibliothekarische Überlieferung, Zeitschrift für Bibliothekswesen und Bibliographie. Sonderbände, Bd. 112, Frankfurt am Main: Vittorio Klostermann Verlag 2014. 194 S.
Rezensiertes Werk:
Naphtali Herz Wessely: Worte des Friedens und der Wahrheit. Dokumente einer Kontroverse über Erziehung in der europäischen Spätaufklärung. Herausgegeben, eingeleitet und kommentiert von Ingrid Lohmann, mitherausgegeben von Rainer Wenzel / Uta Lohmann. Aus dem Hebräischen übersetzt und mit Anmerkungen versehen von Rainer Wenzel, Jüdische Bildungsgeschichte in Deutschland, Bd. 8, Münster: Waxmann 2014. 800 S.
Duldung und Diskriminierung
(2016)
Die Worte „entjuden“ und „Entjudung“ sind sprachlicher Ausdruck zumeist judenfeindlicher Haltungen und Taten in der deutschen Geschichte. Der Beitrag zeichnet die Entwicklung des Begriffs anhand seiner Verwendungszusammenhänge nach. Im Kontext der Assimilation des beginnenden 19. Jahrhunderts meinte der Terminus, dass man sich jener jüdischen „Eigenheit“ zu entkleiden habe, welche als Postulat gemeinhin Konsens war. Innerhalb der innerjüdischen Diskussion wird „Entjudung“ zu Beginn des 20. Jahrhunderts zum diagnostischen Ausdruck des Identitätsverlustes. Als politischer Kampfbegriff der Nationalsozialisten ist er wiederum zum Synonym für die Entrechtung und Vernichtung jüdischer Menschen geworden. Protestantische Theologen verwendeten diesen Begriff in der Debatte um die Erneuerung des Christentums, was durch die Entfernung jüdischer Einflüsse geschehen sollte. Bereits Ende des 18. Jahrhunderts formuliert, findet diese Forderung in der 1939 erfolgten Gründung des Instituts zur Erforschung und Beseitigung des jüdischen Einflusses auf das deutsche kirchliche Leben seine programmatische Umsetzung.
In diesem Artikel wird ein vergleichender Einblick in die jüdische Responsen Literatur und in die muslimische Fatwa-Literatur gegeben und herausgearbeitet, welche Fragen sich für weiterführende Studien ergeben. Beide Religionen haben ein normatives Bezugssystem (halacha und fiqh), das sich auf alle Bereiche des Lebens erstreckt. Die klassische Position beider Religionen sieht in der Ausübung dieser Normen den authentischsten Weg, Gottes Willen näherzukommen. Nach traditioneller Auffassung benötigen religiöse Menschen dabei eine permanente Supervision durch vertrauenswürdige Gelehrte, die sie bei Bedarf um Rat bitten können. Die große Zahl der Fragen, die Gelehrten – über das Internet, den Briefverkehr oder das Telefon – gestellt werden, zeigt einen auch in der Gegenwart ungebrochenen Bedarf an fachkundigen Auskünften im Bereich religiöser Normen. Im vorliegenden Artikel sollen die Grundzüge dieses Prozesses religiöser Rechtsauskünfte im Judentum und Islam vergleichend dargestellt werden. Dabei können an dieser Stelle nur die bedeutendsten Momente festgehalten und auf Gemeinsamkeiten und Unterschiede hin betrachtet werden. Als Methode dient die historische Analyse, bei der die Fatwa- und die Responsen-Literatur in ihrer klassischen Form und in Grundzügen dargestellt wird, so wie sie sich vom 7. bis ins 19. Jahrhundert gezeigt hat.
Im vorliegenden Beitrag werden einige zentrale Berichte und Motive aus den frühen Quellen des Islam über die militärischen Konflikte des Propheten Muhammad mit den
Juden von Medina beleuchtet. Als Grundlage der Untersuchung dient die Prophetenbiografie des Gelehrten Muḥammad ibn Isḥāq (gest. 150 nach der Hedschra), die auch heute noch maßgeblich ist. Im Beitrag wird unter anderem aufgezeigt, dass es sowohl innerhalb der Gattung der Sīra-Literatur, der Ibn Isḥāqs Werk angehört, als auch in den frühen Traditionen der islamischen Rechtswissenschaft, der Koranexegese sowie im Korantext selbst zahlreiche Hinweise auf alternative Darstellungen dieser Konflikte gibt. Diese gerieten in den ersten Jahrhunderten des Islam infolge des Siegeszuges von Ibn Isḥāqs Werk zunehmend aus dem Blickfeld, sind aber für zeitgenössische Diskurse um das Verhältnis des Islam zu Nichtmuslimen durchaus von Interesse. Ziel der Untersuchung ist es die normative Aussagekraft der unterschiedlichen Szenarien für Grundsatzfragen insbesondere für das Verhältnis zwischen Muslimen und Juden herauszuarbeiten. Einen inhaltlichen Schwerpunkt im Beitrag bilden dabei unterschiedliche Zugänge zum berühmten Bericht über die Vernichtung des jüdischen Stammes der Banū Qurayza im Anschluss an die Grabenschlacht.
Die Rezeption des Propheten Jona im Koran setzt dessen biblischen Narrativ im Wesentlichen voraus und deutet diesen vor allem dort aus, wo man um eine Korrektur seines Prophetenbildes bemüht ist. Im Fokus stehen dabei die Buße, Umkehr und Erlösung Yūnus’ und seines Volkes. Nachkoranische Prophetenerzählungen (qisas alanbiyā’) füllen die narrativen Leerstellen der ‚Jona-Suren‘ wiederum mit erklärendem Erzählmaterial auf und schöpfen dafür auch aus dem umfangreichen Fundus biblischer und rabbinischer Traditionen, die sie sich im äußeren Rahmen der koranischen Yūnus Überlieferung schöpferisch zu eigen machen. So entstehen Erzählkompositionen, die sich als dialogische Auseinandersetzung mit religiösen Themen von gemeinsamer Relevanz lesen lassen. Der Artikel reflektiert gezielt Entwicklung und Verhältnis der Rezeptionen Jonas im Koran sowie in den Prophetenerzählungen von Ibn-Muhammad at-Ta‛labī und Muhammad ibn ‛Abd Allāh al-Kisā’i, in stetiger Auseinandersetzung mit der jüdischen Jona-Tradition.
PaRDeS. Zeitschrift der Vereinigung für Jüdische Studien e.V., möchte die fruchtbare und facettenreiche Kultur des Judentums sowie seine Berührungspunkte zur Umwelt in den unterschiedlichen Bereichen dokumentieren. Daneben dient die Zeitschrift als Forum zur Positionierung der Fächer Jüdische Studien und Judaistik innerhalb des wissenschaftlichen Diskurses sowie zur Diskussion ihrer historischen und gesellschaftlichen Verantwortung.
Ein Deutschunterricht, der die Alltags- und Medienkultur der Schüler und Schülerinnen ernst nimmt, darf Sporttexte nicht unberücksichtigt lassen. Zu sehr ist der Sport in all seinen Facetten Teil der Lebenswelt vieler Schülerinnen und Schüler geworden. Die Frage ist nicht mehr, ob der Deutschunterricht darauf zu reagieren hat, die Frage ist vielmehr, wie er dies tun und welche Sporttexte er dabei nutzen kann.
Auch wenn die Suche nach sinnvollen Bezügen zwischen Sport und Deutschunterricht schon seit längerem intensiv betrieben wird, offenbart das vielschichtige Kulturphänomen „Sport“ immer wieder neue interessante Seiten, die es lohnen, fachdidaktisch behandelt zu werden.
Die zehn Beiträge in diesem Band verstehen sich als Unterrichtsanregungen für den kompetenzorientierten Deutschunterricht. Sie bedienen Betrachtungen zum Sport aus literarischer, sprachlicher und medialer Perspektive. Die theoretisch-begrifflichen Aspekte der jeweiligen Themen werden soweit behandelt, wie sie für das Verständnis erforderlich sind. Im Zentrum vieler Beiträge stehen Unterrichtsszenarien mit kommentierten Texten und Aufgaben, die für die Unterrichtsvorbereitung oder für den Unterricht selbst genutzt werden können.
Für alle Organismen ist die Aufrechterhaltung ihres energetischen Gleichgewichts unter fluktuierenden Umweltbedingungen lebensnotwendig. In Eukaryoten steuern evolutionär konservierte Proteinkinasen, die in Pflanzen als SNF1-RELATED PROTEIN KINASE1 (SnRK1) bezeichnet werden, die Adaption an Stresssignale aus der Umwelt und an die Limitierung von Nährstoffen und zellulärer Energie. Die Aktivierung von SnRK1 bedingt eine umfangreiche transkriptionelle Umprogrammierung, die allgemein zu einer Repression energiekonsumierender Prozesse wie beispielsweise Zellteilung und Proteinbiosynthese und zu einer Induktion energieerzeugender, katabolischer Stoffwechselwege führt. Wie unterschiedliche Signale zu einer generellen sowie teilweise gewebe- und stressspezifischen SnRK1-vermittelten Antwort führen ist bisher noch nicht ausreichend geklärt, auch weil bislang nur wenige Komponenten der SnRK1-Signaltransduktion identifiziert wurden. In dieser Arbeit konnte ein Protein-Protein-Interaktionsnetzwerk um die SnRK1αUntereinheiten aus Arabidopsis AKIN10/AKIN11 etabliert werden. Dadurch wurden zunächst Mitglieder der pflanzenspezifischen DUF581-Proteinfamilie als Interaktionspartner der SnRK1α-Untereinheiten identifiziert. Diese Proteine sind über ihre konservierte DUF581Domäne, in der ein Zinkfinger-Motiv lokalisiert ist, fähig mit AKIN10/AKIN11 zu interagieren. In planta Ko-Expressionsanalysen zeigten, dass die DUF581-Proteine eine Verschiebung der nucleo-cytoplasmatischen Lokalisierung von AKIN10 hin zu einer nahezu ausschließlichen zellkernspezifischen Lokalisierung begünstigen sowie die Ko-Lokalisierung von AKIN10 und DUF581-Proteinen im Nucleus. In Bimolekularen Fluoreszenzkomplementations-Analysen konnte die zellkernspezifische Interaktion von DUF581-Proteinen mit SnRK1α-Untereinheiten in planta bestätigt werden. Außerhalb der DUF581-Domäne weisen die Proteine einander keine große Sequenzähnlichkeit auf. Aufgrund ihrer Fähigkeit mit SnRK1 zu interagieren, dem Fehlen von SnRK1Phosphorylierungsmotiven sowie ihrer untereinander sehr variabler gewebs-, entwicklungs- und stimulusspezifischer Expression wurde für DUF581-Proteine eine Funktion als Adaptoren postuliert, die unter bestimmten physiologischen Bedingungen spezifische Substratproteine in den SnRK1-Komplex rekrutieren. Auf diese Weise könnten DUF581Proteine die Interaktion von SnRK1 mit deren Zielproteinen modifizieren und eine Feinjustierung der SnRK1-Signalweiterleitung ermöglichen. Durch weiterführende Interaktionsstudien konnten DUF581-interagierende Proteine darunter Transkriptionsfaktoren, Proteinkinasen sowie regulatorische Proteine gefunden werden, die teilweise ebenfalls Wechselwirkungen mit SnRK1α-Untereinheiten aufzeigten. Im Rahmen dieser Arbeit wurde eines dieser Proteine für das eine Beteiligung an der SnRK1Signalweiterleitung als Transkriptionsregulator vermutet wurde näher charakterisiert. STKR1 (STOREKEEPER RELATED 1), ein spezifischer Interaktionspartner von DUF581-18, gehört zu einer pflanzenspezifischen Leucin-Zipper-Transkriptionsfaktorfamilie und interagiert in Hefe sowie in planta mit SnRK1. Die zellkernspezifische Interaktion von STKR1 und AKIN10 in Pflanzen unterstützt die Vermutung der kooperativen Regulation von Zielgenen. Weiterhin stabilisierte die Anwesenheit von AKIN10 die Proteingehalte von STKR1, das wahrscheinlich über das 26S Proteasom abgebaut wird. Da es sich bei STKR1 um ein Phosphoprotein mit SnRK1-Phosphorylierungsmotiv handelt, stellt es sehr wahrscheinlich ein SnRK1-Substrat dar. Allerdings konnte eine SnRK1-vermittelte Phosphorylierung von STKR1 in dieser Arbeit nicht gezeigt werden. Der Verlust von einer Phosphorylierungsstelle beeinflusste die Homo- und Heterodimerisierungsfähigkeit von STKR1 in Hefeinteraktionsstudien, wodurch eine erhöhte Spezifität der Zielgenregulation ermöglicht werden könnte. Außerdem wurden Arabidopsis-Pflanzen mit einer veränderten STKR1-Expression phänotypisch, physiologisch und molekularbiologisch charakterisiert. Während der Verlust der STKR1-Expression zu Pflanzen führte, die sich kaum von Wildtyp-Pflanzen unterschieden, bedingte die konstitutive Überexpression von STKR1 ein stark vermindertes Pflanzenwachstum sowie Entwicklungsverzögerungen hinsichtlich der Blühinduktion und Seneszenz ähnlich wie sie auch bei SnRK1α-Überexpression beschrieben wurden. Pflanzen dieser Linien waren nicht in der Lage Anthocyane zu akkumulieren und enthielten geringere Gehalte an Chlorophyll und Carotinoiden. Neben einem erhöhten nächtlichen Stärkeumsatz waren die Pflanzen durch geringere Saccharosegehalte im Vergleich zum Wildtyp gekennzeichnet. Eine Transkriptomanalyse ergab, dass in den STKR1-überexprimierenden Pflanzen unter Energiemangelbedingungen, hervorgerufen durch eine verlängerte Dunkelphase, eine größere Anzahl an Genen im Vergleich zum Wildtyp differentiell reguliert war als während der Lichtphase. Dies spricht für eine Beteiligung von STKR1 an Prozessen, die während der verlängerten Dunkelphase aktiv sind. Ein solcher ist beispielsweise die SnRK1-Signaltransduktion, die unter energetischem Stress aktiviert wird. Die STKR1Überexpression führte zudem zu einer verstärkten transkriptionellen Induktion von Abwehrassoziierten Genen sowie NAC- und WRKY-Transkriptionsfaktoren nach verlängerter Dunkelphase. Die Transkriptomdaten deuteten auf eine stimulusunabhängige Induktion von Abwehrprozessen hin und konnten eine Erklärung für die phänotypischen und physiologischen Auffälligkeiten der STKR1-Überexprimierer liefern.
Vom 18. bis 20. September 2014 versammelten sich an der Universität Potsdam kultur- und filmwissenschaftlich arbeitende Wissenschaftler zu einem Andrej Tarkovskij gewidmeten Symposium, dem ersten internationalen. Die 25 Teilnehmer kamen nämlich aus neun Ländern. Dadurch, dass nicht wenige auch eine – wie man heute sagt – „Migrationsbiographie“ haben, potenzierte sich die durch die jeweils unterschiedliche Herkunft bedingte Multiperspektivik, zu der jedoch der Modus der Wissenschaftlichkeit ein deutlich relativierendes Korrektiv bildet. Der vorliegende Band enthält im Wesentlichen die dort vorgestellten Beiträge, aber auch die der Fachleute, die nicht persönlich hatten nach Potsdam kommen können.
Spielend Lernen
(2016)