Refine
Has Fulltext
- yes (2929) (remove)
Year of publication
Document Type
- Doctoral Thesis (710)
- Article (689)
- Monograph/Edited Volume (599)
- Part of Periodical (279)
- Master's Thesis (171)
- Postprint (170)
- Review (72)
- Working Paper (69)
- Bachelor Thesis (39)
- Conference Proceeding (36)
Language
- German (2929) (remove)
Is part of the Bibliography
- yes (2929) (remove)
Keywords
- Patholinguistik (34)
- patholinguistics (34)
- Sprachtherapie (33)
- Nachhaltigkeit (32)
- Genisa (25)
- Geniza (25)
- Jüdische Studien (25)
- Deutschland (23)
- geistige Behinderung (20)
- mental deficiency (20)
Institute
- MenschenRechtsZentrum (375)
- Wirtschaftswissenschaften (256)
- Institut für Biochemie und Biologie (141)
- Sozialwissenschaften (134)
- Extern (129)
- Zentrum für Lehrerbildung und Bildungsforschung (ZeLB) (125)
- Department Erziehungswissenschaft (120)
- Institut für Umweltwissenschaften und Geographie (118)
- Institut für Chemie (112)
- Referat für Presse- und Öffentlichkeitsarbeit (107)
Die vorliegende Festschrift wird Frau Prof. Gabrielle Saupe anlässlich ihrer Verabschiedung aus dem Institut für Geographie der Universität Potsdam gewidmet. Bewegende Räume - damit sind emotionale, materielle und strukturelle Bewegungen in einem räumlichen Kontext gemeint. Die Vieldeutigkeit des Titels impliziert die Vielfalt der wissenschaftlichen Auseinandersetzung mit dem Raum. Ein illustres Autorenkollektiv deutscher Raumwissenschaftler verdeutlicht anhand von verschiedenen zum Teil essayartigen Artikeln sein Verständnis von Raum. Die interdisziplinäre Konzeption des Heftes soll das ständige Bemühen von Frau Saupe verdeutlichen, verschiedene Perspektiven, Herangehensweisen und Fachdisziplinen zur Bewältigung der Forschungsaufgaben zusammenzuführen. Hierbei sind die wichtigsten Forschungsprojekte von Frau Saupe ebenso vertreten wie einige der von ihr betreuten Qualifikationsarbeiten. Die Beiträge reichen von der Landschafts- bzw. Geoökologie bis zum Fußball und der Musik. Sie spannen einen Bogen von der Geographie als Regionalwissenschaft zu modernen stadtsoziologischen Fragestellungen, stellen Ergebnisse neuerer Forschungsprojekte vor und widmen sich der Entwicklung von nahen und fernen Räumen aus verschiedenen Perspektiven.
In den vergangenen Jahren hat sich die Politikdidaktik zunehmend mit dem Einsatz von Narrationen im Politikunterricht beschäftigt, denn neben Sachtexten bietet auch die Belletristik die Möglichkeit, sich mit politischen Themen auseinanderzusetzen. Insbesondere die Literatur von Ferdinand von Schirach hat in den letzten Jahren zunehmend Anklang in der Gesellschaft gefunden. Von Schirachs Texte greifen gesellschaftskritische Themen auf, beleuchten diese aus verschiedenen Perspektiven und fordern zur Meinungsbildung heraus. Aus diesem Grund weisen von Schirachs Narrationen ein hohes Potential für die Politische Bildung auf. Politische Bildung schließt auch die Rechterziehung ein. Der Fall Collini von Ferdinand von Schirach setzt sich sowohl mit rechtlichen, als auch mit politischen Themen im Sinne der Rechtserziehung auseinander. In der vorliegenden Masterarbeit wird der Frage nachgegangen, inwieweit der Roman Der Fall Collini von Ferdinand von Schirach als Narration eine Chance für politisch-rechtliches Lernen im Politikunterricht darstellt. Um die Forschungsfrage zu beantworten, werden die Lernchancen und -grenzen des Romans hinsichtlich seiner Thematik und seines Genres, sowie durch den Roman geförderten Kompetenzen herausgearbeitet und die durch ihn möglichen fächerübergreifenden Bezüge verdeutlicht. Durch die Auseinandersetzung mit von Schirachs Werk beschäftigen sich die Schülerinnen und Schüler mit politisch-rechtlichen Themen, wie dem Spannungsverhältnis von Recht und Gerechtigkeit, dem Ablauf von Strafgerichtsverfahren, dem theoretischen Anspruch des Rechtsstaates und dessen realen Schwächen. Zudem fördert die Auseinandersetzung mit dem Roman Der Fall Collini die vier fachbezogenen Kompetenzen der Politischen Bildung, sowie Multiperspektivität und exemplarisches Lernen. Des Weiteren verknüpft der Roman historische, politisch-rechtliche und moralisch-ethische Aspekte miteinander, wodurch fächerübergreifende Bezüge mit den Fächern Geschichte, Deutsch und L-E-R hergestellt werden können. Darüber hinaus spricht der Justizroman als Narration seine Leserinnen und Leser auch emotional an und fördert somit eine ganzheitliche und nachhaltige Wissensvermittlung im Sinne der Rechtserziehung. Es hat sich gezeigt, dass Der Fall Collini von Ferdinand von Schirach sich für die unterrichtliche Beschäftigung innerhalb der Politischen Bildung besonders eignet.
"Der vergessene Partner"
(2009)
"Wir mußten uns die Aufgabe stellen, wenigstens bei Eintritt eines bewaffneten Konfliktes jederzeit in der Lage zu sein, die fehlenden Waffen neu erstehen zu lassen; ähnlich wie es die nordamerikanische Armee, die aus Sparsamkeit in Friedenszeiten nur wenig stärker war als unsere Reichswehr, für den Ernstfall auf Grund der Erfahrungen im Weltkriege 1917 vorgesehen hatte. Meine Reise nach Nordamerika als Chef der Heeresleitung im Jahre 1927 gab in dieser Beziehung sehr gute Aufklärung für unsere Belange."
So betrachtete General Wilhelm Heye seinen eigenen Besuch in den USA und führte ein Kapitel der Beziehungen der Reichswehr zu einer auswärtigen Macht an, welches bisher kaum beachtet worden ist. Während die geheimen Verbindungen der Reichswehr zur Roten Armee bereits auf breites, wissenschaftliches Interesse gestoßen sind und Inhalt vielfacher Untersuchungen waren, so ist deren Zusammenarbeit mit der U.S. Army bisher kaum ins Blickfeld der historischen Forschung gerückt. Die Missionen und Kommandierungen zwischen 1922 und 1933 von nahezu 30 Offizieren, unter denen sich auch namhafte Vertreter wie Wilhelm Speidel, Werner von Blomberg und Walter Warlimont befanden, sind daher fast gänzlich unbekannt.
Pri ha-Pardes (Früchte des Obstgartens) ist eine Reihe der Vereinigung für Jüdische Studien e.V., welche in Verbindung mit dem Institut für Jüdische Studien der Universität Potsdam publiziert wird. Pri ha-Pardes möchte kleineren wissenschaftlichen Studien, Forschungen am Rande der großen Disziplinen und exzellenten Masterarbeiten eine Publikationsplattform bieten. Der Erstgeburtsstreit der Brüder Jakob und Esau wird seit jeher ethnologisch rezipiert und diente von frühester Zeit an, sowohl auf jüdischer als auch auf christlicher Seite, in vielfacher Auslegung als Grundlage religiöser und ‚politischer’ Identitätsbildung. Im Zuge dieser Deutung geriet jedoch die Frage in den Hintergrund, weshalb Gott ausgerechnet den ‚Betrüger’ Jakob zum dritten Stammvater Israels erwählt. Im vorliegenden vierten Band dieser Reihe stellt sich Daniel Vorpahl genau diesem Problem und klärt in einer ausführlichen exegetischen Untersuchung der biblischen Jakob-Esau-Erzählung Hintergründe, Verlauf und Bedeutung des Betrugsfalls sowie dessen Folgen. Anhand zentraler Bestandteile dieser Tradition, wie dem Motiv des Brüderstreits, der Begriffe Erstgeburtsrecht, Segen und Verheißung, wird darüber hinaus die Stellung der Jakob-Esau- Erzählung innerhalb der gesamten Vätergeschichte beleuchtet. Dabei werden nicht nur die begründeten Umstände Jakobs Erwählung erläutert, sondern vor allem auch die sozialethische Relevanz der Jakob-Esau-Tradition veranschaulicht.
Die Arbeit befasst sich auf der Ebene des Textes mit der Frage nach dem Textproduzenten der Buchform des Dramas. Gibt es im Drama ähnlich wie in der Epik oder Lyrik eine vermittelnde Instanz? Und sind die Nebentexte tatsächlich als Anweisungen oder nicht doch eher als Hinweise zu verstehen? Am Beispiel des expressionistischen Dramas "Geschehen" von August Stramm werden die vorherigen Überlegungen überprüft und für eine Textanalyse fruchtbar gemacht.
Der israelische Autor und Journalist Noah Klieger ist in der deutschsprachigen Forschung zur Holocaustliteratur, in deren Kontext theoretische Konzepte und Interpretationen zahlreicher Autoren (u.a. Ruth Klüger, Primo Levi) dieser Gattung vorliegen, bisher kaum beachtet worden. In der vorliegenden Arbeit steht seine 2010 erschienene Autobiographie „Zwölf Brötchen zum Frühstück“ im Zentrum. Innerhalb der Textanalyse wird der Frage nachgegangen, welche Bedeutung das Schreiben für Klieger hat und inwieweit seine als Reportage angelegte Autobiographie, die den sehr faktenbezogenen und dokumentarischen Stil des Journalisten widerspiegelt, den Rezipienten in der Interpretation lenkt und Authentizität erzeugt. Ausgehend von dieser Fragestellung werden für die Arbeit geführte Interviews mit Noah Klieger (oral history) einbezogen und der Erlebnisbericht „Ich habe den Todesengel überlebt“ von Eva Mozes-Kor, die das Konzept des Erlebnisberichtes mit all seinen Eigenschaften konstant bewahrt, zum Vergleich hinzugezogen. Im Fokus der Arbeit steht die Analyse der Autobiographie Kliegers, wobei auf das Genre Reportage, relevante Stilmittel, zentrale Begrifflichkeiten und Veröffentlichungskontexte sowie auf die Gedächtnistheorie von Maurice Halbwachs eingegangen werden. Abschließend wird die Thematik des Vergebens bei Klieger und Mozes-Kor erörtert. Die Forschungsergebnisse stellen den israelischen Holocaustüberlebenden Noah Klieger als Autor vor und verdeutlichen, dass die innerhalb der Gattung Holocaustliteratur gewählten Darstellungsweisen unterschiedliche Formen von Authentizität evozieren.
Von einer kritischen Analyse des Artikels "Deutsche Literatur in der Entscheidung" (1947) von Alfred Andersch ausgehend, fragt die Untersuchung nach dem Spannungsverhältnis von literarischem Engagement im Sinne Sartres und konzeptuellen Leerstellen in der Auseinandersetzung mit der deutschen NS-Vergangenheit, welches sich in dem programmatischen Aufsatz und Anderschs Roman "Die Rote" (1972) nachweisen lässt.
"Our common humanity"
(2000)
In dieser Arbeit wurden Zusammenhänge zwischen den sexuellen Erfahrungen junger Frauen und Männer, ihren Persönlichkeitseigenschaften und ihren sexualmoralischen Einstellungen auf der einen Seite und der Einschätzung ihrer sexuellen Handlungsfähigkeit auf der anderen Seite untersucht. Die Grundlage für das Modell der sexuellen Handlungsfähigkeit bildeten die Vorstellungen der Arbeitsgruppe um Matthias Grundmann (Grundmann et al. 2006) sowie von Emirbayer und Mische (1998). Das in dieser Arbeit entwickelte Modell zur sexuellen Handlungsfähigkeit ist ein multidimensionales Konstrukt, das sich aus den Komponenten „sexuelle Kommunikation“, „sexuelle Zufriedenheit“, „sexuelle Reziprozität“ sowie „sexuelle Eigenverantwortung“ zusammensetzt. „Sexuelle Kommunikation“ beinhaltet die Fähigkeit, sexuelle Wünsche zum Ausdruck bringen zu können. „Sexuelle Zufriedenheit“ beschreibt den Grad der Zufriedenheit mit dem eigenen Sexualleben. „Sexuelle Reziprozität“ verweist auf die Fähigkeit, sexuelle Aufmerksamkeiten sowohl Annehmen als auch Geben zu können. „Sexuelle Eigenverantwortung“ betont schließlich die Einschätzung, inwieweit die eigene Sexualität selbst bestimmt gestaltet werden kann. Mit Emirbayer und Mische werden die sexuellen Erfahrungen der Frauen und Männer als Korrelate der Einschätzung der Dimensionen der sexuellen Handlungsfähigkeit betrachtet. Mit Grundmann et al. sind es zudem verschiedene Persönlichkeitseigenschaften sowie sexualmoralische Einstellungen, deren Beschaffenheiten Aussagen über die sexuelle Handlungsfähigkeit erlauben. Um die Thematik der sexuellen Handlungsfähigkeit empirisch zu betrachten, wurden im Jahr 2006 695 junge Potsdamer/innen im Alter von 19 bis 21 Jahren im Rahmen einer standardisierten Erhebung zu ihren sexuellen und Beziehungserfahrungen befragt. Die empirischen Analysen verdeutlichen eine ko-konstruktive Anschauung von der Entwicklung sexueller Handlungsfähigkeit. Diese entsteht nicht im Individuum allein, sondern innerhalb der Interaktions- und Aushandlungsprozesse des Individuums mit den Anderen seiner sozialen und sexuellen Umwelt. Von Bedeutung erweisen dabei sowohl die Erlebnisse der sexuellen Biografie als auch die Persönlichkeitsmerkmale eines jeden Einzelnen. Nur geringfügig erscheinen die erfragten sexualmoralischen Ansichten von Bedeutung.
Der Autor versucht mit dieser kurzen Einführung eine Übersicht über den Stand der Forschung zu einem Thema zu geben, das in der Forschung bisher noch nicht ausreichend berücksichtigt wurde: der außerschulischen, privatwirtschaftlich organisierten Zusatzbildung, der sogenannten Shadow Education. Der Fokus der Arbeit richtet sich dabei auf die Länder Japan, welches bereits seit den 1970er Jahren ein System außerschulischer Bildungsinstitutionen besitzt, dessen Einfluss auf den Bildungserwerb junger Menschen so stark ist wie in kaum einem anderen Land, und Deutschland, dessen Schattenbildungs- oder Nachhilfesystem noch keinen derartig starken Einfluss ausübt, jedoch in den vergangenen Jahren steten Zuwachs verzeichnen konnte. Interessierten soll dieser Einblick durch die umfangreiche Bibliographie eine Hilfe bei der Recherche zu diesem Thema bieten.
Wenn in einem verbrannten Gebäude, in dem sich unliebsame Untermieter breit gemacht haben, diese damit beginnen, Stein für Stein das restliche Gemäuer abzutragen, um die verbliebenen Fenster zuzumauern, wird es Zeit, mit mehr oder weniger freundlichen Worten die Bewohner des Hauses zu verweisen, die nur verhindern, dass sich neue Besucher dem Gelände nähern. Dafür muss freilich alter und neuer Behang von den Wänden genommen werden; und eben durch die Verbannung all dessen, was nicht an diesen Ort gehört, kann ein freundliches Bild des Dichters Friedrich Hölderlin erhalten bleiben, der nicht nur poetisch, sondern auch zwischenmenschlich einigen bedeutenden Persönlichkeiten seiner Zeit im Wege stand, was ihm wohl in beiden Aspekten zum Verhängnis geworden ist, weil er sich weder verwandtschaftlich noch im Rahmen des poetischen Geschäfts gegen seine intrigante Umgebung zur Wehr zu setzen wusste. Der etwas länger geratene Aufsatz „So sind die Zeichen in der Welt“ soll weder ein neues Heiligenbild schaffen noch einen frisch aus der Tasche gezogenen Popstar zum Liebhaben, sondern will behutsam einige Fresken des Gedankengebäudes Hölderlin für diejenigen freilegen, deren Bild des Dichters noch nicht völlig von der Vorstellung des wahnsinnig gewordenen Dichters übertüncht worden ist. Obwohl sich die Arbeit damit ganz bewusst den Hölderlin - Studien von Pierre Bertaux anschließt, setzt sie sich auch mit dieser Wahrnehmungslinie kritisch auseinander, indem sie neben biographischen Anmerkungen auch stil- und ideologiekritische Methoden einsetzt, um die manchmal unübersichtliche Quellenlage ein wenig durchsichtiger zu machen, als dies bisher der Fall ist. Über eine solche, in Einzelheiten vielleicht unorthodox wirkende Darstellung hinaus will die Arbeit die Behandlungsmöglichkeit von Friedrich Hölderlin im Deutschunterricht des Gymnasiums nahe legen, weil selbst Jüngeres über ihn behandelt wird, das darauf hinweist, inwiefern die Marginalisierung dieses Poeten damit zu tun hat, dass er während eines langen Abschnitts der Literaturgeschichte auch dafür verantwortlich gemacht wurde, was er weder geschrieben hat noch meinte. Die Intention der Arbeit besteht insgesamt in der Vorstellung, das Gedankengut Hölderlins müsse aus dem breiten Strom einer konservativen Wahrnehmungstradition entfernt werden (zu der beispielsweise auch die dramatische Hölderlin - Bearbeitung E. Jelineks Wolken.Heim. gezählt werden kann, selbst wenn sie widerborstig gemeint sein sollte) und dieser Dichter sei als realistischer Denker zu restaurieren, der sich deshalb dem Literaturbetrieb seiner Zeit entgezogen hat, weil er, selbst der Lebensführung nach, sehr früh die Bewegungen gegen französische Aufklärung und Revolution begriffen hat – und von deren massiver Ablehnung Hölderlin bis heute getroffen wird. Da Friedrich Hölderlin aber nicht nur ideologischer Betrachtung, Kritik und Verfälschung ausgesetzt ist, sondern auch regelmäßig Gegenstand umfangreicher biographisch - psychologischer Spekulationen darstellt, wurde dieser Aspekt nicht nur bezogen auf die Rezeptionsgeschichte untersucht, sondern am Gegenstand selbst. In diesem Zusammenhang konnte nicht nur eine bislang vernachlässigte Beziehung Hölderlins zu Sophie Mereau rekonstruiert und der Verdacht zurückgewiesen werden, es habe zur selben Zeit eine homoerotische Beziehung zu Isaak Sinclair bestanden, vielmehr gelang auch der Nachweis, dass das Verhältnis des Dichters zu Susette Gontard weder singulär noch konkurrenzlos gewesen ist, weshalb sich eine eindeutige Zuordnung dieser Frau zur poetischen Figur der Diotima verbietet. Dazu wurde einerseits der Umstand entmythologisiert, nach dem die Liebe zur Frankfurter Zeit platonisch betrieben wurde, andererseits aber diese Affaire den Verhältnissen Hölderlins zu anderen Frauen zugeordnet, mit denen sich Frau Gontard – letztlich erfolglos – dadurch auseinander zu setzen versuchte, dass sie die Rolle Diotimas okkupierte. Dabei ließ sich schließlich der Verdacht erhärten, die stabilste Bindung des Dichters an eine Frau sei die zur eigenen Schwester Heinrike gewesen, mit der bis zum Bruch von Bordeaux aus zwar unregelmäßig, aber emotional immer wieder ausufernde Briefe getauscht wurden. Es ist nicht ohne Ironie, wenn ausgerechnet im vielleicht bekanntesten Gedicht Hölderlins, der „Hälfte des Lebens“, in dem regelmäßig ein bedeutender philosophischer Entwurf gesehen wird, Rudimente eines Textes enthalten sind, der – eindeutig erotisch konnotiert – an die eigene Schwester gerichtet ist.
"Tolerantes Brandenburg"
(2014)
1. Einleitung
2. Kriminalitätsprävention und Rechtsextremismusprävention
3. Ausgewählte Strukturelemente des Kooperationsverbundes TBB
3.1 Aufgabendefinition zwischen Rechtsextremismusbekämpfung und Demokratieförderung
3.2 Status der landesweiten Zentralstelle
3.3 Ressortübergreifende Aufgaben im Verhältnis zu den Fachressorts
3.4 Vernetzung und Hierarchie
3.5 Verhältnis zur Zivilgesellschaft
3.6 Evaluation
4. Fazit
'Gelegenheitsdichtung'
(2010)
Dieses Material soll es dem Lehrer ermöglichen, schnell und mit wenig Arbeitsaufwand eine oder mehrere Unterrichtsstunden zum Thema "Söldnertum" vorzubereiten, aber auch zur Arbeit mit Bildquellen anregen, die in der Schule oftmals recht stiefmütterlich behandelt werden. Zu diesem Zweck wird in aller Kürze in die Entstehung des Soldkriegswesens als Form staatlich organisierter Gewaltsamkeit eingeführt. Ausgehend von der Spätantike werden die militärischen, wirtschaftlichen und demographischen Faktoren, die zur "Renaissance des Fußvolkes" geführt haben, beschrieben, und auf entsprechende Fachpublikationen verwiesen. Organisation, Struktur und Rechtsformen der Söldnerheere werden vorgestellt und immer anhand von Bildquellen des 15. und 16. Jahrhunderts verdeutlicht. Der zweite Teil dieses Materials besteht aus einer Einführung in die Historische Bildkunde, so dass die Schüler den Umgang mit dieser Quellengattung zügig erlernen können. Um die komplexe Symbolik der Bildmaterialien der Frühen Neuzeit entschlüsseln zu können, wurde als Hilfe für Lehrer und Schüler ein Symbolschlüssel angefertigt. Die Quellen liegen in digitaler Form, in zwei Ausführungen (einer mit Markierungen der wichtigsten Symbole für den Lehrer, einer ohne diese Markierungen als Arbeitsmaterial für die Schüler) der Arbeit bei. Das Material ist modular aufgebaut, so dass man bei Bedarf nur einen Aspekt des Soldkriegswesens (beispielsweise das Trossvolk oder die Verrechtlichung innerhalb der Söldnerheere) von den Schülern bearbeiten lassen kann. Abschließend werden Vorschläge für Tafelbilder und Übersichten, sowie für Aufgabenstellungen, die sich sowohl zur Einzel- als auch zur Gruppen- oder Projektarbeit eignen, unterbreitet.
Tagungsbericht: Weiß, Norman: 20 Jahre Übereinkommen zur Beseitigung jeder Form von Diskriminierung der Frau (CEDAW)<1999, Potsdam> / 20 Jahre Übereinkommen zur Beseitigung jeder Form von Diskriminierung der Frau (CEDAW), Tagung des Menschenrechtszentrums der Universität Potsdam am 25., 26. November 1999
25 Jahre KSZE / OSZE
(2000)
Inhaltsübersicht I. Einführung II. Weltpolitischer Hintergrund und theoretische Grundlagen des KSZE-Prozesses 1. Der Weg nach Helsinki 2. Die Schlußakte von Helsinki 3. Von Helsinki nach Paris – 1975-1990 4. Aktuelle Entwicklungen III. Überblick über die Entwicklung der KSZE/OSZE IV. Die zehn Prinzipien – der "Dekalog" – aus dem Ersten Kapitel der Schlußakte V. Die menschliche Dimension der KSZE/OSZE VI. Schlußbetrachtungen
Die Technologie des 3D-Drucks hat sich in den letzten Jahrzehnten rasant entwickelt. Im Industriebereich entstehen immer modernere und spezialisiertere Druckverfahren, im Hobby- und Privatanwenderbereich hingegen werden stetig kostengünstigere und einfacher zu bedienende Geräte zugänglich. Einzig im Bildungsbereich scheint das Themenfeld hingegen erst langsam eine Rolle zu spielen, obwohl sich zahlreiche Bezugspunkte für einen Einsatz in verschiedensten Fächern finden lassen. Insbesondere im Fach Wirtschaft-Arbeit-Technik sind die Schnittstellen zum Rahmenlehrplan Berlin/Brandenburg augenscheinlich, doch es liegen erst vereinzelt konkrete und systematische didaktische Konzepte und Vorschläge zur unterrichtspraktischen Einbettung vor. Die Verfasserin versucht daher in dieser Arbeit die Relevanz des Themas für die technische Bildung deutlich zu machen, eine kurze technische Einführung in das für einen schulischen Einsatz besonders geeignete FDM-Druckverfahren zu geben und daran anknüpfend konkrete Umsetzungsvorschläge aufzuzeigen: einerseits in Form eines allgemeinen Phasenmodells zur Planung von Technikunterricht sowie andererseits in Form eines exemplarischen Unterrichtskonzepts. Am Beispiel eines Schachsets wird verdeutlicht, wie Schülerinnen und Schüler zum Anfertigen der Konstruktionsunterlagen digitale CAD-Programme nutzen und anschließend mit Hilfe eines 3D-Druckers additiv fertigen können.
Populärwissenschaftlicher Abstract: Bislang gibt es in der beobachtenden optischen Astronomie zwei verschiedene Herangehensweisen: Einerseits werden Objekte durch Kameras abbildend erfaßt, andererseits werden durch die wellenlängenabhängige Zerlegung ihres Lichtes Spektren gewonnen. Das Integral - Field - Verfahren ist eine relativ neue Technik, welche die genannten Beobachtungsmethoden vereint. Das Objektbild im Teleskopfokus wird in räumlich zerlegt und jedes Ortselement einem gemeinsamen Spektrografen zugeführt. Hierdurch wird das Objekt nicht nur zweidimensional räumlich erfaßt, sondern zusätzlich die spektrale Kompenente als dritte Dimension erhalten, weswegen das Verfahren auch als 3D-Methode bezeichnet wird. Anschaulich kann man sich das Datenresultat als eine Abbildung vorstellen, in der jeder einzelne Bildpunkt nicht mehr nur einen Intensitätswert enthält, sondern gleich ein ganzes Spektrum. Diese Technik ermöglicht es, ausgedehnte Objekte im Unterschied zu gängigen Spaltspektrografen komplett zu erfassen. Die besondere Stärke der Methode ist die Möglichkeit, die Hintergrundkontamination der unmittelbaren Umgebung des Objektes zu erfassen und in der Auswertung zu berücksichtigen. Durch diese Fähigkeit erscheint die 3D-Methode prädestiniert für den durch moderne Großteleskope erschlossenen Bereich der extragalaktischen Stellarastronomie. Die detaillierte Untersuchung aufgelöster stellare Populationen in nahegelegenen Galaxien ist erst seit kurzer Zeit dank der Fortschritte mit modernen Grossteleskopen und fortschrittlicher Instrumentierung möglich geworden. Wegen der Bedeutung für die Entstehung und Evolution von Galaxien werden diese Arbeiten zukünftig weiter an Bedeutung gewinnen. In der vorliegenden Arbeit wurde die Integral-Field-Spektroskopie an zwei planetarischen Nebeln in der nächstgelegenen großen Spiralgalaxie M31 (NGC 224) getestet, deren Helligkeiten und Koordinaten aus einer Durchmusterung vorlagen. Hierzu wurden Beobachtungen mit dem MPFS-Instrument am russischen 6m - Teleskop in Selentschuk/Kaukasus sowie mit INTEGRAL/WYFFOS am englischen William-Herschel-Teleskop auf La Palma gewonnen. Ein überraschendes Ergebnis war, daß eins der beiden Objekte falsch klassifiziert wurde. Sowohl die meßbare räumliche Ausdehnung des Objektes als auch das spektrale Erscheinungsbild schlossen die Identität mit einem planetarischen Nebel aus. Mit hoher Wahrscheinlichkeit handelt es sich um einen Supernovaüberrest, zumal im Rahmen der Fehler an gleicher Stelle eine vom Röntgensatelliten ROSAT detektierte Röntgenquelle liegt. Die in diesem Projekt verwendeten Integral-Field-Instrumente wiesen zwei verschiedene Bauweisen auf, die sich miteinander vergleichen ließen. Ein Hauptkritikpunkt der verwendeten Instrumente war ihre geringe Lichtausbeute. Die gesammelten Erfahrung fanden Eingang in das Konzept des derzeit in Potsdam in der Fertigung befindlichen 3D-Instruments PMAS (Potsdamer Multi - Apertur - Spektrophotometer), welcher zunächst für das 3.5m-Teleskop des Calar - Alto - Observatoriums in Südspanien vorgesehen ist. Um die Effizienz dieses Instrumentes zu verbessern, wurde in dieser Arbeit die Kopplung der zum Bildrasterung verwendeten Optik zu den Lichtleitfasern im Labor untersucht. Die Untersuchungen zur Maximierung von Lichtausbeute und Stabilität zeigen, daß sich die Effizienz durch Auswahl einer geeigneten Koppelmethode um etwa 20 Prozent steigern lässt.
50 Jahre Europarat
(1999)
Tagungsbericht: Weiß, Norman: 50 Jahre Europarat: Gründungsvisionen und Bilanz <1999, Potsdam> / 50 Jahre Europarat: Gründungsvisionen und Bilanz, Tagung am 5. Mai 1999
Das MenschenRechtsZentrum der Universität Potsdam und die Konrad-Adenauer-Stiftung (Bildungswerk Potsdam) veranstalteten gemeinsam
am 5. Mai 1999 eine Tagung aus Anlaß des 50jährigen Bestehens des Europarats in Straßburg.
Nach einer kurzen Darstellung der historischen Fakten wird ein Überblick über Inhalt
und Ablauf der Veranstaltung gegeben werden.
Abenteuer Lesesprache : zum Aufbau interkomprehensiver Lesekompetenz in den romanischen Sprachen
(2007)
Plurilinguismus oder „English only“? Als politische Institution, in der es nur sprachliche und kulturelle Minderheiten gibt und geben wird, folgt die Europäische Union einer plurilinguistischen Orientierung, womit ein erheblicher Bedarf an Sprach- und Kulturkenntnissen (und deren Erwerb) verbunden ist. Grosso modo umfasst die EU drei große indoeuropäische Sprachfamilien: die romanische, slawische und germanische. Innerhalb jeder dieser Sprachgruppen gibt es etymologisch bedingte Gemeinsamkeiten, die v.a. die Phonologie, Morphologie, Lexik und Syntax betreffen. Die Kenntnis dieser synchron erkennbaren gemeinsamen Elemente bzw. ihrer einzelsprachlich äquivalenten Varianten ermöglicht transferhaftes Lernen im Sinne der Interkomprehension in Sprachfamilien. Grundlage der romanischen Interkomprehension ist das „Vulgärlatein“, dessen Spezifik v.a. gegenüber den heutigen Sprachen der Romania herausgestellt wird. Den lerntheoretischen Hintergrund der Interkomprehension bilden die Interlanguage-Hypothese, die Annahme mentaler Netzwerke sowie die verschiedenen Verarbeitungsstadien des interkomprehensiven Spracherwerbs: Spontangrammatik, Mehrsprachenspeicher und didaktischer Monitor. Zudem wird die Rolle mutter- und fremdsprachlicher Transferbasen sowie die der einzelnen Transferdomänen (Form, Inhalt, Funktion, Pragmatik, Didaktik) erläutert. Schwerpunkte der vorliegenden Arbeit bilden die Motivation und die einzelnen Verarbeitungsstadien beim interkomprehensiven Lesen, wobei dem sprachlichen Vorwissen der Lesenden besondere Bedeutung zukommt. Der vorgeschlagene Leitfaden für das erschließende Lesen umfasst drei Gesamtlektüren und berücksichtigt dabei sowohl sprachsystematische als auch textlinguistische Kriterien. Zur Illustration dient ein aktueller Text in Nissart, der auch verschiedenen Probanden vorgelegt wurde. Die Analyse ergab, dass ein globales Textverständnis durch die Kenntnis einer romanischen Sprache spontan gegeben ist, dieses Globalverständnis im Einzelnen jedoch deutlich differieren kann. Am Ende der Arbeit werden mit der Darstellung der strukturellen Besonderheiten des Rumänischen die Grenzen interkomprehensiven Leseverständnisses gezeigt, aber auch der erleichterte Einstieg in die Sprachproduktion dargelegt.
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.
In den letzten Jahren wurden relativ komplexe Erosionsmodelle entwickelt, deren Teilprozesse immer mehr auf physikalisch begründeten Ansätzen beruhen. Damit verbunden ist eine höhere Anzahl aktueller Eingangsparameter, deren Bestimmung im Feld arbeits- und kostenaufwendig ist. Zudem werden die Parameter punktuell, also an bestimmten Stellen und nicht flächenhaft wie bei der Fernerkundung, erfasst. Im Rahmen dieser Arbeit wird gezeigt, wie Satellitendaten als relativ kostengünstige Ergänzung oder Alternative zur konventionellen Parametererhebung genutzt werden können. Dazu werden beispielhaft der Blattflächenindex (LAI) und der Bedeckungsgrad für das physikalisch begründete Erosionsmodell EROSION 3D abgeleitet. Im Mittelpunkt des Interesses steht dabei das Aufzeigen von existierenden Methoden, die die Basis für eine operationelle Bereitstellung solcher Größen nicht nur für Erosions- sondern allgemein für Prozessmodelle darstellen. Als Untersuchungsgebiet dient das primär landwirtschaftlich genutzte Einzugsgebiet des Mehltheuer Baches, das sich im Sächsischen Lößgefilde befindet und für das Simulationsrechnungen mit konventionell erhobenen Eingangsparametern für 29 Niederschlagsereignisse im Jahr 1999 vorliegen [MICHAEL et al. 2000]. Die Fernerkundungsdatengrundlage bilden Landsat-5-TM-Daten vom 13.03.1999, 30.04.1999 und 19.07.1999. Da die Vegetationsparameter für alle Niederschlagsereignisse vorliegen sollen, werden sie basierend auf der Entwicklung des LAI zeitlich interpoliert. Dazu erfolgt zunächst die Ableitung des LAI für alle vorhandenen Fruchtarten nach den semi-empirischen Modellen von CLEVERS [1986] und BARET & GUYOT [1991] mit aus der Literatur entnommenen Koeffizienten. Des Weiteren wird eine Methode untersucht, nach der die Koeffizienten für das Clevers-Modell aus den TM-Daten und einem vereinfachten Wachstumsmodell bestimmt werden. Der Bedeckungsgrad wird nach ROSS [1981] aus dem LAI ermittelt. Die zeitliche Interpolation des LAI wird durch die schlagbezogene Anpassung eines vereinfachten Wachstumsmodells umgesetzt, das dem hydrologischen Modell SWIM [KRYSANOVA et al. 1999] entstammt und in das durchschnittliche Tagestemperaturen eingehen. Mit den genannten Methoden bleiben abgestorbene Pflanzenteile unberücksichtigt. Im Vergleich zur konventionellen terrestrischen Parametererhebung ermöglichen sie eine differenziertere Abbildung räumlicher Variabilitäten und des zeitlichen Verlaufes der Vegetationsparameter. Die Simulationsrechnungen werden sowohl mit den direkten Bedeckungsgraden aus den TM-Daten (pixelbezogen) als auch mit den zeitlich interpolierten Bedeckungsgraden für alle Ereignisse (schlagbezogen) durchgeführt. Bei beiden Vorgehensweisen wird im Vergleich zur bisherigen Abschätzung eine Verbesserung der räumlichen Verteilung der Parameter und somit eine räumliche Umverteilung von Erosions- und Depositionsflächen erreicht. Für die im Untersuchungsgebiet vorliegende räumliche Heterogenität (z. B. Schlaggröße) bieten Landsat-TM-Daten eine ausreichend genaue räumliche Auflösung. Damit wird nachgewiesen, dass die satellitengestützte Fernerkundung im Rahmen dieser Untersuchungen sinnvoll einsetzbar ist. Für eine operationelle Bereitstellung der Parameter mit einem vertretbaren Aufwand ist es erforderlich, die Methoden weiter zu validieren und möglichst weitestgehend zu automatisieren.
Abschied von KyotoPlus?
(2012)
Die Ergebnisse des Klimagipfels von Kopenhagen sind eine bittere
Enttäuschung für die EU. Ihr ist es nicht gelungen, ihren Führungsambitionen
beim globalen Klimaschutz gerecht zu werden und die
Konferenz zur Weichenstellung für ein rechtsverbindliches Klimaabkommen
nach 2012 zu nutzen. Damit steht die Union vor grundlegenden
strategischen Fragen zum Kurs ihrer Klimapolitik.
Der vorliegende Abschlussbericht präsentiert die Ergebnisse des BMBF-geförderten Verbundprojektes "E-LANE: E-Learning in der Lehrerfortbildung: Angebote, Nutzung und Erträge", das gemeinsam durch die Universität Potsdam (Prof. Dr. Dirk Richter) und der Leuphana Universität Lüneburg (Prof. Dr. Marc Kleinknecht) durchgeführt wurde. Ziel des Projektes war die Untersuchung des Angebotes von digitalen bzw. digital-gestützten Fortbildungen für Lehrkräfte in den Bundesländern Berlin, Brandenburg und Schleswig-Holstein. Im Rahmen von vier Teilstudien wurden Datenbankanalysen der Fortbildungsangebote in den jeweiligen Ländern sowie schriftliche Befragungen mit Fortbildner*innen sowie Teilnehmer*innen von Online-Fortbildungen durchgeführt. Darüber hinaus wurde eine Online-Fortbildung für Lehrkräfte zum Thema Feedback eigens konzipiert und durchgeführt.
Der vorliegende Abschlussbericht umfasst die Ergebnisse der wissenschaftlichen Evaluation der Werkstatt „Schule leiten“. Bei dieser Werkstatt handelt es sich um ein 18-monatiges Fortbildungsangebot für Schulleitungen, das durch die Deutsche Schulakademie konzipiert und in Kooperation mit dem saarländischen Kultusministerium für Bildung und Kultur sowie dem saarländischen Landesinstitut für Pädagogik und Medien durchgeführt wurde. Im Zeitraum 2016–2020 absolvierten jeweils zwei Personen des Schulleitungsteams allgemeinbildender Schulen erstmalig in insgesamt drei Durchgängen verschiedene Angebote der Werkstatt. Weiterhin erhielten die Teilnehmenden die Aufgaben, im Zuge ihres Fortbildungsbesuches ein individuelles Schulentwicklungsprojekt zu planen, zu entwickeln und unter Anleitung der Werkstatt in der Schule zu implementieren. Zur Überprüfung der wahrgenommenen Qualität sowie der Wirksamkeit des Fortbildungsangebotes wurde die Universität Potsdam, Arbeitsbereich Prof. Dr. Dirk Richter, beauftragt. Der vorliegende Bericht präsentiert die Evaluationsergebnisse der Durchgänge 2 und 3.
Im Zentrum der Evaluation stehen die folgenden Forschungsfragen: (1) Wie beurteilen die Teilnehmenden die Qualität der Werkstatt „Schule leiten“? (2) Inwiefern hat die Werkstatt „Schule leiten“ dazu beigetragen, die Leitungskompetenzen (u.a. Einstellungen und Führungshandeln) der Teilnehmenden zu stärken? sowie (3) Wie haben sich schulische Strukturen und Prozesse zur Förderung von Schulentwicklung in den teilnehmenden Schulen durch die Werkstatt „Schule leiten“ verändert? Zur Beantwortung der Fragestellungen wurden eine Reihe schriftlicher Befragungen mit den teilnehmenden Schulleitungen sowie den Lehrkräften der teilnehmenden Schulen durchgeführt. Diese Befragungen erfolgten sowohl begleitend zum Fortbildungsprogramm (nach Absolvieren der einzelnen Angebote) sowie in einem Prä-Post-Follow-Up-Design. Weiterhin wurden im Rahmen einer qualitativen Begleitstudie verschiedene Personen (Schulleitung, Mitglieder des Schulleitungsteams, Lehrkräfte) von insgesamt fünf Schulen über drei Zeitpunkte dazu befragt, wie die Planung, Entwicklung und Implementation der Schulentwicklungsprojekte erfolgten.
Die Befunde der Evaluation deuten insgesamt darauf hin, dass die Qualität der Werkstatt „Schule leiten“ als Gesamtprogramm sowie die einzelnen Angebote der Werkstatt sehr positiv bewertet werden. Dabei nehmen die Teilnehmenden von Durchgang 2 die Werkstatt in einer Reihe von Merkmalen positiver wahr als die Teilnehmenden von Durchgang 3. Weiterhin deuten die Ergebnisse darauf hin, dass sich bestimmte Facetten des Führungshandelns der Teilnehmenden im zeitlichen Verlauf positiv verändert haben. Hierfür existieren Hinweise sowohl aus Perspektive der Teilnehmenden selbst als auch aus Perspektive der Lehrkräfte ihrer Schulen. Motivationale Merkmale der Teilnehmenden sowie Aspekte des Führungshandelns, die sich auf Tätigkeiten zur Unterstützung der innerschulischen Kooperation beziehen, bleiben aus Perspektive der Teilnehmenden hingegen weitestgehend konstant. Hinsichtlich der Veränderungen schulischer Strukturen zur Schulentwicklung deuten die Ergebnisse auf eine positive Entwicklung der wahrgenommenen Offenheit gegenüber Kooperation im Kollegium aus Perspektive der Lehrkräfte hin. Die Befunde der qualitativen Begleitstudie liefern weitere Informationen über die wahrgenommene Qualität der Werkstatt sowie über Veränderungen aufseiten der Teilnehmenden und der schulischen Strukturen.
An einigen CT-Modellkomplexen in verschiedenen Lösungsmitteln und bei Temperaturen von 113-300 K sollte der Einfluß der Umgebung auf die Form und Lage der Absorption von CT-Komplexen unterschiedlicher Bindungsfestigkeit untersucht werden.
Dazu wurden bekannte Bandenprofilfunktionen auf ihre Anwendbar-keit geprüft. Da eine optimale Anpassung nicht möglich war, wurde eine neue Profilfunktion entwickelt, die eine bessere Beschreibung ergab.
Nach der Bestimmung der Gleichgewichtskonstante und des Extink-tionskoeffizienten konnte mit der Profilfläche das Übergangsmoment berechnet werden.
Die Lösungsmittelabhängigkeit wurde bei verschiedenen Brechzahlen und Dielektrizitätskonstanten untersucht.
Für feste Komplexe wurde eine spezielle Präparationstechnik gewählt. Die beobachteten Feinstrukturen und der auftretende Streuuntergrund werden diskutiert.
Abzug unter Beobachtung
(2022)
Mehr als vier Jahrzehnte lang beobachteten die Streitkräfte und Militärnachrichtendienste der NATO-Staaten die sowjetischen Truppen in der DDR. Hierfür übernahm in der Bundesrepublik Deutschland der Bundesnachrichtendienst (BND) die militärische Auslandsaufklärung unter Anwendung nachrichtendienstlicher Mittel und Methoden. Die Bundeswehr betrieb dagegen taktische Fernmelde- und elektronische Aufklärung und hörte vor allem den Funkverkehr der „Gruppe der sowjetischen Streitkräfte in Deutschland“ (GSSD) ab. Mit der Aufstellung einer zentralen Dienststelle für das militärische Nachrichtenwesen, dem Amt für Nachrichtenwesen der Bundeswehr, bündelte und erweiterte zugleich das Bundesministerium für Verteidigung in den 1980er Jahren seine analytischen Kapazitäten. Das Monopol des BND in der militärischen Auslandsaufklärung wurde von der Bundeswehr dadurch zunehmend infrage gestellt.
Nach der deutschen Wiedervereinigung am 3. Oktober 1990 befanden sich immer noch mehr als 300.000 sowjetische Soldaten auf deutschem Territorium. Die 1989 in Westgruppe der Truppen (WGT) umbenannte GSSD sollte – so der Zwei-plus-Vier-Vertrag – bis 1994 vollständig abziehen. Der Vertrag verbot auch den drei Westmächten, in den neuen Bundesländern militärisch tätig zu sein. Die für die Militäraufklärung bis dahin unverzichtbaren Militärverbindungsmissionen der Westmächte mussten ihre Dienste einstellen. Doch was geschah mit diesem „alliierten Erbe“? Wer übernahm auf deutscher Seite die Aufklärung der sowjetischen Truppen und wer kontrollierte den Truppenabzug?
Die Studie untersucht die Rolle von Bundeswehr und BND beim Abzug der WGT zwischen 1990 und 1994 und fragt dabei nach Kooperation und Konkurrenz zwischen Streitkräften und Nachrichtendiensten. Welche militärischen und nachrichtendienstlichen Mittel und Fähigkeiten stellte die Bundesregierung zur Bewältigung des Truppenabzugs zur Verfügung, nachdem die westlichen Militärverbindungsmissionen aufgelöst wurden? Wie veränderten sich die Anforderungen an die militärische Auslandsaufklärung des BND? Inwieweit setzten sich Konkurrenz und Kooperation von Bundeswehr und BNDbeim Truppenabzug fort? Welche Rolle spielten dabei die einstigen Westmächte? Die Arbeit versteht sich nicht nur als Beitrag zur Militärgeschichte, sondern auch zur deutschen Nachrichtendienstgeschichte.
Im Rahmen des Berliner Projekts „Sprachen-Bilden-Chancen. Innovationen für das Berliner Lehramt“ wurde unter anderem das „Instrument zur sprachbildenden Analyse von Aufgaben im Fach (isaf)“ entwickelt, welches eine Hilfestellung bei der Analyse sprachlicher Anforderungen von (Lern-)Aufgaben darstellt. Ziel des Instruments ist die Förderung der Analyse- und Planungskompetenzen von (angehenden) Lehrkräften. Im Rahmen des Teilprojekts „Sprachliche Heterogenität als Herausforderung für die Lehrerbildung“ des Projekts „PSI (Professionalisierung, Schulpraktische Studien und Inklusion)“ an der Universität Potsdam wurde isaf in der Didaktik der Physik erprobt. Auf Basis der Erprobungsergebnisse sowie der Ergebnisse eines fächerübergreifenden Workshops wurde die hier vorliegende Adaption entwickelt, die um Begriffserläuterungen und Literaturhinweise ergänzt wurde.
In dieser Arbeit wurden zwei Themenbereiche bearbeitet: 1. Ellipsometrie an Adsorpionsschichten niedermolekularer Tenside an der Wasser/Luft-Grenzfläche (Ellipsometrie ist geeignet, adsorbierte Mengen von nicht- und zwitterionischen Tensiden zu messen, bei ionischen werden zusätzlich die Gegenionen mit erfaßt; Ellipsometrie mißt sich ändernde Gegenionenverteilung). 2. Ellipsometrische Untersuchung von endadsorbierten Polymerbürsten an der Wasser/Öl-Grenzfläche (Ellipsometrie ist nicht in der Lage, verschiedene Segmentkonzentrationsprofile innerhalb der Bürste aufzulösen, ist aber sehr wohl geeignet, Skalengesetze für Dicken und Drücke in Abhängigkeit von Ankerdichte und Kettenlänge der Polymere zu überprüfen; für in Heptan gequollene Poly-isobuten-Bürsten konnte gezeigt werden, daß sie sich entsprechend den theoretischen Vorhersagen für Bürsten in einem theta-Lösungsmittel verhalten)
Der Einsatz in Afghanistan hat Deutschland insgesamt ca. 12 500 000 000 € gekostet und zivile und militärische Kräfte 20 Jahre lang gebunden. Er endete im August des Jahres 2021 mit einem übereilten Abzug aus Kabul und die ursprünglich gesetzten Ziele wurden im Wesentlichen nicht erreicht. Ziel der vorliegenden Arbeit ist es, den Einsatz in Afghanistan von 2001 bis 2021 aus Sicht der BRD politikwissenschaftlich und völkerrechtlich aufzuarbeiten. Dazu wird folgende, übergeordnete Forschungsfrage gestellt: Welche Lehren für die Außen- und Sicherheitspolitik der BRD lassen sich aus dem Einsatz in Afghanistan ziehen? Um die Forschungsfrage zu beantworten wurde ein qualitativ deduktiver Ansatz gewählt, der unter Zuhilfenahme von Fachliteratur sowie Expert:inneninterviews versucht, den Einsatzverlauf zu skizzieren und Lehren für künftige, vergleichbare Humanitäre Interventionen aufzuzeigen.
"Aggredior ad ipsum crimen magiae." Mit diesen Worten leitet Apuleius die Widerlegung der gegen ihn gerichteten Anklage ein: Er soll die reiche Witwe Pudentilla durch Liebeszauber zu einer Heirat mit ihm veranlasst haben. Dagegen setzt er sich in seiner Verteidigungsrede "De magia" zur Wehr. Die vorliegende Arbeit soll diese spannende Rede Lateinschülern der gymnasialen Oberstufe durch ein Lektüreheft bekannt machen. Letzteres ist mit kompetenzorientierten Aufgaben und einem Erwartungshorizont versehen. Es wird ferner von der wissenschaftlichen Auseinandersetzung mit den in der Rede behandelten Themen flankiert. Das Heft soll den Schülern einerseits die argumentative Strategie der Rede und andererseits das antike Alltagsphänomen 'Magie' näherbringen. Dabei tauchen sie ein in die antiken Vorstellungen von Zauberei und versuchen zugleich die einstigen Vorwürfe der Ankläger zu rekonstruieren, die etwa die Suche nach bestimmten Fischarten, die Behandlung von Epilepsie oder gewisse nächtliche Rituale betreffen. Darüber hinaus fragen sie nach der Unterscheidung magischer von religiösen Praktiken und stellen dabei Bezüge zu ihrer eigenen Lebenswelt her.
Zunehmend komplexe Herausforderungen und Aufgaben lassen sich nicht mehr mit den bisherigen Strukturen, Methoden und Prozessen der klassischen Verwaltung bewältigen. Vielmehr gewinnen Ansätze und Methoden des New Work im öffentlichen Sektor angesichts der sich stetig ändernden und dynamischen Arbeitswelt eine immer größere Bedeutung. Umso mehr besteht die Notwendigkeit, sich in der Verwaltung agil aufzustellen. Unter Agilität wird hierbei die Fähigkeit einer Organisation verstanden, sich schnell verändernden Rahmenbedingungen flexibel und dynamisch anzupassen.
Im Fokus dieser Arbeit steht der Einfluss von Agilität auf die Führungskräfte-Mitarbeiter-Beziehung. Mittels einer halbstandardisierten Online-Befragung im Landesamt für Flüchtlingsangelegenheiten und im Bezirksamt Neukölln von Berlin wird zunächst der vorliegende Agilitätsgrad mit dem Fokus auf agile Organisationsstrukturen, agile Organisationskultur und agile Führung ermittelt und sodann anhand der Qualität der dyadischen Arbeitsbeziehung von Führungskraft und Mitarbeiter (LMX-Qualität) überprüft, inwiefern die agile Arbeitsweise im Vergleich zu einer nicht-agilen Arbeitsumgebung die Beziehung beeinflusst.
Im Ergebnis der Untersuchung zeigt sich, dass ein positiver Zusammenhang zwischen Agilität und der Führungskräfte-Mitarbeiter-Beziehung besteht. Es stellt sich in beiden Ämtern ein mäßig bis starker Agilitätsgrad heraus, wobei besonders agile Führungseigenschaften zu den wesentlichen Faktoren zählen, die eine hochqualitative Beziehung begünstigen. Während im Bezirksamt ein Zusammenhang zwischen Agilität und hoher LMX-Qualität ermittelt wurde, konnte dieser nicht für die untersuchte Stichprobe des Landesamts festgestellt werden. Dennoch ließ sich in beiden Behörden ein positiver Einfluss von Agilität auf zumindest die Entwicklung einer erfolgreichen Führungskräfte-Mitarbeiter-Beziehung erfassen.
Im Rahmen dieser Studie soll ermittelt werden, welche Urteilsmodelle bzw. -konzepte Manager, Verwaltungsangehörige, Experten und Laien zur Bewertung von Risiken verwenden. Dazu wird eine Untersuchungsmethode, die Conjoint-Analyse, verwendet, die mit spezifischen Problemen der psychometrischen Risikoforschung besser umzugehen vermag und die u.E. noch nicht in der Risikowahrnehmungsforschung eingesetzt wurde. Inhalt: Ziel der Untersuchung Fragestellung Die Conjoint-Analyse Das Design der Studie Stichprobe und Datenerhebungsprozedur Ergebnisse: -Risikoakzeptanzwerte -Entscheidungswichtigkeit der Risiken -Gruppenanalyse
Die Arbeit beschreibt die Analyse von Beobachtungen zweier Sonnenflecken in zweidimensionaler Spektro-Polarimetrie. Die Daten wurden mit dem Fabry-Pérot-Interferometer der Universität Göttingen am Vakuum-Turm-Teleskop auf Teneriffa erfasst. Von der aktiven Region NOAA 9516 wurde der volle Stokes-Vektor des polarisierten Lichts in der Absorptionslinie bei 630,249 nm in Einzelaufnahmen beobachtet, und von der aktiven Region NOAA 9036 wurde bei 617,3 nm Wellenlänge eine 90-minütige Zeitserie des zirkular polarisierten Lichts aufgezeichnet. Aus den reduzierten Daten werden Ergebniswerte für Intensität, Geschwindigkeit in Beobachtungsrichtung, magnetische Feldstärke sowie verschiedene weitere Plasmaparameter abgeleitet. Mehrere Ansätze zur Inversion solarer Modellatmosphären werden angewendet und verglichen. Die teilweise erheblichen Fehlereinflüsse werden ausführlich diskutiert. Das Frequenzverhalten der Ergebnisse und Abhängigkeiten nach Ort und Zeit werden mit Hilfe der Fourier- und Wavelet-Transformation weiter analysiert. Als Resultat lässt sich die Existenz eines hochfrequenten Bandes für Geschwindigkeitsoszillationen mit einer zentralen Frequenz von 75 Sekunden (13 mHz) bestätigen. In größeren photosphärischen Höhen von etwa 500 km entstammt die Mehrheit der damit zusammenhängenden Schockwellen den dunklen Anteilen der Granulen, im Unterschied zu anderen Frequenzbereichen. Die 75-Sekunden-Oszillationen werden ebenfalls in der aktiven Region beobachtet, vor allem in der Lichtbrücke. In den identifizierten Bändern oszillatorischer Power der Geschwindigkeit sind in einer dunklen, penumbralen Struktur sowie in der Lichtbrücke ausgeprägte Strukturen erkennbar, die sich mit einer Horizontalgeschwindigkeit von 5-8 km/s in die ruhige Sonne bewegen. Diese zeigen einen deutlichen Anstieg der Power, vor allem im 5-Minuten-Band, und stehen möglicherweise in Zusammenhang mit dem Phänomen der „Evershed-clouds“. Eingeschränkt durch ein sehr geringes Signal-Rausch-Verhältnis und hohe Fehlereinflüsse werden auch Magnetfeldvariationen mit einer Periode von sechs Minuten am Übergang von Umbra zu Penumbra in der Nähe einer Lichtbrücke beobachtet. Um die beschriebenen Resultate zu erzielen, wurden bestehende Visualisierungsverfahren der Frequenzanalyse verbessert oder neu entwickelt, insbesondere für Ergebnisse der Wavelet-Transformation.
Zellbasierte heterologe Expressionssysteme bieten ein einfaches und schnelles Verfahren, um neue Süßstoffe oder Süßverstärker zu finden. Unter Verwendung eines solchen Testsystems, konnte ich in Zusammenarbeit mit der Symrise AG, Holzminden und dem Institut für Pflanzenbiochemie in Halle/Saale die vietnamesische Pflanze Mycetia balansae als Quelle eines neuen Süßstoffs identifizieren. Deren Hauptkomponenten, genannt Balansine, aktivieren spezifisch den humanen Süßrezeptor. Chimäre Rezeptoren zeigten, dass die amino-terminalen Domänen der Süßrezeptoruntereinheiten, welche ein Großteil der Liganden des Süßrezeptors binden, für dessen Aktivierung durch Balansin A nicht notwendig sind.
Voraussetzung für die Anwendung zellbasierter Testsysteme zum Auffinden neuer Süßstoffe ist jedoch, dass süße Substanzen gesichert identifiziert werden, während nicht süße Substanzen zuverlässig keine Rezeptoraktivierung aufweisen. Während in HEK293 TAS1R2 TAS1R3To Galpha15i3-Zellen Süßrezeptoraktivierung gegenüber nicht süß schmeckenden Substanzen beobachtet wurde, konnte mit den HEK293PEAKrapid Galpha15-Zellen ein zuverlässiges Testsystem identifiziert, welches den Süßgeschmack der untersuchten Substanzen widerspiegelte.
Es fanden sich keine Hinweise, dass akzessorische Proteine oder verwandte Rezeptoren des Süßrezeptors das unterschiedliche Verhalten der Zellen verursachen. Es konnte gezeigt werden, dass die Verwendung unterschiedlicher G-Proteine die Signalamplituden des Süßrezeptors beeinflusst, die Unterschiede zwischen den Zellsystemen jedoch nicht vollständig erklärt. Keine der untersuchten Galpha-Proteinchimären spiegelte die intrinsische Süße der Substanzen wider.
Wenn auch nicht ursächlich für die Diskrepanz zwischen Süßrezeptoraktivierung in vitro und Süßgeschmack in vivo, so weisen die Ergebnisse dieser Arbeit auf eine Interaktion der Süßrezeptoruntereinheiten mit dem humanen Calcium-sensing Rezeptor hin. Vanillin und Ethylvanillin konnten als neue Agonisten des Calcium-sensing Rezeptors identifiziert werden.
Wie die vorliegende Arbeit zeigt, können sich kleine Unterschiede im Zellhintergrund deutlich auf die Funktionsweise heterolog exprimierter Rezeptoren auswirken. Dies zeigt wie wichtig die Wahl der Zellen für solche Screeningsysteme ist.
"Kinderwelt ist Bewegungswelt" (Schmidt, 1997, S. 156, zitiert nach Schmidt, Hartmann-Tews & Brettschneider, 2003, S. 31). Das kindliche Bewegungsverhalten hat sich bereits im Grundschulalter verändert, so dass sich Bewegungsaktivitäten von Kindern erheblich unterscheiden und keineswegs mehr verallgemeinert werden können. Richtet man den Fokus auf die Frage „Wie bewegt sind unsere Kinder?“ so scheint diese von den Medien bereits beantwortet zu sein, da dort von ansteigendem Bewegungsmangel der heutigen Kinder gegenüber früheren Generationen berichtet wird. Wenn es in den Diskussionen um den Gesundheitszustand unserer Kinder geht, nimmt die körperlich-sportliche Aktivität eine entscheidende Rolle ein. Bewegungsmangel ist hierbei ein zentraler Begriff der in der Öffentlichkeit diskutiert wird. Bei der Betrachtung der einzelnen Studien fällt auf, dass deutliche Defizite in der Messung der körperlich-sportlichen Aktivität bestehen. Zentraler Kritikpunkt in den meisten Studien ist die subjektive Erfassung der körperlich-sportlichen Aktivität. Ein Großteil bisheriger Untersuchungen zum Bewegungsverhalten basiert auf Beobachtungen, Befragungen oder Bewegungstagebüchern. Diese liefern ausschließlich zum Teil subjektive Einschätzungen der Kinder oder Eltern über die tatsächliche Bewegungszeit und -intensität. Das objektive Erfassen der Aktivität bzw. Inaktivität ist zwar seit einigen Jahren zentraler Gegenstand vieler Studien, dennoch gilt es, dieses noch sachkundiger zu lösen, um subjektive und objektive Daten zu vergleichen. Um dem Bewegungsmangel der heutigen Kinder entgegenzuwirken, sind empirisch abgesicherte Erkenntnisse über die Bedingungsfaktoren und die Folgen des veränderten Bewegungsverhaltens dringend nötig. Die Quer- und Längsschnittuntersuchung umfasst die Bereiche Anthropometrie, die Erfassung der körperlich-sportlichen Aktivität und die Herzfrequenzmessung über 24h. Für die Studie konnten 106 Jungen und Mädchen im Zeitraum von Januar 2007 bis April 2009 rekrutiert und überprüft werden. Die physiologischen Parameter wurden mit Hilfe des ACTIHEART-Messsytems aufgezeichnet und berechnet. Die Ergebnisse zur körperlich-sportlichen Aktivität wurden in die Untersuchungsabschnitte Schulzeit gesamt, Pause, Sportunterricht, Nachmittag und 24h unterteilt. Durch das Messsystem werden die Bewegungsaktivität und die Herzfrequenz synchron aufgezeichnet. Das System nimmt die Beschleunigungswerte des Körpers auf und speichert sie im frei wählbaren Zeitintervall, Short oder Long Term, in Form von „activity counts“ ab. Das Messsytem berechnet weiterhin die Intensität körperlicher Aktivität.
Im Bereich der medizinischen Diagnostik spielen DNA-Chips eine immer wichtigere Rolle. Dabei werden Glas- oder Silikon-Oberflächen mit Tausenden von einzelsträngigen DNA-Fragmenten, sog. Sonden, bestückt, die mit den passenden DNA-Fragmenten in der zugefügten Patientenprobe verschmelzen. Die Auswertung solcher Messungen liefert die Diagnose für Krankheiten wie z.B. Krebs, Alzheimer oder für den Nachweis pathogener Erreger. Durch fortschreitende Miniaturisierung dieser Meßsysteme können bis zu 40.000 Genfragmente des Menschen in einer einzigen Messung analysiert werden. Neben den DNA-Fragmenten können Bio-Chips auch für andere biologische Komponenten wie Antikörper und Proteine eingesetzt werden, wobei bei letzteren neben der Bindung auch die Aktivität ein wichtiger Diagnoseparamter ist. Am Fraunhofer-Institut für medizinische Technik und am Lehrstuhl für Analytische Biochemie der Universität Potsdam wurden im Rahmen einer Doktorarbeit Methoden entwickelt, die es ermöglichen auf nukleinsäuremodifizierten Sensoroberflächen die Aktivität von Proteinen zu messen. Es wurden Nukleinsäuren auf Oberflächen optischer Sensoren verankert. Diese fungierten als Rezeptor für die Proteine sowie auch als Substrat für Restriktionsenzyme, die Nukleinsäuren schneiden und Polymerasen, die Nukleinsäuren synthetisieren und verlängern können. Seine Anwendung fand diese Messmethode in der Messung der Aktivität des Proteins Telomerase, das in 90% aller Tumore erhöhte Aktivität gegenüber gesunden Zellen aufweist. Die Vorteile dieses neuen Assays gegenüber älteren Methoden liegt im Verzicht auf radioaktiv-markierten Komponenten und einer deutlich verkürzten Analysezeit. Die Arbeit schliesst mit einem funktionsfähigen Nachweis der Telomeraseaktivität im Zellextrakt von gesunden und kranken Zellen. Der direkte Einfluß von Hemmstoffen auf die Aktivität konnte sichtbar gemacht werden, und steht daher bei der Entwicklung neuer Tumor-Diagnostika und Therapeutika zur Verfügung.
1. Problemstellung und Relevanz des Themas Die deutsche Hochschullandschaft hat in den letzten Jahren zahlreiche Veränderungen bewältigen müssen und steht weiterhin großen Herausforderungen gegenüber, durch welche sich zunehmend wettbewerbsähnliche Merkmale in diesem Sektor verfestigen: • Umstellung auf international vergleichbare Studiengänge • Neuregelung der Studienplatzvergabe • Einführung von Studiengebühren in einigen Bundesländern • Leistungsindikatoren zur Verteilung der staatlichen Haushaltsmittel • Demographischer Wandel Eine Bildungseinrichtung besitzt mehrere Anspruchsgruppen: die Studierenden, welche Bildungsleistungen nachfragen, den Staat, der für die Leistungen zahlt, die Öffentlichkeit, die an Grundlagenforschungen interessiert ist und schließlich die Wirtschaft, die Absolventen rekrutiert (vgl. Berthold, C. 2001, S.431). Die Hochschulen befinden sich untereinander verstärkt im Wettbewerb um qualifizierte (und ggf. zahlungswillige) Studierende, um finanzielle Mittel vom Staat oder aus der Privatwirtschaft und um renommierte Wissenschaftler. Hochschulen müssen sich nun den veränderten Bedingungen anpassen, um auch weiterhin im nationalen und internationalen Wettbewerb überlebensfähig zu bleiben. Grundsätzlich kann sich hierbei an in der Privatwirtschaft erfolgreich eingesetzten Marketinginstrumenten orientiert werden. 2. Zielsetzung und Aufbau der Arbeit Nach einer Analyse der oben genannten Rahmenbedingungen, wird im ersten Teil dieser Arbeit gezeigt, welche Erkenntnisse aus dem Marketing auf Hochschulen übertragen werden können. Dabei werden sowohl strategische Fragen beleuchtet als auch die Instrumente des Marketing-Mix vorgestellt. In einer anschließenden Untersuchung wurden Faktoren bestimmt, welche sich positiv auf den Entwicklungsstand von Marketingaktivitäten an Hochschulen auswirken. Dabei konnten - beispielhaft für die Region Berlin/Brandenburg - sechs verschiedene Hochschultypen identifiziert werden. Diese weisen, in Abhängigkeit der verschiedenen Eigenschaften der jeweiligen Institutionen, einen unterschiedlichen Entwicklungsstand oder ein anderes Verständnis von Hochschulmarketing auf. Aufgrund dessen erscheinen für sie jeweils andere Marketingstrategien empfehlenswert. Die größte Rolle für den differenzierten Status quo im Hochschulmarketing an Berliner und Brandenburger Hochschulen spielt die Stärke des äußeren Drucks unter dem sich die Hochschule befindet, um ihre Auslastung und die notwendige finanzielle Ausstattung sicherzustellen. Ferner unterscheiden sich die Hochschulleitungen erheblich in ihrem Engagement und der Bereitschaft, diesen Herausforderungen mit Marketinginstrumenten zu begegnen. Trotz der gestiegenen Anzahl von Beiträgen zur Notwendigkeit der Einführung von ökonomischen Überlegungen auch im Hochschulmanagement gibt es viele Kritiker, die ein Ende der Freiheit für Forschung und Lehre prophezeien, wenn der Marketing-Gedanke verstärkt auch an Bildungseinrichtungen Einzug hält. Unumstritten ist, dass Managementansätze aus der privaten Wirtschaft nicht ohne weiteres auf eine Hochschule adaptiert werden können. Wahrscheinlich besteht jedoch die größere Gefahr für Freiheit und Erfolg von Forschung und Lehre in der Missachtung dieser aktuellen Tendenzen (vgl. Tutt 2006, S. 171)!
Inhalt: 1 Einleitung 2 Familienpolitik 2.1 Was ist „Familie“? 2.2 Begriffsbestimmung - Familienpolitik 2.2.1 Kurzer Rückblick: Wandel der familialen Lebensform im Industriezeitalter 2.2.2 Warum Familienpolitik? Strukturelle Veränderungen der familialen Lebensform 2.2.3 Familienpolitische Wirkung auf die Bevölkerung 2.3 Wohlfahrtslogiken nach Gøsta Esping-Andersen 2.4 Familienpolitische Leistungen in Schweden, Großbritannien und Deutschland 2.4.1 Monetäre Leistungen und Fiskalpolitik 2.4.2 Zeitwerte Anrechte 2.4.3 Infrastrukturelle Angebote der Kinderbetreuung 3 Fazit und Ausblick
Aktuelle Fragen des Menschenrechtsschutzes : 1. Potsdamer Menschenrechtstag am 26. Oktober 2011
(2012)
Aus Anlass der Neubesetzung des Menschenrechtszentrums mit den Direktoren Prof. Dr. Andreas Zimmermann, LL.M. (Harvard) und Prof. Dr. Logi Gunnarsson fand am 26.10.2011 der Potsdamer Menschenrechtstag unter der Themenstellung „Aktuelle Fragen des Menschenrechtsschutzes“ statt. Ganz im Sinne der interdisziplinären Ausrichtung des MenschenRechtsZentrums der Universität Potsdam beschäftigten sich die beiden Direktoren in ihren Einführungsvorträgen aus ihrer jeweiligen Disziplin heraus mit philosophischen und rechtlichen Problemstellungen der Menschenrechte und ihres Schutzes.
Ortsteile als Untergliederungen der Gemeinden sind nicht nur für das Identitätsverständnis der lokalen Gemeinschaft bedeutsam, sondern auch für das Demokratieprinzip und die Verwirklichung der Ziele der Gebietsreform. Die Bildung von Ortsteilen unterliegt bestimmten gesetzlichen Voraussetzungen. Dabei sind drei verschiedene Ausgestaltungen möglich: Ortsteile ohne Vertretung, Ortsteile mit Ortsbeirat und Ortsvorsteher sowie Ortsteile mit isoliertem Ortsvorsteher. Die gewählte Form der Ortsteilvertretung hat Auswirkungen darauf, in welchem Umfang die örtliche Expertise in gemeindliche Entscheidungsprozesse einfließen kann und welche Entscheidungen vor Ort getroffen werden können. Dabei ist zwischen der Verpflichtung, die Ortsvertretung in bestimmten Konstellationen anzuhören, dem Antragsrecht der Ortsvertretung und der Entscheidungsbefugnis des Ortsbeirates zu differenzieren. Die Abgrenzung dieser organschaftlichen Rechte und ihr Umfang sind in der kommunalen Praxis konfliktträchtig. Für die Möglichkeiten der Ortsvertretungen, das lokale Zusammenleben zu gestalten, ist weiterhin das (mittlerweile) obligatorische Ortsteilbudget relevant, das Gegenstand der Reform der Kommunalverfassung im Juni 2021 war. Die Verwirklichung dieser materiellrechtlichen Positionen hängt von ihrer prozessualen Durchsetzbarkeit ab. In der Praxis rankt sich häufig Streit darum, ob Eingemeindungsverträge und die in ihnen getätigten Versprechen (noch) verbindlich sind. Diejenigen, die als Mitglieder des Ortsbeirates bzw. als Ortsvorsteher der örtlichen Gemeinschaft einen wichtigen und zeitintensiven Dienst erweisen, können eine angemessene Aufwandsentschädigung erhalten.
Der vorliegende Sammelband dokumentiert die Ergebnisse einer internationalen wissenschaftlichen Tagung - bereits der siebenten in Folge - des Instituts für Pädagogik der Universität Potsdam. Sie ist wesentlicher Bestandteil einer nun schon mehrjährigen vertraglichen Kooperation zwischen Wissen-schaftlern aus lehrerbildenden Hochschulen in Belarus’, in Polen (drei beteiligte Universitäten), in Russland sowie der Universität Potsdam. Die Tagung fand im September 2002 statt, diesmal auch (wieder) mit ungarischer Beteiligung. Die gemeinsame Begleitung und Reflexion der in den beteiligten Ländern verlaufenden Reformprozesse im Bildungswesen wird durch die finanzielle Förderung durch den Deutschen Akademischen Auslandsdienst (DAAD) möglich. Im Mittelpunkt der Analysen und Diskussionen auf der Tagung standen Situation, Problemfelder und Defizite in der aktuellen Lehreraus- und -weiterbildung sowie Ansätze zur Weiterentwicklung und Reformierung der Lehrerbildung in den beteiligten Ländern. Zunächst werden in einem Resümee die grundlegenden Ergebnisse der Tagung zusammengefasst. Ein-gangs dieses Resümees wird traditionsgemäß aktuelle Bilanz gezogen, wie die konkrete Bildungsreform im jeweiligen Land im vergangenen Jahr voran kam, welche Probleme sichtbar wurden. In 15 Einzelbeiträgen wird ein facettenreiches Bild von Strukturen, Problemlagen und Entwicklungen in der Lehrerbildung der beteiligten Länder gezeichnet. Dazu werden aktuelle Ausbildungsformen einer kritischen Bilanz unterzogen und konkrete Anstrengungen und Perspektiven zur Weiterentwicklung und Qualifizierung der Lehrerbildung beschrieben.
Die Klangeigenschaften von Musikinstrumenten werden durch das Zusammenwirken der auf ihnen anregbaren akustischen Schwingungsmoden bestimmt, welche sich wiederum aus der geometrischen Struktur des Resonators in Kombination mit den verwendeten Materialien ergeben. In dieser Arbeit wurde das Schwingungsverhalten von Streichinstrumenten durch den Einsatz minimal-invasiver piezoelektrischer Polymerfilmsensoren untersucht. Die studierten Kopplungsphänomene umfassen den sogenannten Wolfton und Schwingungstilger, die zu dessen Abschwächung verwendet werden, sowie die gegenseitige Beeinflussung von Bogen und Instrument beim Spielvorgang. An Dielektrischen Elastomeraktormembranen wurde dagegen der Einfluss der elastischen Eigenschaften des Membranmaterials auf das akustische und elektromechanische Schwingungsverhalten gezeigt. Die Dissertation gliedert sich in drei Teile, deren wesentliche Ergebnisse im Folgenden zusammengefasst werden.
In Teil I wurde die Funktionsweise eines abstimmbaren Schwingungstilgers zur Dämpfung von Wolftönen auf Streichinstrumenten untersucht. Durch Abstimmung der Resonanzfrequenz des Schwingungstilgers auf die Wolftonfrequenz kann ein Teil der Saitenschwingungen absorbiert werden, so dass die zu starke Anregung der Korpusresonanz vermieden wird, die den Wolfton verursacht. Der Schwingungstilger besteht aus einem „Wolftöter“, einem Massestück, welches auf der Nachlänge der betroffenen Saite (zwischen Steg und Saitenhalter) installiert wird. Hier wurde gezeigt, wie die Resonanzen dieses Schwingungstilgers von der Masse des Wolftöters und von dessen Position auf der Nachlänge abhängen. Aber auch die Geometrie des Wolftöters stellte sich als ausschlaggebend heraus, insbesondere bei einem nicht-rotationssymmetrischen Wolftöter: In diesem Fall entsteht – basierend auf den zu erwartenden nicht-harmonischen Moden einer massebelasteten Saite – eine zusätzliche Mode, die von der Polarisationsrichtung der Saitenschwingung abhängt.
Teil II der Dissertation befasst sich mit Elastomermembranen, die als Basis von Dielektrischen Elastomeraktoren dienen, und die wegen der Membranspannung auch akustische Resonanzen aufweisen. Die Ansprache von Elastomeraktoren hängt unter anderem von der Geschwindigkeit der elektrischen Anregung ab. Die damit zusammenhängenden viskoelastischen Eigenschaften der hier verwendeten Elastomere, Silikon und Acrylat, wurden einerseits in einer frequenzabhängigen dynamisch-mechanischen Analyse des Elastomers erfasst, andererseits auch optisch an vollständigen Aktoren selbst gemessen. Die höhere Viskosität des Acrylats, das bei tieferen Frequenzen höhere Aktuationsdehnungen als das Silikon zeigt, führt zu einer Verminderung der Dehnungen bei höheren Frequenzen, so dass über etwa 40 Hertz mit Silikon größere Aktuationsdehnungen erreicht werden. Mit den untersuchten Aktoren konnte die Gitterkonstante weicher optischer Beugungsgitter kontrolliert werden, die als zusätzlicher Film auf der Membran installiert wurden. Über eine Messung der akustischen Resonanzfrequenz von Elastomermebranen aus Acrylat in 1Abhängigkeit von ihrer Vorstreckung konnte in Verbindung mit einer Modellierung des hyperelastischen Verhaltens des Elastomers (Ogden-Modell) der Schermodul bestimmt werden.
Schließlich wird in Teil III die Untersuchung von Geigen und ihrer Streichanregung mit Hilfe minimal-invasiver piezoelektrischer Polymerfilme geschildert. Es konnten am Bogen und am Steg von Geigen – unter den beiden Füßen des Stegs – jeweils zwei Filmsensoren installiert werden. Mit den beiden Sensoren am Steg wurden Frequenzgänge von Geigen gemessen, welche eine Bestimmung der frequenzabhängigen Stegbewegung erlaubten. Diese Methode ermöglicht damit auch eine umfassende Charakterisierung der Signaturmoden in Bezug auf die Stegdynamik. Die Ergebnisse der komplementären Methoden von Impulsanregung und natürlichem Spielen der Geigen konnten dank der Sensoren verglichen werden. Für die Nutzung der Sensoren am Bogen – insbesondere für eine Messung des Bogendrucks – wurde eine Kalibrierung des Bogen-Sensor-Systems mit Hilfe einer Materialprüfmaschine durchgeführt. Bei einer Messung während des natürlichen Spielens wurde mit den Sensoren am Bogen einerseits die Übertragung der Saitenschwingung auf den Bogen festgestellt. Dabei konnten außerdem longitudinale Bogenhaarresonanzen identifiziert werden, die von der Position der Saite auf dem Bogen abhängen. Aus der Analyse dieses Phänomens konnte die longitudinale Wellengeschwindigkeit der Bogenhaare bestimmt werden, die eine wichtige Größe für die Kopplung zwischen Saite und Bogen ist. Mit Hilfe des Systems aus Sensoren an Bogen und Steg werden auf Grundlage der vorliegenden Arbeit Studien an Streichinstrumenten vorgeschlagen, in denen die Bespielbarkeit der Instrumente zu den jeweils angeregten Steg- und Bogenschwingungen in Beziehung gesetzt werden kann. Damit könnte nicht zuletzt auch die bisher nicht vollständig geklärte Rolle des Bogens für Klang und Bespielbarkeit besser beurteilt werden
Das Metabolische Syndrom stellt eine Kombination verschiedener metabolischer Anomalien in einem Individuum dar. Starkes Übergewicht gilt als maßgebende Größe in der Genese des Syndroms, welches mit einem enormen Risiko für kardiovaskuläre Erkrankungen einhergeht. Um die stark steigende Prävalenz des Metabolischen Syndroms einzudämmen, sind dringend Konzepte für die Behandlung, vor allem jedoch für die Prävention von Übergewicht erforderlich. Einen wichtigen Beitrag leisten diesbezüglich Ballaststoffe in der Ernährung. Sie tragen auf unterschiedlichen Wegen zur Gewichtskontrolle bei und beeinflussen zudem verschiedene mit dem Metabolischen Syndrom assoziierte Blutparameter. Ebenso werden protektive Effekte von Polyphenolen, welche zur Gruppe der sekundären Pflanzenstoffe zählen, beschrieben. Diese wirken u. a. auf den Glukose- sowie den Insulinhaushalt und greifen darüber hinaus in die Regulation der Fettverbrennung sowie des Energieverbrauches ein. Die Kombination beider Substanzgruppen verspricht bedeutendes gesundheitsförderndes Potential; dieses wurde gegenwärtig jedoch kaum untersucht. Carobballaststoff ist ein polyphenolreicher und vorwiegend unlöslicher Extrakt der Frucht des Johannisbrotbaumes (Ceratonia siliqua L). Bislang publizierte Studien zur physiologischen Wirksamkeit dieses Ballaststoffpräparates weisen sowohl beim Tier als auch beim Menschen bemerkenswerte hypocholesterinämische Eigenschaften nach. Inwiefern sich der Verzehr des Carobballaststoffes ebenso auf die Entwicklung von Übergewicht sowie anderen Messgrößen des Metabolischen Syndroms auswirkt, ist allerdings nicht bekannt. Die Zielstellung der Promotionsarbeit bestand darin, die postprandialen Wirkungen des Carobballaststoffverzehrs mit Hilfe einer Humanstudie aufzuzeigen. In die randomisierten, einfach verblindeten Untersuchungen im cross-over-Design wurden 20 gesunde Erwachsene im Alter zwischen 22 und 62 Jahren eingeschlossen. Unter Verwendung variierender Begleitmahlzeiten wurden die postprandialen Effekte verschiedener Mengen des Carobballaststoffes untersucht. Hierbei standen die Veränderungen der Plasmakonzentrationen von Glukose, Triglyceriden (TG), totalem und acyliertem Ghrelin sowie der Serumkonzentrationen von Insulin und nicht-veresterten Fettsäuren (NEFA) im Mittelpunkt der Betrachtungen. Der Verzehr des Carobballaststoffes in Kombination mit 200 ml Wasser und 50 g Glukose erhöhte die postprandialen Glukose- und Insulinkonzentrationen gegenüber der Glukoselösung ohne Ballaststoffzusatz. In Kombination mit 400 ml einer Flüssigmahlzeit verzehrt, senkte Carobballaststoff die postprandialen TG-, NEFA- und Ghrelin- (acyliert) Antworten. Die Untersuchung des respiratorischen Quotienten nach Zusatz von Carobballaststoff zur Flüssigmahlzeit mittels indirekter Respirationskalorimetrie bekräftigte die bereits bekannten Effekte auf den Lipidmetabolismus und wies zudem eine Steigerung der Fettverwertung unter Verminderung der Glukoseoxidation nach. Wurde Carobballaststoff schließlich in Lebensmittel eingebracht, sanken nach dem Verzehr dieser Lebensmittel erneut die postprandialen Konzentrationen an TG und NEFA. Gleichzeitig erhöhten sich die Glukose-, Insulin- sowie Ghrelin- (acyliert) Antworten. Carobballaststoff löst in Abhängigkeit von der jeweils verzehrten Begleitmatrix unterschiedliche Effekte aus. Das Präparat weist beachtliche Wirkungen auf die Blutlipide sowie den Energieverbrauch auf, hat indes ungünstige Wirkungen auf die Blutglukose, sofern er in Kombination mit einer veränderten Nährstoffmatrix aufgenommen wird. Carobballaststoff besitzt starkes gesundheitsförderndes Potential; jedoch sind weitere Studien notwendig, um seine Wirkungen sowie deren Voraussetzungen besser zu verstehen. Ferner sollten Untersuchungen über einen längeren Zeitraum vorgenommen werden, um die langfristige Relevanz der gewonnenen Ergebnisse darzulegen. Danach stellt die Anreicherung spezieller Lebensmittel mit Carobballaststoff einen geeigneten Weg dar, um von den viel versprechenden protektiven Wirkungen des Präparates zu profitieren.
Für die vorliegende Studie »Qualitative Untersuchung zur Akzeptanz des neuen Personalausweises und Erarbeitung von Vorschlägen zur Verbesserung der Usability der Software AusweisApp« arbeitete ein Innovationsteam mit Hilfe der Design Thinking Methode an der Aufgabenstellung »Wie können wir die AusweisApp für Nutzer intuitiv und verständlich gestalten?« Zunächst wurde die Akzeptanz des neuen Personalausweises getestet. Bürger wurden zu ihrem Wissensstand und ihren Erwartungen hinsichtlich des neuen Personalausweises befragt, darüber hinaus zur generellen Nutzung des neuen Personalausweises, der Nutzung der Online-Ausweisfunktion sowie der Usability der AusweisApp. Weiterhin wurden Nutzer bei der Verwendung der aktuellen AusweisApp beobachtet und anschließend befragt. Dies erlaubte einen tiefen Einblick in ihre Bedürfnisse. Die Ergebnisse aus der qualitativen Untersuchung wurden verwendet, um Verbesserungsvorschläge für die AusweisApp zu entwickeln, die den Bedürfnissen der Bürger entsprechen. Die Vorschläge zur Optimierung der AusweisApp wurden prototypisch umgesetzt und mit potentiellen Nutzern getestet. Die Tests haben gezeigt, dass die entwickelten Neuerungen den Bürgern den Zugang zur Nutzung der Online-Ausweisfunktion deutlich vereinfachen. Im Ergebnis konnte festgestellt werden, dass der Akzeptanzgrad des neuen Personalausweises stark divergiert. Die Einstellung der Befragten reichte von Skepsis bis hin zu Befürwortung. Der neue Personalausweis ist ein Thema, das den Bürger polarisiert. Im Rahmen der Nutzertests konnten zahlreiche Verbesserungspotenziale des bestehenden Service Designs sowohl rund um den neuen Personalausweis, als auch im Zusammenhang mit der verwendeten Software aufgedeckt werden. Während der Nutzertests, die sich an die Ideen- und Prototypenphase anschlossen, konnte das Innovtionsteam seine Vorschläge iterieren und auch verifizieren. Die ausgearbeiteten Vorschläge beziehen sich auf die AusweisApp. Die neuen Funktionen umfassen im Wesentlichen: · den direkten Zugang zu den Diensteanbietern, · umfangreiche Hilfestellungen (Tooltips, FAQ, Wizard, Video), · eine Verlaufsfunktion, · einen Beispieldienst, der die Online-Ausweisfunktion erfahrbar macht. Insbesondere gilt es, den Nutzern mit der neuen Version der AusweisApp Anwendungsfelder für ihren neuen Personalausweis und einen Mehrwert zu bieten. Die Ausarbeitung von weiteren Funktionen der AusweisApp kann dazu beitragen, dass der neue Personalausweis sein volles Potenzial entfalten kann.
Die Tötung Osama bin Ladens durch ein US-Sonderkommando Anfang Mai 2011, wenige Monate vor dem zehnten Jahrestag der verheerenden Terroranschläge vom 11. September, erhielt ein großes Maß an medialer Aufmerksamkeit. Der Tod des Mannes, der für die Terroranschläge verantwortlich gemacht wurde, führte zu einer erneuten Auseinandersetzung mit diesem Ereignis und dessen individuellen und globalen Folgen. Ausgangspunkt der Untersuchung dieses Pressediskurses ist die Annahme, dass eine solche gedankliche und sprachliche Auseinandersetzung, wie sie in der Presse kreiert und reflektiert wird, insbesondere auch von Metaphern bestimmt wird. Die Untersuchung stützt sich auf die Erkenntnisse kognitiver Metapherntheorien. Sie orientiert sich aber vor allem auch an jüngeren Untersuchungen innerhalb der Metaphernforschung, die speziell die sprachliche Dimension der Metapher wieder mehr in den Vordergrund rücken. Der Arbeit liegt daher ein multidimensionales Verständnis der Metapher zugrunde. Die kognitive Funktion der Metapher ermöglicht das Begreifbarmachen abstrakter bzw. unbekannter Phänomene. Metaphern können aber zugleich auch Indikatoren für die bewusste wie auch unbewusste Bewertung von Ereignissen, Handlungen und Personen sein. Die Untersuchung verfolgt einen vergleichenden Ansatz, der auf der Grundlage eines Arbeitskorpus aus US-amerikanischen und französischen Pressetexten zur Tötung bin Ladens den Metapherngebrauch in den beiden Ländern anhand ausgewählter Themenaspekte gegenüberstellt. Ziel der Untersuchung ist es, Gemeinsamkeiten und Unterschiede zwischen den beiden Landespressen zu identifizieren und diesbezüglich mögliche Interpretationen anzugeben. Dabei wird der Sprachgebrauch im Terror-Diskurs nach 9/11 einer kritischen Betrachtung unterzogen, um ein Bewusstsein für möglicherweise unbewusste metaphorische Konzeptualisierungen zu entwickeln. Im Vergleich des Metapherngebrauchs in der US-amerikanischen und französischen Presse werden deutliche Gemeinsamkeiten festgestellt. Die analysierten Unterschiede sind häufig sprachlich bedingt. Teilweise können sie aber auch im Hinblick auf Differenzen in der Positionierung der beiden Länder in Bezug auf bin Ladens Tötung interpretiert werden. Die weitgehende Übereinstimmung in den Metaphern lässt sich zum einen auf die Nähe der beiden Sprachen, zum anderen auf den ähnlichen politischen Hintergrund der beiden westlichen Länder zurückführen. Darüber hinaus wird die Hypothese aufgestellt, dass der verstärkt stattfindende internationale Austausch von Nachrichten, vor allem über Presseagenturen, auch zunehmend zu einer Globalisierung auf dem Gebiet der Metapher führt.
Alexander von Humboldt betätigte sich in unterschiedlichsten Wissensbereichen und vielen Disziplinen. Obwohl er natürlich kein Jurist war, hat er sich vielfach mit Problemen befasst, die zu seinen Lebzeiten und danach zu grundlegenden Fragen des in der Entstehung begriffenen Völkerrechts avancierten. So beschäftigte er sich mit dem Verbot der Sklaverei und der Abschaffung der Rassendiskriminierung, mit der Fixierung von territorialen Grenzen von Staaten, mit Seegrenzen, der Förderung des Welthandels und der Hoheitsgewalt im Luft- und im Weltraum. Viele dieser Fragen wurden später in internationalen Verträgen kodifiziert, weshalb man Humboldt als Vordenker des Völkerrechts bezeichnen kann. Diese von der internationalen Humboldt-Forschung bislang nicht als Forschungsfeld erkannte Dimension seines Wirkens wird nachfolgend erstmals vertiefend beleuchtet.
Der Aufsatz erschließt die Anfänge, Ergebnisse und Erfolge der editionsphilologischen Arbeit im laufenden Projekt des BBAW-Langzeitvorhabens „Alexander von Humboldt auf Reisen – Wissenschaft aus der Bewegung“ und gibt einen Überblick über die Zukünfte philologischen Arbeitens mit den Methoden der Digital Humanities. Dabei werden auch bibliophile Druckausgaben digitaler Publikationen und die kontinuierliche Öffentlichkeitsarbeit der Figur Alexander von Humboldts in den Blick genommen, was durch zahlreiche Vernetzungen zwischen Institutionen international gefördert und durch kontinuierliche Kooperationen insbesondere durch das neu gegründete Humboldt Center for Transdisciplinary Studies (HCTS) in China/Changsha erweitert wird. Diskutiert wird die wissenschaftliche Bedeutung der graphischen und visuellen Dimension des Humboldt’schen Archivs, die durch die digitale Aufbereitung des Materials Forscher:innen weltweit miteinander verbindet und neue Forschungskonzepte eröffnet.
Alexander von Humboldt im Netz" ist ein Projekt des Instituts für Romanistik der Universität Potsdam, unter der wissenschaftlichen Leitung von Prof. Dr. Ottmar Ette. Die Website verfolgt den Zweck - die weltweiten Aktivitäten zu dem großen Forscher und Gelehrten vorzustellen und zu bündeln - mehr Menschen mit dem Denken Alexander von Humboldts vertraut zu machen - einen Überblick über verschiedene Institutionen, Veranstaltungen, Tagungen, Ausstellungen, Projekte, Bibliotheken und vieles mehr zu geben.
Wie stark sich im Verlauf des zurückliegenden Vierteljahrhunderts der Bekanntheitsgrad Alexander von Humboldts in der deutschsprachigen Öffentlichkeit verändert hat, zeigen nicht nur Fernsehumfragen zu den berühmtesten Deutschen, in denen Alexander von Humboldt mittlerweile figuriert, oder Fernsehserien, die über aktuelle Expeditionen berichten und auf Humboldts Namen zurückgreifen. Am deutlichsten vielleicht belegt dies der enorme Erfolg von Daniel Kehlmanns Roman Die Vermessung der Welt, der ohne die zuvor skizzierte Entwicklung nicht denkbar gewesen wäre. Es ist vor diesem Hintergrund nicht nur reizvoll, sondern aufschlußreich, sich mit dem großen Erfolg dieses kleinen Romans zu beschäftigen. Worum geht es in Die Vermessung der Welt? Und wie läßt sich das »Phänomen Kehlmann« aus etwas größerer Distanz erklären?
Alexander von Humboldt hat im Verlauf eines langen Gelehrtenlebens geduldig an der Ausformulierung und Gestaltung einer Wissenschaft von der Welt gearbeitet, an der Vision von jenem Kosmos, dem er während der letzten Jahrzehnte seines Lebens seinen bis heute faszinierenden Entwurf einer physischen Weltbeschreibung widmete. Dabei bildete die selbstkritische Hinterfragung eigener, kulturell geprägter Forschungsansätze im Kontext jeweils spezifischer Kulturen des Wissens ein entscheidendes Kriterium seines wissenschaftlichen Handelns. Wissenschaft von der Welt ist bei Humboldt verbunden mit dem Anspruch, die Welt in ihren komplexen Zusammenhängen neu zu denken: transdisziplinär, interkulturell, kosmopolitisch. So verstanden ist Humboldt keineswegs der "letzte Universalgelehrte", sondern vielmehr Pionier und Vertreter einer neuen Wissenschaftskonzeption, deren Potentiale bis heute noch nicht ausgeschöpft sind.
Alexander von Humboldt verstand sich zwar sicher nicht als Direktor eines Museums, war aber sehr wohl der Welt der Museen, Bibliotheken und Archive nicht nur als Besucher und Leser, sondern auch als Sammler und Forscher verpflichtet. Durch seine Forschungsreisen nach Amerika und Asien vermehrte er im Verlauf eines langen Gelehrtenlebens viele Sammlungen durch eigene Sammeltätigkeit vor Ort. Seine Feldforschung blieb dabei nicht auf naturwissenschaftliche Aspekte begrenzt, sondern bezog ganz selbstverständlich auch die verschiedenartigsten kulturwissenschaftlichen Forschungsgegenstände mitein. Diese transdisziplinär agierende Praxis im Feld lässt sich zugleich als eine transareale, einzelne Areas übergreifende und damit im Sinne von TransArea Studies aus den Beziehungen, Zirkulationen und Wechselwirkungen jenseits des bloß Territorialen sich speisende Wissenschaftskonzeption begreifen. So lässt sich in seiner Auseinandersetzung mit der amerikanischen Tropenwelt eine doppelte transareale Relationalität erkennen, die einerseits intern die Tropenwelt unterschiedlicher Kontinente miteinander verbindet, andererseits aber extern die Tropen insbesondere mit den gemäßigten Zonen in Relation setzt, um dadurch erst globale Zusammenhänge - einschließlich der sich verändernden Schneegrenzen oder der Wanderungsbewegungen der Pflanzenformen, für die sich die mobile Wissenschaft Humboldts in besonderem Maße interessierte - skizzieren und erläutern zu können. Die Tropen sind für ihn die Zone höchster Mannigfaltigkeit und Vielverbundenheit - oder um es mit heutigen Begriffen zum Ausdruck zu bringen: die TransArea par excellence.
Für Margot Faak (1926–2015)
Am 14. Juni 2015 starb unsere Kollegin Margot Faak im 89. Lebensjahr. Wir erinnern an sie mit Worten des Abschieds von Eberhard Knobloch und dem Wiederabdruck eines Aufsatzes aus ihrer Feder von 1999.
Die Neuveröffentlichung erfolgt mit freundlicher Genehmigung der Alexander von Humboldt-Stiftung.
Der Text wurde in den Fußnoten durch einige aktuelle bibliographische und sachliche Angaben ergänzt.
HiN VII, 13 (2006) war Margot Faak zu ihrem 80. Geburtstag gewidmet. Das Heft enthält einen Lebenslauf und ein Verzeichnis ihrer Schriften.
Berlin, Oktober 2015
Regina Mikosch und Ingo Schwarz
Das von Alexander von Humboldt ab 1804 oder später verfasste Manuskript „Isle de Cube. Antilles en général“ wurde erst kürzlich zum ersten Mal veröffentlicht. Es stellt die Grundlage für den Essai politique sur l‘île de Cuba (1826) dar, der als das „wichtigste liberale Manifest des 19. Jahrhunderts gegen die Sklaverei“ gilt. Ziel der Untersuchung ist, die textgenetische inhaltliche und stilistische Entwicklung vom Manuskript zur Publikation ansatzweise nachverfolgen zu können, um Rückschlüsse auf Humboldts Arbeitsweise und Strategien als Autor mit einem politischen Anliegen zu ziehen.
Der fünfteilige Aufsatz zeigt zunächst Ähnlichkeiten zwischen Humboldts Weltbild und dem Weltbild der Pythagoreer auf und untersucht Humboldts Naturbegriff, der beides umfasst: Die natura naturans und die natura naturata. Zahlen sind Mächte des Kosmos. Sie treten insbesondere in der ‚einzig entscheidenden Methode‘ auf, der Methode der Mittelwerte. Diese ermöglicht, das Gesetz zu erkennen, das der Änderung variabler Größen zugrunde liegt. Beispiele bieten die Arithmetica botanica und der Erdmagnetismus. Abschließend wird gezeigt, wie Humboldt die drei möglichen Weltzugänge Denken, Handeln, Anschauen im Begriff Wissen miteinander verband.
Algorithmen als Dozierende?
(2023)
Auf maschinellem Lernen basierende Tools haben schon längst Einzug in unseren Alltag gefunden und so konnten auch in der Lehrkräftebildung erste Anwendungen entwickelt, erprobt und evaluiert werden. Im Teilprojekt Physikdidaktik des Schwerpunktes 2 „Schulpraktische Studien“ wurden auf Basis eines Rahmenmodells für Reflexion (Nowak et al., 2019) automatisierte Analysemethoden (Wulff et al., 2020) entwickelt und fanden Einzug in universitäre fachdidaktische Lehre (Mientus et al., 2021a). Mit dem Projekt konnten Potenziale KI-basierter Unterstützung aufgezeigt und verstetigt sowie spezifische Herausforderungen identifiziert werden. Dieser Beitrag skizziert ausgewählte Anwendungsmöglichkeiten und weiterführende Forschungen unter dem Gesichtspunkt der Akzeptanz computerunterstützter Lehre.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
Alles auf (Studien)anfang!
(2017)
Alles auf (Studien-)Anfang? Faktoren für den Studienerfolg in der Eingangsphase und zur Studienmitte
(2020)
Die hohen Abbruchquoten, insbesondere in der Studieneingangsphase, haben die Hochschulen in Deutschland veranlasst, eine Vielzahl von Maßnahmen zu ergreifen, über deren Wirkungen bisher allerdings wenig bekannt ist. Im vorliegenden Beitrag werden Befunde eines Forschungsprojekts speziell zur Studieneingangsphase sowie ergänzend zur Studienmitte vorgestellt, dessen Ziel es war, Bedingungen eines erfolgreichen Studieneinstiegs zu identifizieren und Empfehlungen für eine Optimierung des Studieneingangs abzuleiten. Das Forschungsdesign umfasste neben qualitativen Studien vor allem eine quantitative Längsschnittbefragung an fünf Universitäten (Potsdam, Mainz, Magdeburg, Kiel und Greifswald). Im Ergebnis der Analysen konnte die forschungsleitende Hypothese, dass Maßnahmen zum Studieneingang vor allem dann zur Erhöhung des Studienerfolgs einen Beitrag leisten, wenn sie zur akademischen und sozialen Integration in die Hochschule beitragen, bestätigt werden. Bedeutsam für den Studienerfolg sind demnach insbesondere solche Faktoren wie die Identifikation mit dem Studienfach, die Selbstwirksamkeit, die berufliche bzw. erfolgsorientierte Lernmotivation und die akademische Integration. Daneben konnte ein positiver Einfluss des sozialen Klimas sowie des Forschungs- und Praxisbezugs auf die Studienzufriedenheit nachgewiesen werden. Weiterführende Analysen zur Studienmitte verdeutlichen zudem, dass für die beiden Studienphasen (Eingang und Studienmitte) gleiche Faktoren bei zum Teil unterschiedlicher Gewichtung eine Rolle spielen. So ist die soziale Integration ein wesentlicher Prädiktor in beiden Phasen – in der Eingangsphase eher in die Studierendenschaft und im weiteren Studienverlauf (Studienmitte) eher in die akademische Gemeinschaft (in Form von Lehrenden). Insofern muss die Eingangsfrage wie folgt beantwortet werden: Ja, alles auf Anfang, aber dann mit den Bemühungen, soziale und akademische Integration aller Studierenden voll und ganz zu gewährleisten. Zudem machen die Befunde auf die bisher offenbar unterschätzte Rolle von Verwertungsmotiven aufmerksam.
Alles auf Anfang!
(2019)
Im Zuge der Bologna-Reform ist an Hochschulen vieles in Bewegung gekommen. Studium und Lehre sind stärker ins Blickfeld gerückt. Dabei kommt der Studieneingangsphase besondere Bedeutung zu, werden doch hier die Weichen für ein erfolgreiches Studium gestellt. Deshalb ist es verständlich, dass die Hauptanstrengungen der Hochschulen auf den Studieneingang gerichtet sind – ganz nach dem Motto: „Auf den Anfang kommt es an!“. Konsens herrscht dahingehend, dass der Studieneingang neu zu gestalten ist, doch beim „Wie?“ gibt es unterschiedliche Antworten. Zugleich wird immer deutlicher, dass eine wirksame Neugestaltung der Eingangsphase nur mit einer umfassenden Reform des Studiums gelingen kann.
Ziel des vierten Bandes der Potsdamer Beiträge zur Hochschulforschung ist es, eine Zwischenbilanz der Debatte zum Studieneingang zu ziehen. Auf der Basis empirischer Studien werden unterschiedliche Perspektiven auf den Studieneingang eingenommen und Empfehlungen zur Optimierung des Studieneingangs abgeleitet. Die zahlreichen Untersuchungsergebnisse Potsdamer Forschergruppen werden durch weitere nationale sowie internationale Perspektiven ergänzt. Der Band richtet sich an alle, die sich für die Entwicklung an Hochschulen interessieren.
Alles auf Anfang! Für alle?
(2019)
Die Dissertation befasst sich mit einem aktuellen Thema, das im Überschneidungsbereich von Politischer Geographie und Sozialgeographie angesiedelt ist. Es geht um die Frage, wie alltägliche Prozesse der Aneignung des Raumes durch die Wohnbevölkerung entlang der rumänisch-moldauischen Grenze funktionieren, und zwar unter den Bedingungen, die seit dem Beitritt Rumäniens zur EU am 1. Januar 2007 gegeben sind. Seitdem gelten für die Staatsbürger der Republik Moldau verschärfte Regeln für die Einreise in Rumänien. Denn die Grenze zwischen den beiden Staaten ist nun auch EU-Außengrenze. Bei der Beantwortung dieser Frage werden in der Arbeit die seit der Unabhängigkeit der Republik Moldau im Jahre 1991 und den Beitritten Rumäniens zur NATO und zur EU sich verändernden politischen Rahmenbedingungen im Zusammenhang mit ökonomischen Strukturen und Prozessen sowie nationalen und nationalistischen Ideologien und ihren Wirkungen in der Republik Moldau und in Rumänien berücksichtigt. Dabei wird besonders beachtet, dass 1. auf beiden Seiten der Grenze Rumänisch gesprochen wird sowie aus Sicht des Panrumänismus ein und dieselbe Nation lebt und dass 2. in der Republik Moldau seit den 1990er Jahren vor allem von Seiten der Politik ein moldauisches Nation-Building betrieben wird. Aus den Untersuchungsergebnissen werden Handlungsempfehlungen für Politik und Verwaltung abgeleitet, welche auf die Verbesserung der Lebensbedingungen der Grenzraumbevölkerung abzielen.
Inhalt 1 Einführung und Grundlagen 1.1 Problemstellung und Vorgehensweise 1.2 Ordnungsökonomische Systematisierung 1.3 „Neue“ Besonderheitenlehre für Netzindustrien 2 Ansatzpunkte zur Liberalisierung in Netzindustrien 2.1 Liberalisierung durch Privatisierung 2.1.1 Interdependenz von Privatisierung und Marktöffnung 2.1.2 Privatisierungsstufen 2.2 Liberalisierung durch Deregulierung und Re-Regulierung 2.2.1 Abgrenzung des relevanten Marktes: Netzinfrastruktur versus Netzdienstleistungen 2.2.2 Lokalisierung und Kontrolle von Marktmacht bei Netzinfrastruktur 2.3 Modelle zur Gewährleistung eines diskriminierungsfreien Netzzugangs 2.3.1 Verhandelter Netzzugang mit Missbrauchsaufsicht im Sinne der Essential-Facilities-Doktrin 2.3.2 Staatliche Regulierung des Netzzugangs 2.4 Theorie der vertikalen (Des-)Integration 2.4.1 Allokativ-statische, wohlfahrtsökonomische Analyse vertikaler Integration 2.4.2 Institutionenökonomische Analyse vertikaler Integration 2.4.3 Dynamische, wettbewerbsökonomische Analyse vertikaler Integration 2.4.4 Konsequenz: Vertikale Desintegration 3 Institutionelle Ausgestaltung der Wettbewerbsaufsicht 3.1 Systematisierung der Träger und Kompetenzabgrenzung 3.2 Kriterien für eine effiziente Wettbewerbsaufsicht 4 Schlussfolgerungen und intersektoraler Vergleich des Liberalisierungsprozessesin Netzindustrien
Der vorliegende Beitrag untersucht das Potential und die Bedingungen alternativer Regulierungsformen vor dem Hintergrund von Better Regulation in Deutschland. Nahezu alle EU- und OECD-Staaten betreiben heute umfassende politische Reformprogramme zur Modernisierung der Regulierungsarchitekturen, die unter dem Label Better Regulation subsumiert werden. Die Zielsetzung dieser Programme besteht zum einen in der wirtschaftsfreundlichen Reduktion von Regulierungskosten und zum anderen in der Effektivitätssteigerung von Regulierung durch Vermeidung unintendierter Nebeneffekte. Better Regulation ist ein Toolkit verschiedener metaregulativer Policy-Instrumente, deren programmatische Zusammensetzung vom nationalen politischen Kontext abhängt. Im Rahmen der parallel verlaufenden Reformagenden werden überdies alternative Regulierungsformen von verschiedenen Advokaten besserer Regulierung thematisiert, und als Alternative zur rein staatlichen, hierarchischen Command-and-Control-Regulierung (CaC-Regulierung) promotet, jedoch weder näher auf deren Bedingungen noch deren Konsequenzen einzugehen. Den optimistischen Vorstellungen eines evidenzbasierten Regulatory Managements folgend, erfolgt die Prüfung und Analyse alternativer Regelungsformen im Zuge der Gesetzesfolgenabschätzung (GFA; Regulatory Impact Assessment RIA). Bisher fristen alternative Regulierungsformen allerdings ein Dasein im Schatten von Standardkosten-Modell, RIA und Co. und werden von den Policy-Makern nicht systematisch in Betracht gezogen oder eingesetzt. CaC-Regulierung ist und bleibt das dominante Steuerungsinstrument des Staates. Es existieren jedoch zahlreiche diskursive Anknüpfungspunkte einschließlich zahlreicher Kritiken an der hierarchisch-regulativen Steuerung, welche die Auseinandersetzung mit alternativen Regulierungsformen begründen. Ziel dieses Papieres ist es daher, die in der Kritik stehende CaC-Regulierung Modellen alternativer Regulierungsformen entgegenzustellen, wobei alternative Regulierung mit den Konzepten Selbstregulierung, Koregulierung und regulierter Selbstregulierung eng definiert wird, und nur jene Konstellationen betrachtet werden, die kooperativ zwischen Regierung und Wirtschaft operieren. Ebenso wird der Versuch unternommen, die mannigfaltigen Konzepte und Erscheinungsformen alternativer Regulierung zu definieren und zu kategorisieren. Im Anschluss an den theoretischen Part erfolgt im nächsten Schritt die Identifikation der Einsatz- und Erfolgsbedingungen alternativer Regulierung. Dies geschieht anhand zweier empirischer Fallbeispiele aus den Politikfeldern Berufsbildungspolitik („der Ausbildungspakt der deutschen Wirtschaft“) sowie Umweltpolitik („die Mehrwegquotenverpflichtung“), wobei gezielt ein erfolgreiches und gescheitertes Beispiel alternativer Regulierung verglichen werden und Erfolgsfaktoren abgeleitet werden. Das Ergebnis ist, dass alternative Regulierung gewisse Potentiale und Anreize für staatliche wie privatwirtschaftliche Akteure bietet, aber der Einsatz dieser Steuerungsformen höchst voraussetzungsvoll ist und nur in wenigen Politikfeldern möglich und zu empfehlen ist. So besteht das Potential alternativer Regulierungsformen vor allem in der ganzheitlichen Senkung von Regulierungskosten (Befolgungs- und Vollzugskosten) und in der Erhöhung der Steuerbarkeit der Adressaten. Allerdings sind die korporativen Akteure auf beiden Seiten zum einen nicht immer hinreichend auf diese Form indirekter Steuerung vorbereitet. Zum anderen wird alternative Regulierung durch die Fragmentierung und Schwäche von Wirtschaftsverbänden sowie durch Interessengegensätze unter den Regelungsadressaten gehindert, die in Trittbrettfahrertum und dem letztlichen Scheitern selbstregulativer Verpflichtungen münden. Als entscheidende, aber anspruchsvolle Erfolgskomponente erweisen sich die politische Kommunikation und die Durchsetzbarkeit staatlicher Sanktionen sowie die Erfolgskontrolle, um die Regelungseinhaltung durch die Wirtschaft zu gewährleisten. Generell ist zu konstatieren, dass alternative Regulierungsformen dort zustande kommen, wo sich konzentrierter Widerstand auf Seiten der Adressaten gegen geplante, autoritative Steuerung abzeichnet, eine gewisse Pfadabhängigkeit bzw. eine Historie sektoraler Selbstregulierung vorliegt und eine Win-Win-Situation bei der Kooperation für Politik und Wirtschaft ersichtlich ist. In der Konsequenz zeigen die Ergebnisse, dass alternative Regulierung nicht nach einem synoptisch-rationalen Modell politischer Prozesse entsteht, sondern ein ursprünglich nicht intendiertes Produkt Garbage Can-artiger Verhandlungen mit einem hohen Konfliktniveau darstellt. Folglich ist das Resultat für die Vorstellung einer „Rational Regulatory Choice“ induzierenden Better Regulation-Agenda desillusionierend.
Die Artikel dieses Bandes wollen anhand ausgewählter Grenzräume und Themen einen Beitrag zur Darstellung der Situation an der neuen östlichen Außengrenze der EU leisten. Im Zentrum steht dabei der Grenzraum zwischen der Republik Moldau und Rumänien. Analysen der geopolitischen, ethnischen und nationalen sowie ökonomischen und sozialen Probleme dieser Länder sollen die Rahmenbedingungen für das Leben der Bevölkerung in diesem Grenzraum verdeutlichen. Diese Probleme wirken sich auf den Alltag der Grenzraumbevölkerung, besonders auf ihre grenzüberschreitenden Aktivitäten aus. Politik und Wissenschaft müssen sich gerade auch der Probleme der Grenzräume annehmen, weil in Europa das Bemühen um eine friedliche "Einheit in der Vielfalt" nicht an den Außengrenzen der EU enden kann.
Biogene Amine sind kleine organische Verbindungen, die sowohl bei Wirbeltieren als auch bei Wirbellosen als Neurotransmitter, Neuromodulatoren und/oder Neurohormone wirken können. Sie bilden eine bedeutende Gruppe von Botenstoffen und entfalten ihre Wirkungen über die Bindung an eine bestimmte Klasse von Rezeptorproteinen, die als G-Protein-gekoppelte Rezeptoren bezeichnet werden. Bei Insekten gehören zur Substanzklasse der biogenen Amine die Botenstoffe Dopamin, Tyramin, Octopamin, Serotonin und Histamin. Neben vielen anderen Wirkung ist z.B. gezeigt worden, daß einige dieser biogenen Amine bei der Honigbiene (Apis mellifera) die Geschmacksempfindlichkeit für Zuckerwasser-Reize modulieren können. Ich habe verschiedene Aspekte der aminergen Signaltransduktion an den „Modellorganismen“ Honigbiene und Amerikanische Großschabe (Periplaneta americana) untersucht. Aus der Honigbiene, einem „Modellorganismus“ für das Studium von Lern- und Gedächtnisvorgängen, wurden zwei Dopamin-Rezeptoren, ein Tyramin-Rezeptor, ein Octopamin-Rezeptor und ein Serotonin-Rezeptor charakterisiert. Die Rezeptoren wurden in kultivierten Säugerzellen exprimiert, um ihre pharmakologischen und funktionellen Eigenschaften (Kopplung an intrazelluläre Botenstoffwege) zu analysieren. Weiterhin wurde mit Hilfe verschiedener Techniken (RT-PCR, Northern-Blotting, in situ-Hybridisierung) untersucht, wo und wann während der Entwicklung die entsprechenden Rezeptor-mRNAs im Gehirn der Honigbiene exprimiert werden. Als Modellobjekt zur Untersuchung der zellulären Wirkungen biogener Amine wurden die Speicheldrüsen der Amerikanischen Großschabe genutzt. An isolierten Speicheldrüsen läßt sich sowohl mit Dopamin als auch mit Serotonin Speichelproduktion auslösen, wobei Speichelarten unterschiedlicher Zusammensetzung gebildet werden. Dopamin induziert die Bildung eines völlig proteinfreien, wäßrigen Speichels. Serotonin bewirkt die Sekretion eines proteinhaltigen Speichels. Die Serotonin-induzierte Proteinsekretion wird durch eine Erhöhung der Konzentration des intrazellulären Botenstoffs cAMP vermittelt. Es wurden die pharmakologischen Eigenschaften der Dopamin-Rezeptoren der Schaben-Speicheldrüsen untersucht sowie mit der molekularen Charakterisierung putativer aminerger Rezeptoren der Schabe begonnen. Weiterhin habe ich das ebony-Gen der Schabe charakterisiert. Dieses Gen kodiert für ein Enzym, das wahrscheinlich bei der Schabe (wie bei anderen Insekten) an der Inaktivierung biogener Amine beteiligt ist und im Gehirn und in den Speicheldrüsen der Schabe exprimiert wird.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
Gasausströmungen, oft in der Form hoch kollimierter Jets, sind ein allgegenwärtiges Phänomen bei der Geburt neuer Sterne. Emission von stossangeregtem molekularem Wasserstoff bei Wellenlängen im nahen Infrarotbereich ist ein Merkmal ihrer Existenz und auch in eingebetteten, im Optischen obskurierten Ausströmungen generell gut zu beobachten. In dieser Arbeit werden die Resultate einer von Auswahleffekten freien, empfindlichen, grossflächigen Suche nach solchen Ausströmungen von Protosternen in der v=1-0 S(1) Linie molekularen Wasserstoffs bei einer Wellenlänge von 2.12 µm vorgestellt. Die Durchmusterung umfasst eine Fläche von etwa einem Quadratgrad in der Orion A Riesenmolekülwolke. Weitere Daten aus einem grossen Wellenlängenbereich werden benutzt, um die Quellen der Ausströmungen zu identifizieren. Das Ziel dieser Arbeit ist es, eine Stichprobe von Ausströmungen zu bekommen, die so weit wie möglich frei von Auswahleffekten ist, um die typischen Eigenschaften protostellarer Ausströmungen und deren Entwicklung festzustellen, sowie um die Rückwirkung der Ausströmungen auf die umgebende Wolke zu untersuchen. Das erste Ergebnis ist, dass Ausströmungen in Sternentstehungsgebieten tatsächlich sehr häufig sind: mehr als 70 Jet-Kandidaten werden identifiziert. Die meisten zeigen eine sehr irreguläre Morphologie anstelle regulärer oder symmetrischer Strukturen. Dies ist auf das turbulente, klumpige Medium zurückzuführen, in das sich die Jets hineinbewegen. Die Ausrichtung der Jets ist zufällig verteilt. Insbesondere gibt es keine bevorzugte Ausrichtung der Jets parallel zum grossräumigen Magnetfeld in der Wolke. Das legt nahe, dass die Rotations- und Symmetrieachse in einem protostellaren System durch zufällige, turbulente Bewegung in der Wolke bestimmt wird. Mögliche Ausströmungsquellen werden für 49 Jets identifiziert; für diese wird der Entwicklungsstand und die bolometrische Leuchtkraft abgeschätzt. Die Jetlänge und die H2 Leuchtkraft entwickeln sich gemeinsam mit der Ausströmungsquelle. Von null startend, dehnen sich die Jets schnell bis auf eine Länge von einigen Parsec aus und werden dann langsam wieder kürzer. Sie sind zuerst sehr leuchtkräftig, die H2 Helligkeit nimmt aber im Lauf der protostellaren Entwicklung ab. Die Längen- und H2 Leuchtkraftentwicklung lässt sich im Wesentlichen durch eine zuerst sehr hohe, dann niedriger werdende Massenausflussrate erklären, die auf eine zuerst sehr hohe, dann niedriger werdende Gasakkretionsrate auf den Protostern schliessen lässt (Akkretion und Ejektion sind eng verknüpft!). Die Längenabnahme der Jets erfordert eine ständig wirkende Abbremsung der Jets. Ein einfaches Modell einer simultanen Entwicklung eines Protosterns, seiner zirkumstellaren Umgebung und seiner Ausströmung (Smith 2000) kann die gemessenen H2- und bolometrischen Leuchtkräfte der Jets und ihrer Quellen reproduzieren, unter der Annahme, dass die starke Akkretionsaktivität zu Beginn der protostellaren Entwicklung mit einer überproportional hohen Massenausflussrate verbunden ist. Im Durchmusterungsgebiet sind 125 dichte Molekülwolkenkerne bekannt (Tatematsu et al. 1993). Jets (bzw. Sterne) entstehen in ruhigen Wolkenkernen, d.h. solchen mit einem niedrigen Verhältnis von interner kinetischer Energie zu gravitativer potentieller Energie; dies sind die Wolkenkerne höherer Masse. Die Wolkenkerne mit Jets haben im Mittel grössere Linienbreiten als die ohne Jets. Dies ist darauf zurückzuführen, dass sie bevorzugt in den massereicheren Wolkenkernen zu finden sind, welche generell eine grössere Linienbreite haben. Es gibt keinen Hinweis auf stärkere interne Bewegungen in Wolkenkernen mit Jets, die durch eine Wechselwirkung der Jets mit den Wolkenkernen erzeugt sein könnte. Es gibt, wie von der Theorie vorausgesagt, eine Beziehung zwischen der Linienbreite der Wolkenkerne und der H2 Leuchtkraft der Jets, wenn Jets von Klasse 0 und Klasse I Protosternen separat betrachtet werden; dabei sind Klasse 0 Jets leuchtkräftiger als Klasse I Jets, was ebenfalls auf eine zeitabhängige Akkretionsrate mit einer frühzeitigen Spitze und einem darauffolgenden Abklingen hinweist. Schliesslich wird die Rückwirkung der Jetpopulation auf eine Molekülwolke unter der Annahme strikter Vorwärtsimpulserhaltung betrachtet. Die Jets können auf der Skala einer ganzen Riesenmolekülwolke und auf den Skalen von Molekülwolkenkernen nicht genügend Impuls liefern, um die abklingende Turbulenz wieder anzuregen. Auf der mittleren Skala von molekularen Klumpen, mit einer Grösse von einigen parsec und Massen von einigen hundert Sonnenmassen liefern die Jets jedoch genügend Impuls in hinreichend kurzer Zeit, um die Turbulenz “am Leben zu erhalten” und können damit helfen, einen Klumpen gegen seinen Kollaps zu stabilisieren.
Analphabetismus und Teilhabe
(2015)
Aus bildungstheoretisch-gesellschaftskritischer Perspektive stellt sich Lernen als soziales Handeln in gesellschaftlich-vermittelten Verhältnissen – Möglichkeiten wie auch Begrenzungen – dar. Funktionaler Analphabetismus ist mit einem bundesweiten Anteil von 14% der erwerbsfähigen Bevölkerung oder 7,5 Millionen Analphabeten in Deutschland nicht nur ein bildungspolitisches und -praktisches, sondern auch ein wissenschaftlich zu untersuchendes Phänomen. Es gibt zahlreiche Untersuchungen, die sich mit dieser Thematik auseinandersetzen und Anknüpfungspunkte für die vorliegende Studie bieten. Aus der Zielgruppenforschung beispielsweise ist bekannt, dass die Hauptadressaten der Männer, der Älteren und der Bildungsfernen nicht adäquat erreicht bzw. als Teilnehmende gewonnen werden. Aus der Teilnehmendenforschung sind Abbrüche und Drop-Outs bekannt.
Warum Analphabeten im Erwachsenenalter, also nach der Aneignung vielfältigster Bewältigungsstrategien, durch das sich das Phänomen einer direkten Sichtbarkeit entzieht, dennoch beginnen das Lesen und Schreiben (wieder) zu lernen, wird bislang weder bildungs- noch lerntheoretisch untersucht. Im Rahmen der vorliegenden Erwachsenenbildungsstudie werden genau diese Lernanlässe empirisch herausgearbeitet.
Als Heuristik wird auf eine subjekttheoretische Theoriefolie rekurriert, die sich in besonderer Weise eignet Lernbegründungen im Kontext gesellschaftlich verhafteter Biografien sichtbar zu machen. Lernforschung im Begründungsmodell muss dabei auf eine Methodik zurückgreifen, die die Perspektive des Subjekts, Bedeutungszusammenhänge und typische Sinnstrukturen hervorbringen kann. Daher wird ein auf Einzelfallstudien basierendes, qualitatives Forschungsdesign gewählt, das Daten aus der Erhebung mittels problemzentrierter Interviews bereitstellt, die eine Auswertung innerhalb der Forschungsstrategie der Grounded Theory erfahren und in einer empirisch begründeten Typenbildung münden. Dieses Design ermöglicht die Rekonstruktion typischer Lernanlässe und im Ergebnis die Entwicklung einer gegenstandsbezogene Theorie mittlerer Reichweite.
Aus der vorliegenden Bedeutungs-Begründungsanalyse konnten empirisch fünf Lernbegründungstypen ausdifferenziert werden, die sich im Spannungsverhältnis von Teilhabeausrichtung und Widersprüchlichkeit bewegen und in ihrer Komplexität mittels der drei Schlüsselkategorien Bedeutungsraum, Reflexion der sozialen Eingebundenheit und Kompetenzen sowie Lernen bzw. dem Erleben der Diskrepanzerfahrung zwischen Lesen-Wollen und Lesen-Können dargestellt werden. Das Spektrum der Lernbegründungstypen reicht von teilhabesicherndem resignierten Lernen, bei dem die Sicherung des bedrohten Status quo im Vordergrund steht und die Welt als nicht gestaltbar erlebt wird, bis hin zu vielschichtigem teilhabeerweiternden Lernen, das auf die Erweiterung der eigenen Handlungsmöglichkeiten zielt und die umfangreichste Reflexion der sozialen Eingebundenheit und Kompetenzen aufweist. Funktionale Analphabeten begründen ihr Lernen und Nicht-Lernen vor dem Hintergrund ihrer sozialen Situation, ihrer Begrenzungen und Möglichkeiten: Schriftsprachlernen erhält erst im Kontext gesellschaftlicher Teilhabe und dessen Reflexion eine Bedeutung.
Mit der Einordnung der Lernbegründungen funktionaler Analphabeten in: erstens, Diskurse der Bildungsbenachteiligung durch Exklusionsprozesse; zweitens, die lerntheoretische Bedeutung von Inklusionsprozessen und drittens, den internationalen Theorieansatz transformativen Lernens durch die Integration der Reflexionskategorie, erfolgt eine Erweiterung bildungs- und lerntheoretischer Ansätze. In dieser Arbeit werden Alphabetisierungs- und Erwachsenen-bildungsforschung verbunden und in den jeweiligen Diskurs integriert. Weitere Anschluss- und Verwertungsmöglichkeiten in der Bildungsforschung wären denkbar. Die Untersuchung von Lernbegründungen im Längsschnitt beispielsweise kann Transformationsprozesse rekonstruierbar machen und somit Erträge für eine Bildungsprozessforschung liefern. Bildungspraktisch können die Lernbegründungstypen einerseits der Teilnehmergewinnung dienen, andererseits Ausgangspunkt für reflexive Lernbegleitungskonzepte sein, die Lernbegründungen zur Sprache bringen und die soziale Eingebundenheit thematisieren und damit Lernprozesse unterstützen.
Für ein tiefergehendes Verständnis von Entwicklung und Funktion der quergestreiften Muskulatur ist eine Betrachtung der am Aufbau der Myofibrillen, den kontraktilen Organellen, beteiligten Proteine essentiell. Die vorliegende Arbeit beschäftigt sich mit Myomesin, einem Protein der sarkomeren M-Bande. Zunächst wurde die cDNA des humanen Myomesins vollständig kloniert, sequenziert und nachfolgend die komplette Größe der aminoterminalen Kopfdomäne bestimmt. Es konnte gezeigt werden, daß Myomesin in vitro mit den Domänen 1 und 12 an Myosin bindet. Die muskelspezifische Isoform der Kreatinkinase bindet an die Domänen 7 und 8. Stimulations- und Inhibitionsexperimente belegen, daß Myomesin an Serin 618 in vivo durch die Proteinkinase A phosphoryliert wird und daß diese Phosphorylierung durch Aktivierung beta2-adrenerger Rezeptoren stimulierbar ist. In Muskelgewebeproben von Patienten, die an der Hypertrophen Kardiomyopathie, einer genetisch bedingten Herzmuskelkrankheit, erkrankt sind, konnte mit einem neu hergestellten phosphorylierungsabhängigen Antikörper eine Verminderung der Menge phosphorylierten Myomesins nachgewiesen werden. Mögliche Ursachen werden diskutiert. Myomesin bildet Dimere, wie durch hefegenetische und biochemische Experimente gezeigt werden konnte. Die Dimerisierung von Myomesin könnte eine zentrale Rolle für den Einbau der Myosinfilamente in die naszierende Myofibrille haben. Anhand der gewonnenen Daten wurde ein verbessertes Modell der zentralen M-Bande erstellt.
Ziel der vorliegenden Arbeit war die Entwicklung einer SNP-Genotypisierungsmethode mit auf Mikroarrays immobilisierten PCR-Produkten. Für die Analyse wurde ein faseroptischer Affinitätssensor bzw. ein Durchfluss-Biochip-Scanner mit integrierter Fluoreszenzdetektion verwendet. An den immobilisierten Analyten (PCR-Produkten) wurde eine Fluoreszenzoligonukleotidsonde hybridisiert und anschließend die Dissoziation der Sonde im Fluss verfolgt. Die Diskriminierung von Wildtyp- und Mutanten-DNA erfolgte durch die kinetische Auswertung der Dissoziationskurven sowie durch die Analyse der Fluoreszenzintensität. Die Versuche am faseroptischen Affinitätssensor zeigten, dass DNA-DNA-Hybride sowohl von Oligonukleotiden als auch von PCR-Produkten ein typisches Dissoziationsverhalten aufweisen, wobei fehlgepaarte Hybride eine signifikant schnellere Dissoziation zeigen als perfekt passende Hybride. Dieser Geschwindigkeitsunterschied lässt sich durch den Vergleich der jeweiligen kinetischen Geschwindigkeitskonstanten kD quantitativ erfassen. Da die Kopplung des Analyten an der Chipoberfläche sowie die Hybridisierungs- und Dissoziationsparameter essentiell für die Methodenentwicklung war, wurden die Parameter für ein optimales Spotting und die Immobilisierung von PCR-Produkten ermittelt. Getestet wurden die affine Kopplung von biotinylierten PCR-Produkten an Streptavidin-, Avidin- und NeutrAvidin-Oberflächen sowie die kovalente Bindung von phosphorylierten Amplifikaten mit der EDC/Methylimidazol-Methode. Die besten Ergebnisse sowohl in Spotform und -homogenität als auch im Signal/Rausch-Verhältnis wurden an NeutrAvidin-Oberflächen erreicht. Für die Etablierung der Mikroarray-Genotypisierungsmethode durch kinetische Analyse nach einem Hybridisierungsexperiment wurden Sondenlänge, Puffersystem, Spotting-Konzentration des Analyten sowie Temperatur optimiert. Das Analysensystem erlaubte es, PCR-Produkte mit einer Konzentration von 250 ng/µl in einem HEPES-EDTA-NaCl-Puffer auf mit NeutrAvidin beschichtete Glasträger zu spotten. In den anschließenden Hybridisierungs- und Dissoziationsexperimenten bei 30 °C konnte die Diskriminierung von homocygoter Wildtyp- und homocygoter Mutanten- sowie heterocygoter DNA am Beispiel von Oligonukleotid-Hybriden erreicht werden. In einer Gruppe von 24 homocygoten Patienten wurde ein Polymorphismus im SULT1A1-Gen analysiert. Sowohl durch kinetische Auswertung als auch mit der Analyse der Fluoreszenzintensität wurde der Genotyp der Proben identifiziert. Die Ergebnisse wurden mit dem Referenzverfahren, der Restriktionschnittstellenanalyse (PCR-RFLP) validiert. Lediglich ein Genotyp wurde falsch bestimmt, die Genauigkeit lag bei 96%. In einer Gruppe von 44 Patienten wurde der Genotyp eines SNP in der Adiponectin-Promotor-Region untersucht. Nach Vergleich der Analysenergebnisse mit denen eines Referenzverfahrens konnten lediglich 14 der untersuchten Genotypen bestätigt werden. Ursache für die unzureichende Genauigkeit der Methode war vor allem das schlechte Signal/Rausch-Verhältnis. Zusammenfassend kann gesagt werden, dass das in dieser Arbeit entwickelte Analysesystem für die Genotypisierung von Einzelpunktmutationen geeignet ist, homocygote Patientenproben zuverlässig zu analysieren. Prinzipiell ist das auch bei heterocygoter DNA möglich. Da nach aktuellem Kenntnisstand eine SNP-Analysemethode an immobilisierten PCR-Produkten noch nicht veröffentlicht wurde, stellt das hier entwickelte Verfahren eine Alternative zu bisher bekannten Mikroarray-Verfahren dar. Als besonders vorteilhaft erweist sich der reverse Ansatz der Methode. Der hier vorgestellte Ansatz ist eine kostengünstigere und weniger hoch dimensionierte Lösung für Fragestellungen beispielsweise in der Ernährungswissenschaft, bei denen meist eine mittlere Anzahl Patienten auf nur einige wenige SNPs zu untersuchen ist. Wenn es gelingt, durch die Weiterentwicklung der Hardware bzw. weiterer Optimierung, eine Verbesserung des Signal/Rausch-Verhältnisses und damit die Diskriminierung von heterocygoter DNA zu erreichen, kann diese Methode zukünftig bei der Analyse von mittelgroßen Patientengruppen alternativ zu anderen Genotypisierungsmethoden verwendet werden.
Der Porenraum eines Karbonatgesteins ist zumeist aus einer spezifischen Vergesellschaftung verschiedenster Porentypen aufgebaut, die eine unterschiedliche Herkunft aufweisen und zusätzlich in ihrer Form und Größe stark variieren können (e.g., Melim et al., 2001; Lee et al., 2009; He et al., 2014; Dernaika & Sinclair, 2017; Zhang et al., 2017). Diese für Karbonate typischen multimodalen Porensysteme entstehen sowohl durch primäre Ablagerungsprozesse, als auch durch mehrmalige Modifikation des Porenraumes nach Ablagerung des Sediments. Dies führt zu einer ungleichen Verteilung der Porenraumeigenschaften auf engstem Raum und das zeitgleiche Auftreten von effektiven und ineffektiven Poren. Diese immanenten Unterschiede in der Effektivität einzelner Porentypen sind der Hauptgrund für die häufig sehr niedrige Korellation zwischen Porosität und Permeabilität in Karbonaten (e.g., Mazzullo 2004; Ehrenberg & Nadeau, 2005; Hollis et al., 2010; He et al., 2014; Rashid et al., 2015; Dernaika & Sinclair, 2017). Durch die Extraktion von miteinander verbundenen und somit effektiven Porentypen jedoch kann das Verständnis und die Vorhersage der Permeabilität für einen gegeben Porositätswert stark verbessert werden (e.g., Melim et al., 2001; Zhang et al., 2017). Dazu wird in dieser Arbeit eine auf der digitalen Bildanalyse (DIA) beruhende Methode vorgestellt, mit der schrittweise die Effektivität von Poren aus den analysierten mittelmiozänen lakustrinen Karbonaten des Nördlinger Ries Kratersees (Süddeutschland) berechnet werden kann. Mithilfe des Porenformfaktors (sensu Anselmetti et al., 1998), der als Parameter zur Quantifizierung der Interkonnektivität zwischen Poren dient, wird der potentiellen Beitrag an Permeabilität jedes Porentyps zur Gesamtpermeabilität bestimmt. Somit können die effektivsten Porentypen innerhalb der analysierten Karbonate identifiziert werden. Desweiteren wird die digitale Bildanalyse dazu benutzt, zementierte Porenräume zu extrahieren, um den Einfluss der Zementation auf die Porenraumeigenschaften zu quantifizieren. Durch eine unabhängige Methode (Fluid-Flow-Simulation), deren Ergebnisse wiederum mit der digitalen Bildanalyse ausgewertet werden, können die vorherigen Erkentnisse bestätigt werden: Interpeloidale Poren und Lösungsporen sind die beiden effektivsten Porentypen im Porenraum der Riesseekarbonate. Die Extraktion des miteinander verbundenen (d.h. effektiven) Porennetzwerkes führt schließlich zu einer erheblich verbesserten Korrelation zwischen Porosität und Permeabilität in den analysierten Karbonaten. Die in dieser Arbeit beschriebene Methode bietet ein quantitatives petrographisches Werkzeug, mit dessen Hilfe die effektive Porosität eines Porenraumes extrahiert werden kann. Dies führt zu einem besseren Verständnis darüber, wie Porensysteme von Karbonaten Permeabilität erzeugen. Diese Dissertation zeigt auch, dass die Formkomplexität von Poren einer der wichtigsten Parameter ist, der die Interkonnektivität zwischen einzelnen Poren und somit die Entstehung von effektiver Porosität steuert. Außerdem erweist sich die digitale Bildanalyse als ausgezeichnetes Werkzeug um die Porosität und Permeabilität direkt an ihren gemeinsamen Ursprung zu knüpfen: die Gesteinstextur und die damit assoziierte Porenstruktur.
Durch die immer stärker werdende Flut an digitalen Informationen basieren immer mehr Anwendungen auf der Nutzung von kostengünstigen Cloud Storage Diensten. Die Anzahl der Anbieter, die diese Dienste zur Verfügung stellen, hat sich in den letzten Jahren deutlich erhöht. Um den passenden Anbieter für eine Anwendung zu finden, müssen verschiedene Kriterien individuell berücksichtigt werden. In der vorliegenden Studie wird eine Auswahl an Anbietern etablierter Basic Storage Diensten vorgestellt und miteinander verglichen. Für die Gegenüberstellung werden Kriterien extrahiert, welche bei jedem der untersuchten Anbieter anwendbar sind und somit eine möglichst objektive Beurteilung erlauben. Hierzu gehören unter anderem Kosten, Recht, Sicherheit, Leistungsfähigkeit sowie bereitgestellte Schnittstellen. Die vorgestellten Kriterien können genutzt werden, um Cloud Storage Anbieter bezüglich eines konkreten Anwendungsfalles zu bewerten.
rezensiertes Werk: Zimmermann, Andreas (Hrsg.): Deutschland und die internationale Gerichtsbarkeit, Vortragsreiheam Walther-Schücking-Institut für Internationales Recht an der Universität Kiel im WS 2002/03 und SS 2003. (Veröffentlichung des Walther- Schücking-Instituts für Internationales Recht an der Universität Kiel ; Bd. 149).- Berlin :Duncker & Humblot, 2004. - 118 S. ISBN 3-428-11706-9
Vom 18. bis 20. September 2014 versammelten sich an der Universität Potsdam kultur- und filmwissenschaftlich arbeitende Wissenschaftler zu einem Andrej Tarkovskij gewidmeten Symposium, dem ersten internationalen. Die 25 Teilnehmer kamen nämlich aus neun Ländern. Dadurch, dass nicht wenige auch eine – wie man heute sagt – „Migrationsbiographie“ haben, potenzierte sich die durch die jeweils unterschiedliche Herkunft bedingte Multiperspektivik, zu der jedoch der Modus der Wissenschaftlichkeit ein deutlich relativierendes Korrektiv bildet. Der vorliegende Band enthält im Wesentlichen die dort vorgestellten Beiträge, aber auch die der Fachleute, die nicht persönlich hatten nach Potsdam kommen können.
Vom 18. bis 20. September 2014 versammelten sich an der Universität Potsdam kultur- und filmwissenschaftlich arbeitende Wissenschaftler zu einem Andrej Tarkovskij gewidmeten Symposium, dem ersten internationalen. Die 25 Teilnehmer kamen nämlich aus neun Ländern. Dadurch, dass nicht wenige auch eine – wie man heute sagt – „Migrationsbiographie“ haben, potenzierte sich die durch die jeweils unterschiedliche Herkunft bedingte Multiperspektivik, zu der jedoch der Modus der Wissenschaftlichkeit ein deutlich relativierendes Korrektiv bildet. Der vorliegende Band enthält im Wesentlichen die dort vorgestellten Beiträge, aber auch die der Fachleute, die nicht persönlich hatten nach Potsdam kommen können.
Anerkennung und Macht
(2021)
In der vorliegenden Untersuchung habe ich das Ziel verfolgt, einen sachlich-eigenständigen Beitrag für eine Debatte gegen Honneths kritische Gesellschaftstheorie zu leisten. In dieser Debatte wird Honneth dahingehend kritisiert, dass es ihm mit seiner kritischen Gesellschaftstheorie entgegen seiner eigenen systematischen Zielsetzung nicht gelingt, in modernen liberaldemokratischen Gesellschaften sämtliche Phänomene von sozialer Herrschaft kritisch zu hinterfragen. Denn soziale Anerkennung, die Honneth als Schlüsselbegriff für diese kritische Hinterfragung behandelt, bei der soziale Herrschaft in Verbindung mit sozialer Missachtung (als mangelnde soziale Anerkennung) steht, kann laut der Kritik faktisch selbst ein Medium für die Stiftung von sozialer Unterwerfung sein. Dies geschieht in Prozessen von Identitätsentwicklung, in denen soziale Anerkennung für Individuen als Anerkannte bestimmte Identitätsmöglichkeiten einräumt und auf diese Weise gleichzeitig andere Identitätsmöglichkeiten ausschließt, womit sie auf diese Identität einschränkend und insofern herrschend wirkt. Es handelt sich um eine Form von sozialer Herrschaft, die durch soziale Anerkennung gestiftet wird. Honneth zieht dem Vorwurf zufolge nicht in Erwägung, dass soziale Anerkennung bei Individuen als Anerkannte einen solchen negativen Effekt erzielen kann. Hieraus ergeben sich die Fragen, ob soziale Anerkennung in Prozessen von Identitätsentwicklung jeweils mit sozialer Herrschaft einhergeht und wie dieser Typus von sozialer Herrschaft kritisiert werden kann. Diese Fragen hat Honneth zuletzt in einem persönlichen Gespräch mit Allen und Cooke (als zwei Teilnehmerinnen der Debatte gegen Honneth) beantwortet. An dieser Stelle vertritt er mit beiden Gesprächsteilnehmerinnen die Auffassung, dass die Operation der Einschränkung von Identitätsmöglichkeiten an sich keine Operation darstellt, welche, wie sonst in der Debatte gegen seine kritische Gesellschaftstheorie behauptet wird, auf soziale Herrschaft zurückführt. Diese Auffassung beruht auf der Idee, wonach soziale Anerkennung sich in jenem praktischen Kontext nur unter der Bedingung als herrschaftsstiftend erweist, dass sie immanente Prinzipien verletzt, die substanziell kritische Maßstäbe definieren.
Mein Beitrag zu dieser Debatte gegen Honneth besteht auf der einen Seite in der Erklärung, dass sowohl jene Auffassung als auch jene Idee argumentativ mangelhaft sind, und auf der anderen Seite in der Ausführung des Vorhabens, diesen argumentativen Mangel selbst zu beheben. Gegen jene Auffassung behaupte ich, dass die drei Autoren in ihrem Gespräch nicht erläutern, inwiefern soziale Anerkennung nicht herrschend wirkt, wenn sie die Identitätsmöglichkeiten von Individuen als Anerkannte einschränkt, denn mit dieser Einschränkung wird vielmehr faktisch über diese Individuen geherrscht – die Debatte gegen Honneth, so zur Unterstützung dieser Ansicht, baut hauptsächlich auf ebendiesem Faktum auf. Gegen jene Idee habe ich fünf problematische Fragen gestellt und beantwortet, die Bezug eigentlich nicht allein auf diese Idee selbst, sondern überdies auf weitere, naheliegende Ideen nehmen, welche die drei Autoren angesprochen haben.
Dieser Bericht nimmt die Institutionalisierung von Forschungsdatenmanagement (FDM) an den staatlichen Hochschulen Brandenburgs in den Blick. Er soll zur Beantwortung der folgenden Fragen beitragen: Warum wird FDM dort institutionalisiert? Wie wird FDM dort institutionalisiert? Welche Herausforderungen für eine weitere Institutionalisierung bestehen und wie kann ihnen begegnet werden? Zur Erhebung des Status Quo und zur Identifikation von Anforderungen und Weiterentwicklungspotenzialen wurde deshalb eine Organisationsuntersuchung durchgeführt. Untersuchung ist neben der Einhaltung wissenschaftlicher und professioneller Standards auch dem Anwendungsbezug der Ergebnisse, deren Anwendbarkeit im Kontext und der Partizipation der Beteiligten verpflichtet. Da es sich um ein für die betrachteten Einrichtungen noch vergleichsweise neues Themengebiet handelt, wurde ein exploratives Forschungsdesign unter Einsatz qualitativer Methoden gewählt. Grundlage der Ergebnisse sind ein Auftaktworkshop unter Beteiligung der Hochschulen, eine Dokumentenanalyse und 16 leitfadengestützte Expert*innen-Interviews auf Arbeits- und Leitungsebene der brandenburgischen Hochschulen. Die Ergebnisse werden anhand von vier Handlungsbereichen strukturiert vorgestellt: Relevanz von FDM und Institutionalisierung an den Hochschulen; Technologie und Infrastruktur; Personal und Qualifizierung; Organisation, Kooperation und Finanzierung. Dabei stellt der Bericht sowohl den Status Quo als auch die Ziele der Hochschulen sowie die Wünsche an eine Landesinitiative vor.
Mit dem Übergang zum digitalen Medium haben sich die Bezugsstrukturen und das Angebot an elektronischer Fachinformation in den Bibliotheken nachhaltig verändert. In den vorliegenden Untersuchungen wird das Angebot elektronischer Zeitschriften und Datenbanken und die Nutzung elektronischer Zeitschriften in fünf ausgewählten Fachgebieten und in unterschiedlichen Bibliothekstypen dargelegt. Darüber hinaus werden die derzeitigen Bezugsstrukturen beschrieben sowie die Ergebnisse einer Befragung der Konsortien zu Zielsetzungen, Vertragsformen und Geschäftsmodellen dargestellt. Chancen und Risiken der konsortialen Bezugsform werden erörtert.
rezensiertes Werk: Schmidt, Angelika: Europäische Menschenrechtskonvention und Sozialrecht, Die Bedeutung der Straßburger Rechtsprechung für das europäische und deutsche Sozialrecht (Studien aus dem Max-Planck-Institut für ausländisches und internationales Sozialrecht ; Bd. 29). - Baden-Baden : Nomos- Verl.-gesell.,2003. ISBN 3-8329-0100-0