Refine
Year of publication
- 2011 (570) (remove)
Document Type
- Article (225)
- Doctoral Thesis (146)
- Monograph/Edited Volume (123)
- Review (32)
- Master's Thesis (9)
- Other (9)
- Part of Periodical (8)
- Postprint (4)
- Working Paper (4)
- Conference Proceeding (3)
Language
- German (570) (remove)
Is part of the Bibliography
- yes (570) (remove)
Keywords
- Deutschland (5)
- Argumentationstheorie (4)
- Aristoteles (4)
- Averroes (4)
- Germany (4)
- Poetik (4)
- Political Science (4)
- Politikwissenschaft (4)
- Financial Crisis (3)
- Finanzkrise (3)
Institute
- Institut für Romanistik (76)
- Wirtschaftswissenschaften (66)
- Sozialwissenschaften (57)
- Historisches Institut (45)
- Institut für Germanistik (35)
- Department Psychologie (24)
- Department Erziehungswissenschaft (22)
- Öffentliches Recht (21)
- Department Linguistik (19)
- MenschenRechtsZentrum (18)
- Institut für Chemie (17)
- Philosophische Fakultät (16)
- Department Sport- und Gesundheitswissenschaften (15)
- Institut für Künste und Medien (15)
- Bürgerliches Recht (14)
- WeltTrends e.V. Potsdam (14)
- Institut für Biochemie und Biologie (12)
- Institut für Umweltwissenschaften und Geographie (11)
- Institut für Ernährungswissenschaft (10)
- Institut für Physik und Astronomie (9)
- Institut für Informatik und Computational Science (8)
- Strafrecht (8)
- Institut für Jüdische Studien und Religionswissenschaft (7)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (6)
- Institut für Geowissenschaften (5)
- Institut für Slavistik (5)
- Kommunalwissenschaftliches Institut (3)
- Referat für Presse- und Öffentlichkeitsarbeit (3)
- Extern (2)
- Institut für Anglistik und Amerikanistik (2)
- Zentrum für Lehrerbildung und Bildungsforschung (ZeLB) (2)
- Department Grundschulpädagogik (1)
- Fachgruppe Politik- & Verwaltungswissenschaft (1)
- Fachgruppe Soziologie (1)
- Institut für Mathematik (1)
- Klassische Philologie (1)
- Moses Mendelssohn Zentrum für europäisch-jüdische Studien e. V. (1)
- Potsdam Transfer - Zentrum für Gründung, Innovation, Wissens- und Technologietransfer (1)
- Strukturbereich Bildungswissenschaften (1)
- Universitätsbibliothek (1)
- Verband für Patholinguistik e. V. (vpl) (1)
- Wirtschafts- und Sozialwissenschaftliche Fakultät (1)
- Zentrum für Qualitätsentwicklung in Lehre und Studium (ZfQ) (1)
Die Beiträge des vorliegenden Sammelbandes gehen auf die wissenschaftliche Fachtagung „Grenzen der Toleranz. Rechtsextremes Milieu und demokratische Gesellschaft in Brandenburg - Bilanz und Perspektiven" zurück, die im Mai 2009 in Potsdam stattfand. Auf der Tagung hielten verschiedene Wissenschaftler Vorträge, die ihrerseits durch Praktiker/innen mittels „Kommentaren aus der Praxis“ gespiegelt wurden. Die meisten Vorträge der Tagung finden sich in diesem Band nun in überarbeiteter, in der Regel erweiterter und aktualisierter Form wieder. In einem Fall wurde ein Text aufgenommen, der aus einem längeren „Kommentar aus der Praxis“ entstanden ist. Die Beiträge kreisen um das Problem des Rechtsextremismus, seinen Erscheinungsformen und Praktiken in Brandenburg und darüber hinaus, und beleuchten die staatlichen und zivilgesellschaftlichen Gegenmaßnahmen und –strategien. Dabei wird deutlich: Brandenburg hat zwar noch ein Rechtsextremismusproblem - aber auch vielfältige Strategien und Erfahrungen in der erfolgreichen Auseinandersetzung mit diesem Phänomen.
Handbuch Angewandte Ethik
(2011)
Ethische Fragen betreffen alle Gesellschaftsbereiche. Sie stellen sich bei Themen wie sozialer Gerechtigkeit sowie in politischen oder oekologischen Debatten. Das Handbuch erfasst die Angewandte Ethik systematisch und historisch, beschreibt ihre rechtliche und institutionelle Situation sowie die relevanten Teilbereiche, wie z.B. Forschungs-, Wirtschafts- und Bioethik. Im Zentrum stehen konkrete Fragen aus dem Privat- und Sozialleben des Menschen, der medizinischen Ethik sowie der Umwelt- und Tierethik.
Darmkrebs ist die zweithäufigste malignombedingte Todesursache in den westlichen Industrieländern. Durch eine frühzeitige Diagnose besteht jedoch eine hohe Chance auf Heilung. Der Goldstandard zur Darmkrebsfrüherkennung ist gegenwärtig die Koloskopie. Eine Darmspiegelung ist jedoch invasiv und mit Unannehmlichkeiten für den Patienten verbunden. Die Akzeptanz in der Bevölkerung ist daher gering. Ziel des BMBF- Projektes „Entwicklung eines nichtinvasiven Nachweissystems zur Früherkennung von humanem Darmkrebs“, in dessen Rahmen diese Arbeit entstand, ist die Bereitstellung eines nichtinvasiven Nachweisverfahrens zur Darmkrebsfrüherkennung. Der Nachweis soll über die Detektion von aus neoplastischen Zellen stammender DNA in Stuhl erfolgen. Die Entartung dieser Zellen beruht auf Veränderungen im Erbgut, welches unter anderem Mutationen sind. Im ersten Teil des BMBF-Projektes wurde ein Set von Mutationen zusammengestellt, welches eine hohe Sensitivität für Vorstufen von Darmkrebs aufweist. Ziel dieser Arbeit war es, eine Nachweismethode für die zuvor identifizierten Punktmutationen zu entwickeln. Das Nachweisverfahren musste dabei unempfindlich gegen einen hohen Hintergrund nichtmutierter DNA sein, da im Stuhl geringe Mengen DNA aus neoplastischen Zellen bei einem hohen Hintergrund von DNA aus gesunden Zellen vorliegen. Hierzu wurden Plasmidmodellsysteme für die aus dem Marker-Set stammenden Genfragmente BRAF und dessen Mutante V600E, CTNNB1 und T41I, T41A, S45P und K-ras G12C hergestellt. Mit Hilfe dieser Plasmidmodellsysteme wurde dann das Nachweissystem entwickelt. Der entscheidende Schritt für die Detektion von Punktmutationen bei hohem Wildtypüberschuss ist eine vorhergehende Anreicherung. In der vorliegenden Arbeit wurde dazu die Methode der LNA-clamp-PCR (locked nucleic acid) etabliert. Die Bewertung der erzielten Anreicherung erfolgte über das relative Detektionslimit. Zur Bestimmung des Detektionslimits wurde die Schmelzkurvenanalyse von Hybridisierungssonden eingesetzt; diese wurde im Rahmen dieser Arbeit für die drei oben genannten Genfragmente und ihre Mutanten entwickelt. Die LNA-clamp-PCR wird in Anwesenheit eines LNA-Blockers durchgeführt. Das Nukleotidanalogon LNA weist im Vergleich zu DNA eine erhöhte Affinität zu komplementären DNA-Strängen auf. Gleichzeitig kommt es bei Anwesenheit einer Basenfehlpaarung zu einer größeren Destabilisierung der Bindung. Als Blocker werden kurze LNA-DNA-Hybridoligonukleotide eingesetzt, die den mutierten Sequenzbereich überspannen und selbst der Wildtypsequenz entsprechen. Durch Bindung an die Wildtypsequenz wird deren Amplifikation während der PCR verhindert (clamp = arretieren, festklemmen). Der Blocker selbst wird dabei nicht verlängert. Der Blocker bindet unter optimalen Bedingungen jedoch nicht an die mutierte Sequenz. Die Mutante wird daher ungehindert amplifiziert und somit gegenüber dem Wildtyp-Fragment angereichert. Die Position des Blockers kann im Bindungsbereich eines der Primer sein und hier dessen Hybridisierung an dem Wildtyp-Fragment verhindern oder zwischen den beiden Primern liegen und so die Synthese durch die Polymerase inhibieren. Die Anwendbarkeit beider Systeme wurde in dieser Arbeit gezeigt. Die LNA-clamp-PCR mit Primerblocker wurde für BRAF etabliert. Es wurde ein Detektionslimit von mindestens 1:100 erzielt. Die LNA-clamp-PCR mit Amplifikationsblocker wurde erfolgreich für BRAF, K-ras und CTNNB1: T41I, T41A mit einem Detektionslimit von 1:1000 bis 1:10 000 entwickelt. In Stuhlproben liegt DNA aus neoplastischen Zellen nach Literaturangaben zu einem Anteil von 1% bis 0,1% vor. Die LNA-clamp-PCR weist also mit Amplifikationsblockern ein ausreichend hohes Detektionslimit für die Analyse von Stuhlproben auf. Durch die erfolgreiche Etablierung der Methode auf drei verschiedenen Genfragmenten und vier unterschiedlichen Punktmutationen konnte deren universelle Einsetzbarkeit gezeigt werden. Für die Ausweitung der LNA-clamp-PCR auf die übrigen Mutationen des Marker-Sets wurden Richtlinien ausgearbeitet und die Blockereffizienz als Kennzahl eingeführt. Die LNA-clamp-PCR ist ein schnelles, kostengünstiges Verfahren, welches einen geringen Arbeitsaufwand erfordert und wenig fehleranfällig ist. Sie ist somit ein geeignetes Anreicherungsverfahren für Punktmutationen in einem diagnostischen System zur Darmkrebsfrüherkennung. Darüber hinaus kann die LNA-clamp-PCR auch in anderen Bereichen, in denen die Detektion von Punktmutationen in einem hohen Wildtyphintergrund erforderlich ist, eingesetzt werden.
Die vorliegende Arbeit basiert auf Forschungen in den Jahren 2007-2009. Sie betrachtet die saisonale Arbeitsmigration aus der polnischen Region Konin, wo die Arbeitsmigration aus ökonomischen Gründen, wie auch in ähnlich strukturierten Gebieten Polens, eine lange Tradition hat, die bis ins 19. Jahrhundert zurückgeht. Sie wird die saisonale Migration ins Ausland mit den ökonomischen, sozialen und räumlichen Auswirkungen aus der Perspektive des Einzelnen und seiner unmittelbaren Umgebung, aber auch der Gesellschaft und Herkunftsgebiet der Migranten betrachtet.
Im Potsdamer Stadtteil Babelsberg gab der Präsident der USA, Harry S. Truman, am 24. Juli 1945 den folgenschweren Befehl, die ersten Atombomben über Japan abzuwerfen. Bis zu diesem Tag war die Nutzung der Kernenergie eine von Forschern lediglich erdachte Möglichkeit. Mit Trumans Befehl wurde sie zur schrecklichen Wirklichkeit. Es begann eine neue Ära der Menschheit – das Atomzeitalter.
Thematische Schwerpunkte des Sammelbandes bilden die Inhalte und die Ziele in der Erforschung und Analyse von Migrationsprozessen und die daraus resultierenden Situationen von Sprachkontakt und Kulturtransfer in Europa und Übersee. Neben der thematischen Einführung in die Migrationslinguistik widmet sich der Band den migrationsbedingten Formen des Sprachkontaktes und der Sprachverwendung in Nordamerika sowie verschiedenen Sprachdynamiken in Europa. Auch der sprachliche Integrationsdruck zwischen Asien und Lateinamerika wird in diesem Band thematisiert. Neben Beiträgen von bekannten Migrationslinguisten wie Georges Lüdi (Universität Basel) und Hermann Haller (City University, New York) finden sich theoretische und deskriptive Ansätze zu Sprachkontakt, Sprachwandel und Sprachverfall infolge von Migration aus der Perspektive verschiedener Einzelphilologien. Mit Beiträgen von Lena Busse, Elizabeth Couper-Kuhlen, Hermann Haller, Friederike Kern, Georges Lüdi, Isolde Pfaff, Elton Prifti, Claudia Schlaak, Margret Selting, Thomas Stehl, Lars Steinicke und Maria Wilke.
Internationale Forschungsbefunde zu ‚Teaching in Higher Education’ konstatieren immer wieder eine Nicht-Übereinstimmung zwischen intentional angelegten Lehrinhalten und Lernzielen und tatsächlich hervorgebrachten Fähigkeiten. Sie legen eine formative Evaluation von akademischen Lehr-Lern-Angeboten nahe, um bereits im Verlauf einer Lehrveranstaltung auf etwaige Lernschwierigkeiten und –barrieren reagieren zu können. Das an deutschen Hochschulen gängige Repertoire sozial-wissenschaftlicher Evaluationsinstrumente fokussiert jedoch zumeist auf summative quantitative Verfahren, die weder den verschiedenen Formaten akademischer Lehre noch dem komplexen Interaktionsgeschehen in Lehr-Lern-Kontexten gerecht zu werden scheinen, indem sie auf die Abfrage studentischer Zufriedenheitsniveaus abstellen. Anliegen dieses Beitrages ist es daher, ein von der Verfasserin entwickeltes multifunktionales und metakognitiv angelegtes Lehr-Lern-Forschungsinstrument, die ‚doc.post’ vorzustellen, das sich insbesondere zur Ausbildung generischer Kompetenzen in verschiedenen universitären erziehungs- und kulturwissenschaftlichen Studiengängen bewährt hat. Die ‚doc.post’ eignet sich gleichermaßen als Evaluations- und Prüfungsinstrument sowie für weitergehende Forschungsaktivitäten, die Qualität der eigenen Lehre betreffend.
Inhalt: Markus Loewe: Konzeptionelle Stärken und Schwächen der Millennium : Development Goals (MDGs) Ingo Winkelmann: Die Vereinten Nationen, das Seerecht und die Polarregionen Helmut Volger: Die Reform der Arbeitsmethoden des Sicherheitsrats – eine Bilanz nach zwei Jahrzehnten Norman Weiß: Der UN-Menschenrechtsschutz zehn Jahre nach dem Millenniumsgipfel – neue Strukturen und neue Herausforderungen – auch neue Chancen? Otto Lampe: Deutschland und die Vereinten Nationen – aktuelle Entwicklungen
Data in business processes
(2011)
Prozesse und Daten sind gleichermaßen wichtig für das Geschäftsprozessmanagement. Prozessdaten sind dabei insbesondere im Kontext der Automatisierung von Geschäftsprozessen, dem Prozesscontrolling und der Repräsentation der Vermögensgegenstände von Organisationen relevant. Es existieren viele Prozessmodellierungssprachen, von denen jede die Darstellung von Daten durch eine fest spezifizierte Menge an Modellierungskonstrukten ermöglicht. Allerdings unterscheiden sich diese Darstellungenund damit der Grad der Datenmodellierung stark untereinander. Dieser Report evaluiert verschiedene Prozessmodellierungssprachen bezüglich der Unterstützung von Datenmodellierung. Als einheitliche Grundlage entwickeln wir ein Framework, welches prozess- und datenrelevante Aspekte systematisch organisiert. Die Kriterien legen dabei das Hauptaugenmerk auf die datenrelevanten Aspekte. Nach Einführung des Frameworks vergleichen wir zwölf Prozessmodellierungssprachen gegen dieses. Wir generalisieren die Erkenntnisse aus den Vergleichen und identifizieren Cluster bezüglich des Grades der Datenmodellierung, in welche die einzelnen Sprachen eingeordnet werden.
In der vorliegenden Arbeit analysiert Yann Wernert die Rolle der Afrikanischen Union im Rahmen von Regionalkonflikten in Afrika. Dabei wird insbesondere Wert auf die konkrete Vorgehensweise der Afrikanischen Union in den jeweiligen Konflikten gelegt. Untersucht wird der Bürgerkrieg in Somalia sowie die Versuche seitens der internationalen Gemeinschaft, eine stabile politische Ordnung wieder aufzubauen. Ebenfalls analysiert wird der Darfur-Konflikt im Sudan und die Möglichkeiten, den regelmäßig stattfindenden Massakern Einhalt zu gebieten. Der Untersuchungszeitraum erstreckt sich von 2003 bis 2007.
Die öffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterstützen. Da die öffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verstärkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterstützung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Ursprünge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der Lösungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Ursprünge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs können auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollständig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die Möglichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zusätzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) könnte der Einsatz des PRM Vorteile für die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische Lücke zwischen PRM und CIM zu überbrücken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen dafür die im Projekt "E-LoGo" an der Universität Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchgängige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterstützt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorwärts- und rückwärtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. Über den offensichtlichen Nutzen einer durchgängigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzesänderung, Berücksichtigung des vollständigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzmöglichkeit für eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, können die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium berücksichtigt werden. Die am 16. März 2011 in Kraft getretene Änderung des NKRG schreibt eine solche Analyse des so genannten „Erfüllungsaufwands“ für Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. Für diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen über den Änderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen.
Die Wahrnehmung von Geschmacksempfindungen beruht auf dem Zusammenspiel verschiedener Sinneseindrücke wie Schmecken, Riechen und Tasten. Diese Komplexität der gustatorischen Wahrnehmung erschwert die Beantwortung der Frage wie Geschmacksinformationen vom Mund ins Gehirn weitergeleitet, prozessiert und kodiert werden. Die Analysen zur neuronalen Prozessierung von Geschmacksinformationen erfolgten zumeist mit Bitterstimuli am Mausmodell. Zwar ist bekannt, dass das Genom der Maus für 35 funktionelle Bitterrezeptoren kodiert, jedoch war nur für zwei unter ihnen ein Ligand ermittelt worden. Um eine bessere Grundlage für tierexperimentelle Arbeiten zu schaffen, wurden 16 der 35 Bitterrezeptoren der Maus heterolog in HEK293T-Zellen exprimiert und in Calcium-Imaging-Experimenten funktionell charakterisiert. Die Daten belegen, dass das Funktionsspektrum der Bitterrezeptoren der Maus im Vergleich zum Menschen enger ist und widerlegen damit die Aussage, dass humane und murine orthologe Rezeptoren durch das gleiche Ligandenspektrum angesprochen werden. Die Interpretation von tierexperimentellen Daten und die Übertragbarkeit auf den Menschen werden folglich nicht nur durch die Komplexität des Geschmacks, sondern auch durch Speziesunterschiede verkompliziert. Die Komplexität des Geschmacks beruht u. a. auf der Tatsache, dass Geschmacksstoffe selten isoliert auftreten und daher eine Vielzahl an Informationen kodiert werden muss. Um solche geschmacksstoffassoziierten Stimuli in der Analyse der gustatorischen Kommunikationsbahnen auszuschließen, sollten Opsine, die durch Licht spezifischer Wellenlänge angeregt werden können, für die selektive Ersetzung von Geschmacksrezeptoren genutzt werden. Um die Funktionalität dieser angestrebten Knockout-Knockin-Modelle zu evaluieren, die eine Kopplung von Opsinen mit dem geschmacksspezifischen G-Protein Gustducin voraussetzte, wurden Oozyten vom Krallenfrosch Xenopus laevis mit dem Zwei-Elektroden-Spannungsklemm-Verfahren hinsichtlich dieser Interaktion analysiert. Der positiven Bewertung dieser Kopplung folgte die Erzeugung von drei Mauslinien, die in der kodierenden Region eines spezifischen Geschmacksrezeptors (Tas1r1, Tas1r2, Tas2r114) Photorezeptoren exprimierten. Durch RT-PCR-, In-situ-Hybridisierungs- und immunhistochemische Experimente konnte der erfolgreiche Knockout der Rezeptorgene und der Knockin der Opsine belegt werden. Der Nachweis der Funktionalität der Opsine im gustatorischen System wird Gegenstand zukünftiger Analysen sein. Bei erfolgreichem Beleg der Lichtempfindlichkeit von Geschmacksrezeptorzellen dieser Mausmodelle wäre ein System geschaffen, dass es ermöglichen würde, gustatorische neuronale Netzwerke und Hirnareale zu identifizieren, die auf einen reinen geschmacks- und qualitätsspezifischen Stimulus zurückzuführen wären.
Die Arbeit gibt einen kurzen Abriss über die Grundlagen systemisch-konstruktivistischer Lerntheorie mit der anschließenden Fragestellung, was die aktuellen Forschungsergebnisse aus Neurobiologie, Philosophie, Psychologie und Erziehungswissenschaften zur didaktischen Auseinandersetzung mit dem Nationalsozialismus beitragen können. In der bisherigen Forschung zur didaktischen „Aufbereitung“ des Themas 'Nationalsozialismus' gibt es eine Fülle von Unterrichtskonzepten, Sequenzplanungen und Unterrichtsmaterialien. Mein Anspruch war es nicht, universal gültige Unterrichtspläne vorzulegen, sondern Unterricht bewusst offen, selbstorganisiert und systemisch zu gestalten. Dafür werden die Rahmenbedingungen von Unterricht zum Thema Nationalsozialismus näher beleuchtet, um anschließend didaktische Prinzipien und methodische Ansätze für die Beschäftigung mit dem Nationalsozialismus vorzustellen. Grundlage für diese Überlegungen waren vor allem Theodor W. Adornos Vortrag „Erziehung nach Auschwitz“, die konstruktivistischen Lernansätze von Rolf Arnold, Kersten Reich und Horst Siebert und aktuelle Projekte und Schriften aus der gedenkstättenpädagogischen Forschung von Matthias Heyl, Imke Scheurich, Verena Haug u.a. Eine explizit konstruktivistische Betrachtung von Geschichtsdidaktik und Gedenkstättenpädagogik steht noch aus, diese Arbeit versucht, einen Ansatz zur Schließung dieser Forschungslücke zu entwickeln.
Um Extremereignisse in der Dynamik des indischen Sommermonsuns (ISM) in der geologischen Vergangenheit zu identifizieren, schlage ich einen neuartigen Ansatz basierend auf der Quantifikation von Fluktuationen in einem nichtlinearen Ähnlichkeitsmaß vor. Dieser reagiert empfindlich auf Zeitabschnitte mit deutlichen Veränderungen in der dynamischen Komplexität kurzer Zeitreihen. Ein mathematischer Zusammenhang zwischen dem neuen Maß und dynamischen Invarianten des zugrundeliegenden Systems wie fraktalen Dimensionen und Lyapunovexponenten wird analytisch hergeleitet. Weiterhin entwickle ich einen statistischen Test zur Schätzung der Signifikanz der so identifizierten dynamischen Übergänge. Die Stärken der Methode werden durch die Aufdeckung von Bifurkationsstrukturen in paradigmatischen Modellsystemen nachgewiesen, wobei im Vergleich zu den traditionellen Lyapunovexponenten eine Identifikation komplexerer dynamischer Übergänge möglich ist. Wir wenden die neu entwickelte Methode zur Analyse realer Messdaten an, um ausgeprägte dynamische Veränderungen auf Zeitskalen von Jahrtausenden in Klimaproxydaten des südasiatischen Sommermonsunsystems während des Pleistozäns aufzuspüren. Dabei zeigt sich, dass viele dieser Übergänge durch den externen Einfluss der veränderlichen Sonneneinstrahlung, sowie durch dem Klimasystem interne Einflussfaktoren auf das Monsunsystem (Eiszeitzyklen der nördlichen Hemisphäre und Einsatz der tropischenWalkerzirkulation) induziert werden. Trotz seiner Anwendbarkeit auf allgemeine Zeitreihen ist der diskutierte Ansatz besonders zur Untersuchung von kurzen Paläoklimazeitreihen geeignet. Die während des ISM über dem indischen Subkontinent fallenden Niederschläge treten, bedingt durch die zugrundeliegende Dynamik der atmosphärischen Zirkulation und topographische Einflüsse, in äußerst komplexen, raumzeitlichen Mustern auf. Ich stelle eine detaillierte Analyse der Sommermonsunniederschläge über der indischen Halbinsel vor, die auf Ereignissynchronisation (ES) beruht, einem Maß für die nichtlineare Korrelation von Punktprozessen wie Niederschlagsereignissen. Mit hierarchischen Clusteringalgorithmen identifiziere ich zunächst Regionen mit besonders kohärenten oder homogenen Monsunniederschlägen. Dabei können auch die Zeitverzögerungsmuster von Regenereignissen rekonstruiert werden. Darüber hinaus führe ich weitere Analysen auf Basis der Theorie komplexer Netzwerke durch. Diese Studien ermöglichen wertvolle Einsichten in räumliche Organisation, Skalen und Strukturen von starken Niederschlagsereignissen oberhalb der 90% und 94% Perzentilen während des ISM (Juni bis September). Weiterhin untersuche ich den Einfluss von verschiedenen, kritischen synoptischen Systemen der Atmosphäre sowie der steilen Topographie des Himalayas auf diese Niederschlagsmuster. Die vorgestellte Methode ist nicht nur geeignet, die Struktur extremer Niederschlagsereignisse zu visualisieren, sondern kann darüber hinaus über der Region atmosphärische Transportwege von Wasserdampf und Feuchtigkeitssenken auf dekadischen Skalen identifizieren.Weiterhin wird ein einfaches, auf komplexen Netzwerken basierendes Verfahren zur Entschlüsselung der räumlichen Feinstruktur und Zeitentwicklung von Monsunniederschlagsextremen während der vergangenen 60 Jahre vorgestellt.
After the collapse of the Soviet Union the former member states have started the transformation process. The transformation process from planned to market economy includes not only the adaptation of the economy to the new market rules but also the profound social and political transformation. For this reason such processes present huge challenges to affected societies. The transformational recession in Georgia was significantly enhanced by the civil war and by ethnic conflicts in Abkhazia and South Ossetia. During the ethnic conflicts and civil war the business and technical infrastructure were damaged and most of them were completely destroyed. Poverty and political instability were predominated. The trade relations with the member countries of Council of Mutual Economic Assistance (Comecon) were aborted. Moreover, the conflict in South Ossetia hampered the power supply from Russia and a conflict in Abkhazia, the production and trade with tea and citruses, which were major trade commodities at that time. In the beginning of 90-ies, Georgian government with the assistance of international organizations, such as International Monetary Fund and World Bank started to elaborate political and economical reforms. The reforms included several aspects, such as the transfer of public assets to private through privatization, the liberalization of domestic market and trade and the creation of market-oriented institutions. Because of lack in implementation neither economical nor political transformation has been achieved. For instance, by the begin of market oriented reforms the awareness of policy makers about the importance of entrepreneurship, in particular small and medium ones for the economy was low. The absence of previous experience prevented the elaboration of appropriate policy instruments and methods for the development of competitive market economy. The stimulation of private sector has been generally neglected. This had a severe affect on political, social and economical problems, which still hampers the development of middle class in Georgia. The presented research indicates that productive entrepreneurship is a driving force of an economy. The entrepreneurial activities on the one hand facilitate the resource allocation and on the other through the development of new products and services urge the competition. Furthermore, they contribute to technological improvements through innovation, create jobs and thus boost the economic and social development of a particular region or country. However, it is important that the legal and institutional framework is appropriately settled. Unlike mature market economies, Georgia is not characterized by well-developed sector of small and medium sized businesses. Most existing SMEs are operating in local markets and predominantly in the shadow economy. It is also noteworthy that small business in Georgia belongs to so called “mom and pop” rather than to innovative, growth oriented businesses. They are mostly engaged in trade and craft. In addition of poor performance, the business activity of SMEs is very centralized. The vast majority of them are operating in the capital Tbilisi. The poor performance of small and medium businesses in Georgia and their negligence by the market forces is among others due to the armed conflicts and state failure. As in the beginning of transformation process, down to the present day, the state fails to provide necessary conditions, such as rule of law, the protection of property rights and competition, transparent and uncorrupted public administration. The result is the weak middle class. The weak middle class by itself has a negative impact on economic development and democratization process in Georgia.
Editorial (Dr. Roswitha Lohwaßer) ; Kompetenzorientierung allein macht noch keinen guten Unterricht (Prof. Dr. Hilbert Meyer) ; 1. Erinnerungen an Lothar Klingberg ; 2. Stärken und Schwächen des kompetenzorientierten Unterrichts ; 3. Lothar Klingbergs “Prozesstheorie des Unterrichts” ; 4. Ein Theorierahmen für Unterrichtsqualität ; 5. Was wissen die empirischen Unterrichtsforscher über guten Unterricht? ; 6. Was ist eine gute Lehrerin/was ein guter Lehrer? ; 7. Was tun? ; Fazit
„Die Beiträge in diesem Band beleuchten aus verschiedenen Perspektiven die (…) Veränderungen der Sprachwissenschaft im Zuge des linguistic turn. Sie gehen zurück auf ein Festkolloquium zu Ehren des 65. Geburtstages von Joachim Gessinger, das am 25. und 26. Juni 2010 in Potsdam stattgefunden hat. Ziel des Kolloquiums war es, Ansätze, Theoriebildungen und methodische Zugriffe in der Sprachwissenschaft seit dem linguistic turn in den Blick zu nehmen. Diese Frage nach einer Standortbestimmung der sprachwissenschaftlichen Forschung in Deutschland steht auch im Mittelpunkt der nun publizierten Fassung der Beiträge, die von Vertreterinnen und Vertretern ausgewählter Teildisziplinen stammen, die die inhaltliche, theoretische und methodische Ausrichtung ihres Forschungsfeldes reflektieren.“ (Manuela Böhm, Elisabeth Berner & Jürgen Erfurt, OBST 78: S. 13)
Inhalt:
Manuela Böhm, Elisabeth Berner & Jürgen Erfurt: Nach dem Turn ist vor dem Turn. Ein Prolog;
Michael Elmentaler: Zur Pragmatisierung der Sprachgeschichte. Eine Standortbestimmung anhand neuerer Sprachgeschichten des Deutschen;
Ingrid Schröder: Dialekte im Kontakt. Individuelle Ausformungen des Sprachrepertoires;
Bernd Pompino-Marschall: Die rezente Entwicklung in der Phonetik: Vom verbrannten Zeigefinger zu Praat;
Gisbert Fanselow: Kann die Linguistik das Jahr 2024 erleben? Und die Syntax das Jahr 2014?;
Elke Nowak: Nach dem linguistic turn – die neue Wissenschaft von der Sprache und die Sprachen;
Utz Maas: Linguistische Schattenspiele: sprachwissenschaftliche Arbeiten zur Schriftkultur;
Ulrich Schmitz: Linguistica ancilla mediorum? Sprachwissenschaft und Medien 1960-2010: Von kühler Distanz zu teilnehmender Beobachtung & von Textmaterial zu multimodaler Verblendung;
Eduard Haueis: Didaktik und Linguistik: Wie die Modellierung sprachlichen Wissens und Könnens mit dem Bestehenbleiben oder dem Überwinden von Bildungsschranken zusammenhängt;
Joachim Gessinger: Vor dem linguistic turn. Ein Epilog
Der Beitrag konzentriert sich auf die neue einheitliche Behördenrufnummer D115, als aktuelles, innovatives eGovernment-Projekt der deutschen Verwaltungsmodernisierung. Als theoretische Grundlage der hier vorliegenden empirischen verwaltungswissen schaftlichen Analyse sekundiert der Multilevel-Governance-Ansatz, welcher die Mehrebenenverflechtung der politisch-administrativen Strukturen, die Vielschichtigkeit und die besondere Governancestruktur des Reformvorhabens am besten erfassen dürfte. Die Analyse der Funktionsweise der Behördenrufnummer D115, der beteiligten Akteure und deren institutionell bedingter Motivation kommt insgesamt zum Ergebnis, dass der Ansatz für das Modernisierungsprojekt als geradezu exemplarisch zu betrachten ist. Die Berücksichtigung des Mehrebenencharakters sowie der dabei zur Anwendung kommen den Netzwerk- und Steuerungsmechanismen sind bei einem solchen Projekt und künftigen eGovernment-Projekten unverzichtbar.
Fundraising interdisziplinär : ein Beitrag zur Erneuerung der Kultur gemeinwohlbezogenen Gebens
(2011)
Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zunächst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit über weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 näher erforscht, dazu wurden Wildtyp- und GPx2-Knockout-Mäuse in Hinblick auf Veränderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendiäten verfüttert: selenarmes, selenadäquates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am höchsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erhöhung der Apoptoserate am Kryptengrund. Dabei war der größte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Veränderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verlängerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erhöhte die GPx1-Expression im Kryptengrund auf allen drei Selendiäten. Diese Überexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Homöostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Klärung der Frage, welchen Einfluss GPx2 auf die entzündungsassoziierte Colonkarzinogenese ausübt. In dem hierfür verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entzündung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entzündungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich stärker entzündet als im Wildtyp. Diese Ergebnisse bestätigen die für die GPx2 postulierte antiinflammatorische Funktion. Normalerweise führt eine Erhöhung der Mitoseanzahl zur Regeneration des entzündeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entzündung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entzündung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 begünstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine adäquate GPx2-Expression vor Entzündung schützt und somit das Risiko für Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, hängt vermutlich vom Stadium des Colonkarzinogenese ab.
Die Arbeit befasst sich theoretisch und empirisch mit der so genannten Public Service Motivation (PSM) und ihrem Zusammenhang zu anderen psychologischen Motivationstheorien. Die Public Service Motivation geht davon aus, dass öffentlich Beschäftigte unter anderem dadurch motiviert sind, dass sie in ihrer Arbeit einen Dienst am Gemeinwohl sehen. Auf Basis einer empirischen Erhebung konnte dieses Konstrukt auch für Beschäftigte in Deutschland nachgewiesen und der Einfluss soziodemographischer Variablen bestätigt werden. Darüber hinaus gibt die Arbeit erste Hinweise auf Zusammenhänge zu verschiedenen Prozesstheorien der Motivation. Empirisch zeigt sich vor allem zur Gleichheitstheorie und dem darauf aufbauenden Equity Sensitivity Construct ein starker Zusammenhang.
Den Krieg um Afghanistan hat der Westen verloren – wieder einmal. Die Frage des Abzugs bestimmt die außen- und sicherheitspolitische Agenda, nicht nur in Washington D.C. und Berlin. Ziel ist, das "Fiasko Afghanistan" möglichst glimpflich enden zu lassen – aber wie? Die Frage hat auch 2011 nicht an Aktualität eingebüßt. Kenner der Region und außenpolitische Experten diskutieren im vorliegenden WeltTrends Papier die Ausgangslage des Afghanistan-Komplexes und analysieren Abzugsstrategien – klar, kontrovers, pointiert.
Öffentliche Unternehmen werden in Adäquation zum wirtschaftlichen und politischen Verständnis an Hand des Finanz- und Personalstatistikgesetzes operationalisierbar definiert und sowohl gegenüber öffentlichen Behörden als auch gegenüber privaten Unternehmen abgegrenzt. Dabei wird gezeigt, dass keine Deckungsgleichheit, aber eine stückweise Überlappung mit dem Sektor Staat besteht. Dadurch gewinnt ein Teil der öffentlichen Unternehmen Bedeutung für die Volkswirtschaftliche Gesamtrechnung, insbesondere für den öffentlichen Schuldenstand und damit für die Konvergenzkriterien im Rahmen der Wirtschafts- und Währungsunion. Die amtliche Statistik gewinnt die Daten für die Statistik öffentlicher Unternehmen in Totalerhebung aus den Jahresabschlüssen dieser Unternehmen einschließlich ihrer Gewinn und Verlustrechnung. Die Statistik öffentlicher Unternehmen übertrifft damit in ihrer Ausführlichkeit und Tiefe die meisten anderen Fachstatistiken. Dem steht der Nachteil der relativ späten Verfügbarkeit gegenüber. Der Wissenschaft steht die Statistik in Form einer formal anonymisierten Datei an Wissenschaftlerarbeitsplätzen in den Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder zur Verfügung. Der Anonymisierungsprozess bedeutet eine weitere Verzögerung der Verfügbarkeit der Daten und steht zusammen mit strengen Geheimhaltungsvorschriften in den Forschungsdatenzentren im Widerspruch zur gebotenen Transparenz und der vorgeschriebenen Offenlegung der Bilanzen im öffentlichen Sektor.
Die statistische Analyse der Ertragslage öffentlicher Unternehmen bringt Informationen über die Ertragskraft dieser Unternehmensgruppe. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentlichen Aufgaben als an betriebswirtschaftlicher Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Öffentliche Unternehmen haben im Mittel wegen der Spezifik ihrer Aufgaben und politisch determinierter Preise einen geringeren Umsatz als private Unternehmen. Im Vergleich zu privaten sind öffentliche Unternehmen auch durch eine höhere Zinselastizität, die mit einem hohen Verschuldungsgrad zusammenhängt, und eine höhere Abschreibungsintensität gekennzeichnet. Die letzte ist auf das umfangreiche öffentliche Vermögen zurückzuführen. Im Großen und Ganzen unterstreicht die statistische Analyse der Ertragslage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten.
This paper offers empirical evidence on the power of Sornette et al's [2001] model of bubbles and crashes regarding the German stock market between 1960 and 2009. We identify relevant time periods and describe them with the function given by Sornette et al's model. Our results show some evidence in predicting crashes with the understanding of logarithmic periodic structures that are hidden in the stock price trajectories. It was shown that for the DAX most of the relevant parameters determining the shape of the logarithmic periodic structures are lying in the expected interval researched by Sornette et al. Further more the paper implicitly shows that the point of time of former crashes can be predicted with the presented formula. We conclude that the concept of financial time series conceived as purely random objects should be generalised as to admit complexity.
Die Identifikation von Einflussfaktoren und deren Wirkungsrichtung auf die Kursentwicklung einer Aktie ist von großer Bedeutung für die Finanzmarktanalyse. Die wechselseitigen Zusammenhänge zwischen den Renditen spezifischer Aktien sind solche relevante Informationen. In diesem Beitrag werden die Interdependenzen von Aktienrenditen auf der Grundlage vektorautoregressiver (VAR)-Modelle für kleine, homogene Brachen- und Marktsegmente analysiert. Hierzu wurden die Renditen ausgewählter im Deutschen Aktienindex (DAX) notierter Unternehmen zu drei Branchensegmenten zusammengefasst. Darüber hinaus zeigt sich am Beispiel der Hoechst-Aktie, dass eine gemeinsame DAX-Notierung Einfluss auf das Beziehungsgeflecht der Renditen innerhalb eines Brachensegmentes nimmt.
Die Analyse der Finanzlage öffentlicher Unternehmen bringt Informationen über die Kapitalbereitstellung und die Liquidität dieser Unternehmen. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentliche Aufgaben als an betriebswirtschaftliche Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Dank der Kapitalzuführungen von der öffentlichen Hand haben öffentliche Unternehmen in Deutschland höhere und zunehmende Eigenkapital- und Rücklagenquoten im Vergleich zu privaten Unternehmen, während ihr durchschnittlicher Innenfinanzierungsgrad und ihre Kapitalrückflussquote unter denen im privaten Sektor liegen. Insgesamt wird durch die Analyse der Finanzlage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten unterstrichen.
Der Autor versucht mit dieser kurzen Einführung eine Übersicht über den Stand der Forschung zu einem Thema zu geben, das in der Forschung bisher noch nicht ausreichend berücksichtigt wurde: der außerschulischen, privatwirtschaftlich organisierten Zusatzbildung, der sogenannten Shadow Education. Der Fokus der Arbeit richtet sich dabei auf die Länder Japan, welches bereits seit den 1970er Jahren ein System außerschulischer Bildungsinstitutionen besitzt, dessen Einfluss auf den Bildungserwerb junger Menschen so stark ist wie in kaum einem anderen Land, und Deutschland, dessen Schattenbildungs- oder Nachhilfesystem noch keinen derartig starken Einfluss ausübt, jedoch in den vergangenen Jahren steten Zuwachs verzeichnen konnte. Interessierten soll dieser Einblick durch die umfangreiche Bibliographie eine Hilfe bei der Recherche zu diesem Thema bieten.
Eumelanin ist ein Fluorophor mit teilweise recht ungewöhnlichen spektralen Eigenschaften. Unter anderem konnten in früheren Veröffentlichungen Unterschiede zwischen dem 1- und 2-photonen-angeregtem Fluoreszenzspektrum beobachtet werden, weshalb im nichtlinearen Anregungsfall ein schrittweiser Anregungsprozess vermutet wurde. Um diese und weitere optische Eigenschaften des Eumelanins besser zu verstehen, wurden in der vorliegenden Arbeit vielfältige messmethodische Ansätze der linearen und nichtlinearen Optik an synthetischem Eumelanin in 0,1M NaOH verfolgt. Aus den Ergebnissen wurde ein Modell abgeleitet, welches die beobachteten photonischen Eigenschaften konsistent beschreibt. In diesem kaskadierten Zustandsmodell (Kaskaden-Modell) wird die aufgenommene Photonenenergie schrittweise von Anregungszuständen hoher Übergangsenergien zu Anregungszuständen niedrigerer Übergangsenergien transferiert. Messungen der transienten Absorption ergaben dominante Anteile mit kurzen Lebensdauern im ps-Bereich und ließen damit auf eine hohe Relaxationsgeschwindigkeit entlang der Kaskade schließen. Durch Untersuchung der nichtlinear angeregten Fluoreszenz von verschieden großen Eumelanin-Aggregaten konnte gezeigt werden, dass Unterschiede zwischen dem linear und nichtlinear angeregten Fluoreszenzspektrum nicht nur durch einen schrittweisen Anregungsprozess bei nichtlinearer Anregung sondern auch durch Unterschiede in den Verhältnissen der Quantenausbeuten zwischen kleinen und großen Aggregaten beim Wechsel von linearer zu nichtlinearer Anregung begründet sein können. Durch Bestimmung des Anregungswirkungsquerschnitts und der Anregungspulsdauer-Abhängigkeit der nichtlinear angeregten Fluoreszenz von Eumelanin konnte jedoch ein schrittweiser 2-Photonen-Anregungsprozess über einen Zwischenzustand mit Lebendsdauern im ps-Bereich nachgewiesen werden.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
Poröse Sol-Gel-Materialien finden in vielen Bereichen Anwendung bzw. sind Gegenstand der aktuellen Forschung. Zu diesen Bereichen zählen sowohl klassische Anwendungen, wie z. B. die Verwendung als Katalysator, Molekularsieb oder Trockenmittel, als auch nichtklassische Anwendungen, wie z. B. der Einsatz als Kontrastmittel in der Magnet-Resonanz-Tomographie oder in Form von dünnen Zeolithfilmen als Isolatoren in Mikrochips. Auch für den Einsatz in der Photonik werden poröse Materialien in Betracht gezogen, wie die Entwicklung des Zeolith-Farbstoff-Lasers zeigt. Mikroporöse Zeolithe können generell über einfache Ionenaustauschreaktionen mit Lanthanoidionen in lumineszente Materialien umgewandelt werden. Neben der Erzeugung eines lumineszenten Materials, dessen Lumineszenzeigenschaften charakterisiert werden müssen, bietet die Nutzung von Lanthanoidionen die Möglichkeit diese Ionen als Sonde zur Charakterisierung der Ion-Wirt-Wechselwirkungen zu funktionalisieren, was z. B. in Bezug auf die Anwendung als Katalysator von großer Bedeutung ist. Dabei werden die einzigartigen Lumineszenzeigenschaften der Lanthanoidionen, in diesem Fall von Europium(III) und Terbium(III), genutzt. In dieser Arbeit wurden Lanthanoid-dotierte mikroporöse Zeolithe, mikroporös-mesoporöse Hybridmaterialien und mesoporöse Silikate hinsichtlich ihrer Lumineszenzeigenschaften und ihrer Wechselwirkung des Wirtsmaterials mit den Lanthanoidionen mittels zeitaufgelöster Lumineszenzspektroskopie untersucht. Zeitaufgelöste Emissionsspektren (TRES) liefern dabei sowohl Informationen in der Wellenlängen- als auch in der Zeitdomäne. Erstmalig wurden die TRES mittels einer umfangreichen Auswertemethodik behandelt. Neben der Anpassung des Abklingverhaltens mit einer diskreten Zahl von Exponentialfunktionen, wurden unterstützend auch Abklingzeitverteilungsanalysen durchgeführt. Zeitaufgelöste flächennormierte Emissionsspektren (TRANES), eine Erweiterung der normalen TRES, konnten erstmals zur Bestimmung der Zahl der emittierenden Lanthanoidspezies in porösen Materialien genutzt werden. Durch die Berechnung der Decayassoziierten Spektren (DAS) konnten den Lanthanoidspezies die entsprechenden Lumineszenzspektren zugeordnet werden. Zusätzlich konnte, speziell im Fall der Europium-Lumineszenz, durch Kombination von zeitlicher und spektraler Information das zeitabhängige Asymmetrieverhältnis R und die spektrale Evolution des 5D0-7F0-Übergangs mit der Zeit t untersucht und somit wesentliche Informationen über die Verteilung der Europiumionen im Wirtsmaterial erhalten werden. Über die Abklingzeit und das Asymmetrieverhältnis R konnten Rückschlüsse auf die Zahl der OH-Oszillatoren in der ersten Koordinationssphäre und die Symmetrie der Koordinationsumgebung gezogen werden. Für die mikroporösen und mikroporös-mesoporösen Materialien wurden verschiedene Lanthanoidspezies, im Regelfall zwei, gefunden, welche entsprechend der beschriebenen Methoden charakterisiert wurden. Diese Lanthanoidspezies konnten Positionen in den Materialien zugeordnet werden, die sich im tief Inneren des Porensystems oder auf bzw. nahe der äußeren Oberfläche oder in den Mesoporen befinden. Erstere Spezies ist aufgrund ihrer Position im Material gut vor Feuchtigkeitseinflüssen geschützt, was sich deutlich in entsprechend langen Lumineszenzabklingzeiten äußert. Zusätzlich ist diese Europiumspezies durch unsymmetrische Koordinationsumgebung charakterisiert, was auf einen signifikanten Anteil an Koordination der Lanthanoidionen durch die Sauerstoffatome im Wirtsgitter zurückzuführen ist. Ionen, die sich nahe oder auf der äußeren Oberfläche befinden, sind dagegen für Feuchtigkeit zugänglicher, was in kürzeren Lumineszenzabklingzeiten und einer symmetrischeren Koordinationsumgebung resultiert. Der Anteil von Wassermolekülen in der ersten Koordinationssphäre ist hier deutlich größer, als bei den Ionen, die sich tiefer im Porensystem befinden und entspricht in vielen Fällen der Koordinationszahl eines vollständig hydratisierten Lanthanoidions. Auch der Einfluss von Oberflächenmodifikationen auf die Speziesverteilung und das Verhalten der Materialien gegenüber Feuchtigkeit wurde untersucht. Dabei gelang es den Einfluss der Feuchtigkeit auf die Lumineszenzeigenschaften und die Speziesverteilung durch die Oberflächenmodifikation zu verringern und die Lumineszenzeigenschaften teilweise zu konservieren. Im Fall der mesoporösen Silikamonolithe wurde auch eine heterogene Verteilung der Lanthanoidionen im Porensystem gefunden. Hier wechselwirkt ein Teil der Ionen mit der Porenwand, während sich die restlichen Ionen in der wäßrigen Phase innerhalb des Porensystems aufhalten. Das Aufbringen von Oberflächenmodifikationen führte zu einer Wechselwirkung der Ionen mit diesen Oberflächenmodifikationen, was sich in Abhängigkeit von der Oberflächenbeladung in den enstprechenden Lumineszenzeigenschaften niederschlug.
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
In diesem Beitrag wird "fallbasierte Lernberatung" als ein zentrales Moment der Weiterentwicklung der Studierfähigkeit der Studierenden vor- und dargestellt. Fallbasierte Lernberatung wird darin als reflexive Praktik verstanden, die in Lehrveranstaltungen oder begleitend zu Lehrveranstaltungen angeboten werden kann. Mit der Bereitstellung eines solchen Lernberatungsangebots wird zweierlei erreicht. Studierende erhalten die professionell begleitete Gelegenheit, ihre Lernfähigkeiten weiter zu entwickeln und Lehrende Aufschluss über die konkreten Lernprobleme der Studierenden. Dieser kann wiederum auf das Lehrangebot rückwirken und so die Qualität der Lehre verbessern helfen.
Der Forschungskreis Vereinte Nationen wurde 1999 als informelles Netzwerk für UN-Forschung gegründet mit dem Ziel, den Informationsaustausch unter den Wissenschaftlern der verschiedenen Fachdisziplinen und den Dialog mit den Praktikern zu fördern. Die regelmäßig stattfindenden Potsdamer UNO-Konferenzen des Forschungskreises Vereinte Nationen widmen sich der kritischen Analyse der UN-Forschung. Darüber hinaus bieten sie ein Forum für die Diskussion mit Politikern, UN-Mitarbeitern, Diplomaten und Journalisten über die Aufgaben der Vereinten Nationen und ihre Strukturen sowie über Konzepte zu ihrer Reform. Im vorliegenden Buch werden wichtige Referate der Potsdamer UNO-Konferenzen 2000 – 2008 veröffentlicht, die sich unter anderem den Themenbereichen Friedenssicherung, Menschenrechtsschutz und Umweltschutz durch die Vereinten Nationen, der Reform der UN-Hauptorgane sowie der deutschen UN-Politik und der UN-Politik im Rahmen der Europäischen Union widmen, und die ergänzt werden durch Beiträge der beiden Herausgeber zu den Problemen und Perspektiven der UN-Forschung in Deutschland.
Diese Arbeit untersucht, welche Faktoren die unterschiedliche Ausgestaltung von Beteiligungsmanagement in Kommunen erklären. Die Literatur verweist zwar auf die zunehmende Wichtigkeit des Managements von Beteiligungen, aber in der Praxis unterscheidet sich die Steuerung der Beteiligung stark. Auf Basis der Literatur zu Beteiligungsmanagement und zum Performance Management wird ein analytischer Rahmen aufgestellt, der es erlaubt, das Beteiligungsmanagement in Kommunen zu kategorisieren. Auch wird aus der Literatur abgeleitet, in wie weit strukturelle, institutionelle und akteursbezogene Faktoren die Ausgestaltung des Beteiligungsmanagement erklären können. Im Rahmen dieser Studie werden vier kreisfreien Städten verglichen und explorativ mögliche Erklärungsfaktoren identifiziert. So sind insbesondere institutionelle Faktoren, wie die organisatorische Ausgestaltung des Beteiligungsmanagements oder die Erfahrungen und Kompetenzen der Verwaltung, und akteursbezogene Faktoren, wie die Einstellung und Interessen von Verwaltungsleitung, Politik und Beteiligungen, wahrscheinliche Erklärungsfaktoren.
Lokale Politiknetzwerke werden sowohl in der öffentlichen Sozialstaatsdebatte als auch in der sozialwissenschaftlichen Forschung als vielversprechende Instrumente zur Optimierung von Wohlfahrtsmärkten propagiert. So auch in der Diskussion um den deutschen Pflegemarkt und seine Steuerungsdefizite. Im Gegensatz zu den mit dem Steuerungsinstrument Pflegekonferenz verknüpften Erwartungen, sind dessen genaues Steuerungspotential und mögliche Erklärungsfaktoren bisher jedoch nicht systematisch untersucht worden. Den methodologischen Kern dieser Arbeit bilden eine strukturelle Politikfeldanalyse des deutschen Pflegemarktes in Kombination mit einer empirischen Einzelfallstudie zu den Steuerungsleistungen einer Pflegekonferenz. Grundlage ist ein spezifisches Analyseraster auf Basis des akteurzentrierten Institutionalismus, welches die Aufmerksamkeit in der Analyse der Erklärungsfaktoren auf die Kombination der Koordinationsinstrumente Markt und Netzwerk sowie die Ausgestaltung des institutionellen Rahmens durch Gesetzgebung und Selbstverwaltung lenken soll. Im Rahmen der empirischen Erhebung konnten kaum direkte und nur wenige indirekte Steuerungsleistungen nachgewiesen werden. Als Ergebnis der Analyse lässt sich festhalten, dass lokale Politiknetzwerke im Umfeld des deutschen Pflegemarktes grundsätzlich mit erheblichen Herausforderungen hinsichtlich ihrer Steuerungsfunktion zu kämpfen haben. Dies lässt sich zum einen darauf zurückführen, dass ein gemeinsames Steuerungsinteresse der Akteure nur in wenigen Bereichen vorhanden ist, da die Grundbedingung der Interdependenz selten gegeben ist und auch nur sehr eingeschränkt innerhalb von Pflegekonferenzen entwickelt werden kann. Zum anderen sind die steuerungsrelevanten Handlungsressourcen oftmals lokal nicht verfügbar, wodurch erschwerend die Steuerungsmöglichkeiten eingeschränkt werden. Je nach Steuerungsbereich sind diese Faktoren jedoch verschieden ausgeprägt, sodass sich unterschiedliche Steuerungspotentiale ergeben.
Küsten und Klimawandel in den Augen von Touristen : eine Wahrnehmungsanalyse an der deutschen Ostsee
(2011)
Aufgrund seiner wirtschaftlichen Bedeutung spielt der Tourismus in Mecklenburg-Vorpommern eine große Rolle. Insbesondere die Küstengebiete sind beliebte Reiseziele. In den letzten Jahren konnte ein kontinuierlicher Anstieg der Ankünfte und Übernachtungen verzeichnet werden. Neben anderen Faktoren werden die regionalen Auswirkungen des Klimawandels jedoch in Zukunft eine Herausforderung für den Tourismussektor darstellen. Die globale Erwärmung wird für den Strand- und Badetourismus sowohl negative, als auch positive Folgen haben, auf die reagiert werden muss. Neben vorbeugenden Klimaschutzmaßnahmen werden künftig auch Anpassungsstrategien entwickelt werden müssen, die den zu erwartenden Veränderungen Rechnung tragen. Doch zu welchen tourismusrelevanten Veränderungen wird es überhaupt kommen und was geschieht bereits aktuell? Sind die Folgen des Klimawandels durch Touristen schon jetzt wahrnehmbar? Wie reagieren die Urlauber auf eventuelle Veränderungen? Diese und andere Fragen soll die vorliegende Arbeit, die innerhalb des RAdOST-Vorhabens (Regionale Anpassungsstrategien für die deutsche Ostseeküste) angesiedelt ist, beantworten. Dazu wurde zum einen eine Literaturrecherche zu tourismusrelevanten Klimawandelfolgen an der deutschen Ostseeküste durchgeführt. Zum anderen erfolgte in den Sommermonaten 2010 eine Befragung der Strandgäste in Markgrafenheide, Warnemünde und Nienhagen an der mecklenburgischen Ostseeküste. Im Mittelpunkt der Umfrage stand die Wahrnehmung von Erscheinungen (z.B. viele Quallen oder warmes Ostseewasser) sowie kurz- oder langfristigen Veränderungen an der Küste (z.B. schmalere Strände, vermehrter Strandanwurf) durch die Urlauber. Außerdem wurden die Einstellung und der Informationsgrad der Gäste zum Thema Klimawandel an der Ostseeküste analysiert. Ziel war es, aus den Umfrageergebnissen Handlungsempfehlungen für das lokale Strandmanagement hinsichtlich künftiger Anpassungsstrategien abzuleiten. Die Literaturrecherche zeigte, dass in einigen Bereichen schon jetzt Veränderungen (z.B. der Luft- und Wassertemperatur oder des Meeresspiegels) nachweisbar sind und laut verschiedener Modellprojektionen von weiteren Veränderungen ausgegangen werden kann. Wie die Umfrage deutlich machte, sind die Veränderungen momentan durch Touristen jedoch kaum oder gar nicht wahrnehmbar. Dementsprechend gering ist auch ihre Reaktion auf die einzelnen Phänomene. Generell ist die Wahrnehmung der Urlauber sehr subjektiv und selektiv. Manche Gegebenheiten wie beispielsweise existierende Küstenschutzmaßnahmen werden von einem großen Teil der Touristen gar nicht wahrgenommen. Hinsichtlich anderer Erscheinungen wie Strandanwurf und Quallen sind viele Besucher wiederum sehr sensibel. Es zeigte sich außerdem, dass es für die meisten Urlauber schwierig ist, zu beurteilen, ob bestimmte Gegebenheiten am Strand und an der Küste mit der globalen Erwärmung in Verbindung stehen oder nicht. Es besteht eine große Unsicherheit zu diesem Thema und oft wird der Klimawandel als Ursache für Erscheinungen genannt, auch wenn der kausale Zusammenhang wissenschaftlich nicht nachzuweisen ist. Es zeigte sich, dass die Urlauber sehr wenig über die regionalen Auswirkungen des Klimawandels informiert sind, sich aber Informationen wünschen. Folglich sollte zunächst die Aufklärung und Information der Urlauber über die Folgen der Veränderung des Klimas im Vordergrund stehen. Denn manche Aspekte, wie der Verlust von Strandabschnitten durch Erosion oder eine eventuelle Zunahme von Blaualgen in der Sommersaison, können nicht gänzlich vermieden werden. Durch gezielte Aufklärung könnte jedoch beispielsweise eine Akzeptanz für naturnahe Strände oder für den Rückzug aus einzelnen Gebieten geschaffen werden. Darüber hinaus sollte die zu erwartende Saisonverlängerung systematisch genutzt werden, um sowohl die Küste, als auch das Hinterland durch gezielte Angebote für Touristen attraktiv zu machen. Auf diese Weise könnte eine Entzerrung der Hauptsaison und eine bessere Auslastung der Beherbergungsbetriebe sowie der touristischen Infrastruktur erreicht werden.
Paul Lindaus DER ANDERE
(2011)
In dieser Arbeit wird die Wirkungs- und Entstehungsgeschichte des Schauspiels „Der Andere“ (1893) von Paul Lindau (1819-1839) untersucht. Der Fokus richtet sich auf die vielfältigen intertextuellen und intermedialen Verknüpfungen des Stückes, die sich über einen Zeitraum von 40 Jahren erstrecken. „Der Andere“ inszeniert einen Fall von Bewusstseinsspaltung, in welchem der Protagonist, ein angesehener Berliner Staatsanwalt, unwissentlich ein nächtliches Doppelleben führt und infolgedessen einen Einbruch in sein eigenes Haus begeht. Hier wird insbesondere den Wechselbeziehungen von medizinischen und medialen Diskursen nachgegangen, da „Der Andere“ nicht nur von nervenmedizinischer Seite als psychiatrischer Fall aufgegriffen, sondern 1913 unter Beteiligung Lindaus als erster deutscher 'Autorenfilm' und 1930 als erster Tonfilm Robert Wienes produziert worden ist. Während filmhistorische Untersuchungen den Befund der errungenen 'Feuilletonfähigkeit' des Stummfilmes festhielten, blieb das Interesse an dem Theaterstück von Seiten der Literaturwissenschaft bislang gering. Ihm war der Status als Vorlage beschieden, die aufgrund ihrer gespaltenen Hauptfigur Verbindungen zu Robert Louis Stevensons „Strange Case of Dr Jekyll and Mr Hyde“ und Hippolyte Taines „De l'Intelligence“ herzustellen scheint, welche bis heute undifferenziert als zentrale Prätexte tradiert worden sind. Verfolgt man hingegen die Spur von weniger prominenten Prätexten, ergibt sich ein vollständigeres Bild. Es stellt sich heraus, dass Lindau eine wesentliche Anregung aus einer unter Pseudonym verfassten französischen Novelle bezog, die er selbst ins Deutsche übersetzte, und dass das Spaltungskonzept von „Der Andere“ diesem Prätext samt seiner Anlehnung an Hippolyte Taine folgt. Auch verweist die Novelle Jeanne Weills auf einen prominenten Fall des Mediziners Adrien Proust, dem Vater Marcel Prousts, der einen straffällig gewordenen Juristen hypnotisch behandelte. Die Diagnose alternierender Bewusstseinszustände führte in diesem Fall zur Annullierung des Schuldspruchs. Durch den Wechsel in das Medium Film konnten wiederum Verbindungen etabliert werden, die den Bezug auf diese Prätexte verlagerten, überschrieben und/oder aktualisierten. So zieht der Stummfilm als wissenschaftliche Rückversicherung allein die schon damals überholte Studie Taines heran, während die spätere Tonverfilmung das psychoanalytische Konzept Freuds als Erklärungsmuster anbietet. Die Untersuchung zeigt am Beispiel von „Der Andere“, dass mediale, literarische und psychologische Diskurse fest miteinander verwoben sind. Ideen und Konzepte zirkulieren zwischen ihnen, weshalb sich die Grenzen zwischen authentischen und fiktiven Fallgeschichten als durchlässig erweisen. Im Falle von „Der Andere“ setzten diese Austauschprozesse eine besonders hohe Produktivität frei.
Wissenschaftler sind regelmäßig mehr an Forschung interessiert als an Lehre. Dies hat verschiedene Gründe, auf die hier nicht im Einzelnen eingegangen werden soll. Einer dieser Gründe liegt im eigenen Professionsverständnis als Forscher/in bzw. Wissenschaftler/in begründet. Im Kern geht es dabei um Entdeckungen, um Innovationen, um die Weiterentwicklung vorhandenen Wissens. Lehre wird dem gegenüber als intermediärer Bereich gesehen, in dem vorhandenes Wissen reproduziert wird, der deshalb mehr dem Berufssystem zugehörig ist und weniger dem Wissenschaftssystem (Fangmann 2006, S. 30). Lehre erscheint deshalb als Belastung, die mit Forschung nicht korrespondiert, eher von Forschung abhält, insbesondere wenn Studierende den eigenen Lehrbemühungen passiv gegenüberstehen und der Ertrag der Lehre zweifelhaft erscheint. Im Folgenden soll die Verwandtschaft von Forschung und Lernen dargestellt und auf ihre korrespondierenden Logiken verwiesen werden. Grundlage dafür ist ein lerntheoretisches Modell, das Lernen subjekttheoretisch als soziales Handeln konzipiert (Holzkamp 1993), das mit Forschen vergleichbar ist. Forschungsbasierte Lehre wird im Kontext einer subjekttheoretischen Didaktik (Ludwig 2006) als Lehre im Format der Forschung vorgestellt, die Lernen unterstützen kann, weil Lernen dem Forschungsprozess ähnelt. Typen, Erträge und Umsetzungsprobleme forschungsbasierter Lehre werden kurz skizziert.
Integrated real-time visualisation of massive 3D-Point clouds and geo-referenced textured dates
(2011)
Dieses Lehrvideo zeigt aus der Perspektive einer Übertischkamera den fiktiven informatischen Hochleister Tom bei der Bearbeitung eines schwierigen Färbeproblems. Dabei kann man die fortlaufend von ihm angefertigten Skizzen beobachten und seine Gedankengänge genau verfolgen. Denn dieser Problemlöser arbeitet unter lautem Denken, d. h. er spricht alle seine Gedankengänge laut aus. Man kann zuschauen, wie Tom zunächst die Aufgabe analysiert und die dadurch gewonnenen Erkenntnisse in der anschließenden Problembearbeitung gewinnbringend einsetzt. Der Zuschauer wird dabei aber nicht allein gelassen. An markanten Stellen wird das Video unterbrochen und Toms zurückliegende Aktivitäten mit animierten Bildsequenzen vertiefend erläutert. Schwache Problemlöser können so die in Unterricht oder Vorlesung vermittelten Kenntnisse über informatische Problemlösemethoden vertiefen und deren Anwendung durch einen starken Problemlöser beispielhaft miterleben. Entstanden ist dieses Video aus einer Vergleichsstudie mit starken und schwachen Problemlösern. Die effizienten Methoden der Hochleister wurden didaktisch aufgearbeitet und zu einem modellhaften Problemlöseprozess zusammengesetzt. Der wissenschaftliche Hintergrund des Lehrvideos wird durch eine als Bildergeschichte erzählte Rahmenhandlung verdeutlicht. Bei Erstsemesterstudenten der Informatik, denen dieses Video zur Bewertung vorgespielt wurde, fand dieses Konzept große Zustimmung. Tenor: Unterhaltsam und lehrreich zugleich.
Die vorliegende Arbeit betrachtet Partizipation aus einer interaktionalen Perspektive und nimmt zunächst eine interdisziplinär orientierte Begriffsbestimmung vor. Daran anschließend werden anhand einer Längsschnittstudie Entwicklungsbedingungen sozialer Partizipationskompetenzen im Vorschulalter untersucht und Förderempfehlungen abgeleitet. Partizipation (Teilhabe) soll in Kontexten wie Schule oder Arbeitswelt Entscheidungen demokratisch legitimieren, individuelle Ressourcen ausschöpfen und soziale Grundbedürfnisse des Menschen befriedigen. Ein engeres Verständnis von sozialer Partizipation aus einer interaktionalen Perspektive erfordert die Beteiligung an den Aktivitäten einer bereits bestehenden Gruppe und die Aushandlung eigener Interessen innerhalb dieser Gruppe und wird in der Arbeit als Prozess anhand dreier Phasen (Anbahnung, Projektierung und Realisierung) dargestellt. Im Vorschulalter werden wichtige Grundsteine für eine erfolgreiche soziale Entwicklung und für den Erwerb von sozialen Partizipationskompetenzen gelegt. In der vorliegenden Arbeit wurden deshalb die Zusammenhänge und Wechselwirkungen zwischen sozialen Partizipationskompetenzen (Bereitschaft und Fähigkeit) und (1) kognitiven Leistungsparametern (Intelligenz und Perspektivenübernahme), (2) dem Selbstkonzept und (3) dem Konfliktverhalten (Aggression und Schüchternheit) mit 5- bis 7jährigen Kindern mit Hilfe von Kreuzpfadanalysen untersucht. Zudem wurde die Situationsgebundenheit sozialer Partizipationskompetenzen und die Bedeutung struktureller Parameter der Familie und der Kindertageseinrichtung auf explorativer Ebene analysiert. Die Stichprobe bestand aus 334 Kindern (51,5 % weiblich, Altersdurchschnitt zum ersten Messzeitpunkt 5,4 Jahre) in 71 Kindergartengruppen in 21 Kindertageseinrichtungen in vier Bundesländern. Die längsschnittliche Datenanalyse basiert auf drei Messzeitpunkten. Die Ergebnisse zeigen, dass soziale Partizipationskompetenzen über verschiedene Situationen hinweg bedeutsame, aber nur mäßig ausgeprägte, Zusammenhänge aufweisen. Hohe Ausprägungen kognitiver Leistungsparameter gehen mit hohen Erziehereinschätzungen sozialer Partizipationskompetenzen einher. Über die Zusammenhänge hinaus zeigen sich im Längsschnitt bedeutsame Wechselwirkungen zwischen kognitiver Entwicklung und sozialen Partizipationskompetenzen im Vorschulalter. Selbsteinschätzungen zur eigenen Kompetenz hängen im Vorschulalter hingegen nur gering mit Erziehereinschätzungen der sozialen Partizipationskompetenz zusammen. Im Längsschnitt zeigt sich, dass junge Kinder bei der Beurteilung ihrer Kompetenzen zunächst auf soziale Partizipationserfolge zurückgreifen. Später hingegen scheint der Partizipationserfolg dann umgekehrt eher durch das Selbstbild bedingt zu sein. Geringe Partizipationskompetenzen gehen mit hohen Erziehereinschätzungen beim aggressiven (schwach signifikant) und schüchternen Verhalten (mäßig signifikant) einher. Hinsichtlich der Aggression und des schüchternen Verhaltens ergaben sich längsschnittlich betrachtet nur schwache Wechselwirkungen zur sozialen Partizipationskompetenz. Die Kumulation familiärer Belastungssituationen (z.B. Krankheit und akute Finanznot) stellen eine größere Bedrohung für die kindliche Entwicklung dar als der sozio-ökonomische Status der Familie. Mit Blick auf die Förderung sozialer Partizipationskompetenzen lassen sich die Ergebnisse mit einem sozial-konstruktivistischen Ansatz verbinden. Dessen Ziel ist es, intra- und interpersonelle Konflikte auszulösen, deren erfolgreiche Bewältigung produktive Lernprozesse auf kognitiver, emotionaler und behavioraler Ebene anstoßen.
Bildverarbeitungsanwendungen stellen besondere Ansprüche an das ausführende Rechensystem. Einerseits ist eine hohe Rechenleistung erforderlich. Andererseits ist eine hohe Flexibilität von Vorteil, da die Entwicklung tendentiell ein experimenteller und interaktiver Prozess ist. Für neue Anwendungen tendieren Entwickler dazu, eine Rechenarchitektur zu wählen, die sie gut kennen, anstatt eine Architektur einzusetzen, die am besten zur Anwendung passt. Bildverarbeitungsalgorithmen sind inhärent parallel, doch herkömmliche bildverarbeitende eingebettete Systeme basieren meist auf sequentiell arbeitenden Prozessoren. Im Gegensatz zu dieser "Unstimmigkeit" können hocheffiziente Systeme aus einer gezielten Synergie aus Software- und Hardwarekomponenten aufgebaut werden. Die Konstruktion solcher System ist jedoch komplex und viele Lösungen, wie zum Beispiel grobgranulare Architekturen oder anwendungsspezifische Programmiersprachen, sind oft zu akademisch für einen Einsatz in der Wirtschaft. Die vorliegende Arbeit soll ein Beitrag dazu leisten, die Komplexität von Hardware-Software-Systemen zu reduzieren und damit die Entwicklung hochperformanter on-Chip-Systeme im Bereich Bildverarbeitung zu vereinfachen und wirtschaftlicher zu machen. Dabei wurde Wert darauf gelegt, den Aufwand für Einarbeitung, Entwicklung als auch Erweiterungen gering zu halten. Es wurde ein Entwurfsfluss konzipiert und umgesetzt, welcher es dem Softwareentwickler ermöglicht, Berechnungen durch Hardwarekomponenten zu beschleunigen und das zu Grunde liegende eingebettete System komplett zu prototypisieren. Hierbei werden komplexe Bildverarbeitungsanwendungen betrachtet, welche ein Betriebssystem erfordern, wie zum Beispiel verteilte Kamerasensornetzwerke. Die eingesetzte Software basiert auf Linux und der Bildverarbeitungsbibliothek OpenCV. Die Verteilung der Berechnungen auf Software- und Hardwarekomponenten und die daraus resultierende Ablaufplanung und Generierung der Rechenarchitektur erfolgt automatisch. Mittels einer auf der Antwortmengenprogrammierung basierten Entwurfsraumexploration ergeben sich Vorteile bei der Modellierung und Erweiterung. Die Systemsoftware wird mit OpenEmbedded/Bitbake synthetisiert und die erzeugten on-Chip-Architekturen auf FPGAs realisiert.
Das Fremdwort im Deutschen
(2011)
Vektorfehlerkorrekturmodelle (VECM) erlauben es, Abhängigkeiten zwischen den Veränderungen mehrerer potenziell endogener Variablen simultan zu modellieren. Die Idee, ein langfristiges Gleichgewicht gleichzeitig mit kurzfristigen Veränderungen zu modellieren, lässt sich vom Eingleichungsansatz des Fehlerkorrekturmodells (ECM) zu einem Mehrgleichungsansatz für Variablenvektoren (VECM) verallgemeinern. Die Anzahl der kointegrierenden Beziehungen und die Koeffizientenmatrizen werden mit dem Johansen-Verfahren geschätzt. An einer einfachen Verallgemeinerung einer Konsumfunktion wird die Schätzung und Wirkungsweise eines VECM für Verbrauch, Einkommen und Aktienkurse in Deutschland gezeigt. Die Anwendung der Beveridge- Nelson-(BN)-Dekomposition auf vektorautoregressive Prozesse ermöglicht zudem, Abhängigkeiten zwischen den aus den kointegrierten Zeitreihen extrahierten zyklischen Komponenten zu schätzen.
Wiedergelesen
(2011)
Seit 2008 ergänzt die sowohl kleine als auch feine Rubrik "Wiedergelesen" die Ausgaben des außenpolitischen Fachjournals WeltTrends. Berühmte Bücher der Politologie und schätzenswerte Raritäten werden für die Füllung dieser Rubrik aus Bücherregalen herausgefischt, abgestaubt und in aktuellem Interesse gelesen - wieder gelesen. Stets ist es das Anliegen, die Schriften sowohl aus ihrer Zeit zu verstehen als auch für unsere Zeit nutzbar zu machen - z. B. Huntingtons The Clash of Civilizations, Lipsets Political Man, Paines Die Rechte des Menschen oder An Authoritarian Regime: The Case of Spain von Linz.
Die Impuls-Antwort-Analyse – auch Schockanalyse genannt – stellt eine wichtige Möglichkeit der vertiefenden Analyse von vektorautoregressiven (VAR) Modellen dar. Bei der Schätzung der Impuls-Antwort-Folgen müssen die Zeitreiheneigenschaften der zugrundeliegenden Daten berücksichtigt werden. Weisen die Zeitreihen stochastische Trends auf und sind die Zeitreihen kointegriert, kann die Impuls-Antwort-Analyse auf der Basis eines kointegrierenden VAR-Modells (VECM) erfolgen. Pesaran und Shin (1998) entwickelten die verallgemeinerten (Generalized) Impuls-Antwort-Funktionen, um den Mangel der fehlenden Eindeutigkeit der orthogonalen Schockanalyse zu umgehen. Am Beispiel der Variablen einer Konsumfunktion für Deutschland werden die auf der Grundlage eines Vektor-Fehlerkorrekturmodells berechneten verallgemeinerten Impuls-Antwort-Folgen den orthogonalen gegenübergestellt.
Kommunalrecht
(2011)
Moderne Bürgerreligion
(2011)
Das politische System Irans
(2011)
Seit über 30 Jahren hat die Islamische Republik Iran Bestand, doch noch immer dauern Debatten über die Einordnung des Regimes an. Handelt es sich bei dieser theokratischen Republik um ein autoritäres oder totalitäres System oder gar um einen neuartigen Regimetypus islamischer Prägung? In sechs Abschnitten wird hinter den Schleier der Islamischen Republik geblickt. Diese umfassen die Vereinbarkeit von Islam und Staat, die institutionelle Architektur des Systems, Räume politischer Teilhabe, Wirtschaft und Militär, Außenbeziehungen und Regionalmachtsanspruch, die grüne Revolte von 2009 sowie den aktuellen Machtkampf der Eliten. Dazu begeben sich deutsche und iranische Autoren unterschiedlicher Disziplinen auf die Spur eines scheinbar undurchsichtigen iranischen Herrschaftsmodells – das der velāyat-e faqih.
Mehr Chancen als Risiken
(2011)
Anne Christensen spricht von partizipativer Entwicklung, wenn sie sich zum Komplex Bibliothek 2.0 äußert, und meint damit primär die stärkere Einbeziehung der Benutzer, wenn es um die Zukunft der kollaborativen Erschließung von Medien in Bibliothekskatalogen geht.1 Diese Art der Partizipation tangiert Kernaufgaben sowohl an Öffentlichen als auch an wissenschaftlichen Bibliotheken. Über die Beteiligung der Benutzer am Katalog 2.0 hinaus könnte auch durch eine weitere Form der Partizipation Einfl uss auf die Zukunft Öffentlicher Bibliotheken genommen werden: durch den Bürgerhaushalt.
Ende Juli 2011 jubelt die europäische Presse: Endlich gebe es die nötige Solidarität in der Euro-Zone. Die Angriffe der Rating-Agenturen könnten abgewehrt, die Interessen der Finanzmärkte befriedet werden. Was aber heißt Solidarität hier und heute? Wie ist sie in der Europäischen Union verankert, formal, rechtlich und politisch? Mit was für einer Krise haben wir es überhaupt zu tun? Was verbindet die eingeforderte Solidarität mit der Demokratie? Und welche Rolle spielt Deutschland in dieser Krise? Antworten auf diese Fragen bietet der Text von Heinz Kleger.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob die Frühgeburtlichkeit eine Auswirkung auf den Spracherwerb im ersten Lebensjahr hat. Insbesondere wurde der Frage nachgegangen, ob sich die Verarbeitung der rhythmisch-prosodischen Eigenschaften von Sprache im ersten Lebensjahr und deren weitere Ausnutzung für die Entwicklung des Lexikons bei sehr untergewichtigen Deutsch lernenden Frühgeborenen im Vergleich zu Reifgeborenen unterscheidet. Die besondere Spracherwerbssituation Frühgeborener liefert weitere Erkenntnisse bezüglich der Frage, inwieweit der frühe Spracherwerb durch prädeterminierte reifungsbedingte Mechanismen und Abläufe bestimmt wird und inwieweit dessen Verlauf und die relevanten Erwerbsmechanismen durch individuelle erfahrungsabhängige Faktoren beeinflusst werden. Damit liefern die Ergebnisse auch einen weiteren Beitrag zur Nature-Nurture-Diskussion.
Der Band enthält die Vorträge einer Konferenz vom November 2009 in Potsdam. Die Texte untersuchen anhand ausgewählter Beispiele die Entwicklungen der zurückliegenden zwanzig Jahre im Zivilrecht, Strafrecht und öffentlichen Recht. Die Bundesrepublik Deutschland sieht sich seit der Wiedervereinigung und dem Ende des Kalten Krieges in einer ganz neuen Situation. Dies gilt für den völkerrechtlichen Rahmen ihrer Außenpolitik, für den Wettbewerb der Rechtsordnungen, für die mit erhöhter Dynamik fortschreitende europäische Einigung und ihre Konsequenzen. Die bei der Grundrechtsinterpretation im Mehrebenensystem auftauchenden Divergenzen und die Auswirkungen technischer Neuerungen auf das Sozialverhalten prägen Rechtswirklichkeit und Rechtsdogmatik.
Raumbilder im Wandel?
(2011)
Diese von der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Potsdam angenommene Dissertation thematisiert die Selbstorganisation von Migranten in eigenen Sportvereinen und auf anderen Ebenen des Vereinssports. Sie beruht auf den Ergebnissen eines vom Bundesinstitut für Sportwissenschaft geförderten Forschungsprojekts der Universität Potsdam. Mit mehreren hundert Migrantensportvereinen in ganz Deutschland stellt der Sport einen der wichtigsten Gesellschaftsbereiche für die Selbstorganisation von Zuwanderern dar. Doch obwohl sich Migranten in der Bundesrepublik schon seit den 1960er Jahren in eigenen Sportvereinen zusammenschließen, ist das Thema zuvor noch nicht umfassend untersucht worden. Um diese Forschungslücke zu schließen, stellt die Arbeit Basisinformationen über verschiedene Organisationsformen, typische Entstehungszusammenhänge, spezifische Problemfelder sowie wiederkehrende Konfliktmuster bereit und präsentiert darauf aufbauende Annahmen über die Wirkungen der sportbezogenen Selbstorganisation auf das Verhältnis von Einheimischen und Zuwanderern im Sport, auf die allgemeinen interethnischen Beziehungen und auf den gesamtgesellschaftlichen Integrationsprozess. Daran anknüpfend werden mögliche Konsequenzen aufgezeigt, die die verschiedenen Akteure des Sportsystems aus den dargestellten Forschungsbefunden ziehen können. Die Arbeit basiert auf den Befunden einer in den Jahren 2006 bis 2009 durchgeführten empirischen Untersuchung, in der verschiedene qualitative Methoden eingesetzt wurden, um das Forschungsfeld explorativ, ergebnisoffen und in einer möglichst weiten Perspektive zu beleuchten. In erster Linie bestand diese Feldstudie in einer Interviewreihe, für die 25 Vertreter von Migrantensportvereinen sowie 15 Feldexperten aus verschiedenen Berufsgruppen und Organisationen in Leitfaden-Interviews befragt wurden. Ergänzt wurde die Interviewstudie durch eine Zeitungsanalyse, für die sieben Tages- und Wochenzeitungen nach Artikeln zum Thema durchsucht wurden, sowie gezielte Feldbeobachtungen, etwa beim Besuch von Fußballspielen, bei Versammlungen und Festen sowie in Vereinsheimen. Darüber hinaus wurde eine umfangreiche Internetrecherche durchgeführt, bei der vor allem die Webseiten von über 65 Migrantensportvereinen in Augenschein genommen wurden. In allen Untersuchungsteilen war das Vorgehen des Verfassers stark an der Grounded-Theory-Methode orientiert. Die so gewonnenen Forschungsergebnisse deuten darauf hin, dass eigenständige Migrantensportvereine, die als vorherrschende Form der sportbezogenen Selbstorganisation von Zuwanderern im Mittelpunkt der Arbeit stehen, aus komplexen gesellschaftlichen Inklusions-, Schließungs- sowie Segmentationsprozessen resultieren und interindividuell unterschiedliche Beteiligungsmotive ihrer Mitglieder aufnehmen. Sie stellen typischerweise multifunktionale Hybridorganisationen dar und erbringen für die beteiligten Migranten und deren lokale Gemeinschaften spezifische Integrations-, Repräsentations- und Solidarleistungen, durch die sie sich signifikant von deutschen Sportvereinen und Migrantenorganisationen in anderen Sektoren abheben. Zugleich unterscheiden sich die Migrantensportvereine untereinander hinsichtlich Vereinstätigkeit, Selbstverständnis und Konfliktbeteiligung sehr stark. Ihre Rückwirkung auf den Vereinssport als organisationales Feld, auf die interethnischen Beziehungen in anderen Gesellschaftsbereichen und auf den gesamtgesellschaftlichen Integrationsprozess ist den präsentierten Forschungsergebnissen zufolge gleichfalls sehr ambivalent. Einerseits erbringen Migrantenvereine nicht nur die gleichen gemeinnützigen Leistungen im Bereich der sozialen Integration wie andere Sportvereine auch, sondern entfalten darüber hinaus, indem sie die Integrationsfähigkeit ihrer Mitglieder erhöhen und Personen in den organisierten Sport einbeziehen, die sonst gar keinem Sportverein beitreten würden, spezifische Integrationswirkungen, die andere Sportvereine nicht aufweisen. Andererseits erhöht die Selbstorganisation von Migranten in eigenen Sportvereinen soziale Distanzen und Spannungen zwischen Einheimischen und Zuwanderern, zumal Migrantensportvereine vor allem an den manchmal gewaltvollen Konflikten im Amateurfußball überproportional häufig beteiligt sind. Darüber hinaus stellt ein relativ kleiner Teil der Migrantensportvereine wegen Organisationsdefiziten eine ernste Belastung für die Tätigkeit der Sportverbände dar. Pauschalisierende Negativbewertungen der Vereine werden vom Verfasser jedoch als ungerechtfertigt und nicht sachangemessen zurückgewiesen.
Das vorliegende Buch vergleicht Strategien biologischer Systeme mit militärischen Strategien. Die zentrale Fragestellung ist dabei darauf gerichtet, ob es neben systemischen Gemeinsamkeiten auch gemeinsame oder ähnliche Strukturmuster und ähnliche Prozessabläufe beispielsweise sowohl im biologischen Abwehrmechanismus des Immunsystems und bei Insektenstaaten als auch bei Prozessen im Militär gibt. Vor diesem Hintergrund klaffen in der Theorie der Strategie, speziell in den Militärwissenschaften Lücken, denn der Systemansatz wird nicht konsequent beachtet, wie in diesem Buch mehrfach nachgewiesen ist. Von einem allgemeinen Verständnis der Strategie als bewusstem planerischem Vorgehen ist Abstand zu nehmen. Ausgehend von der Methode der Analogie und des Vergleichs wird im theoretischen Teil dieses Buches die Allgemeine Systemtheorie erläutert. Dabei werden der Begriff der Strategie ebenso wie die Begriffe Struktur und Prozess und Ansätze aus der Kriegsphilosophie von Clausewitz untersucht. Den Ausgangspunkt und schließlich auch wieder den Endpunkt der Überlegungen bilden neben dem notwendigen weiten Verständnis von Strategie, vor allem der Begriff der Organisation, ihrer Umwelt und der in diesem Zusammenhang bestehenden Wechselwirkung. Sowohl die Wechselwirkung von Umwelt und System als auch ihre Abhängigkeit durch strukturelle Kopplung werden beschrieben. Das Zusammenspiel und die daraus entstehende Komplexität der fünf Komponenten der Wahrnehmung, der Information und der Führung im Zusammenhang der Komponenten von Raum und Zeit in einem sozialen System lassen die klassische Ziel-Mittel-Zweck-Beziehung Clausewitz´scher Strategiedefinition verkürzt erscheinen. Anhand eines kurzen Rekurses der Methoden der Sozialen Netzwerkanalyse (SNA) wird der breite und tiefgehende Analyserahmen der Messung und Transparenzerreichung in Organisationen vorgestellt. Die SNA wird als Ausprägung der Netzwerk- und Graphentheorie, in die Allgemeine Systemtheorie integriert. Sie bildet eine zukunftsweisende Methode der Untersuchung von Netzwerken wie etwa dem Internet (Facebook, Xing etc.). Der aufgezeigte Theorierahmen bildet dabei zugleich eine Methode für den Systemvergleich und kann als Vorgehensmodell künftiger Strategieentwicklung genutzt werden. Der anschließende Systemvergleich wird mit mehreren Beispielen durchgeführt. Ausgehend von der Zelle als Grundeinheit werden Strukturen und Prozesse des Immunsystems mit solchen in militärischen Strukturen, weil sie im Lauf der Evolution enorme Leistungen in Reaktion, Anpassung und Optimierung vollbracht haben. Der Vergleich geht der Frage nach, ob in diesen Bereichen der Strategie und Organisation systemische Grundregeln existieren. Das Beispiel der Wechselwirkung zwischen Parasit und Wirt zeigt, dass jeder Fortschritt und Sieg angesichts der Systemeinbettung von Strategie nur relativ wirken kann. Die Analogie zwischen Viren und Bakterien sowie die Entwicklung des Begriffs der sozialen Mimikry führen zu einem erweiterten Verständnis der Strategie von Terroristen in sozialen Systemen. Verdeutlicht wird das Grundschema des Täuschens und Eindringens in Systeme sowie die Beeinflussung und Umsteuerung von Prozessen und Strukturen in einem System durch Kommunikation und Implementation von Codes. Am Beispiel des Immunsystems und der Bildung verschiedener Kommunikations- und Steuerungsmechanismen von Zellsystemen sowie Beispielen von Schwarmbildung und der Organisation sozialer Insekten werden eine Vielzahl heuristischer Hinweise für neue Ansätze für die Organisation von Streitkräften und ihrer Steuerung gefunden. Neben der Erarbeitung eines grundlegenden Strategiebegriffs anhand von Wahrnehmung und Selektion als Grundprozess der Erzeugung von Strategie wird eine differenzierte Betrachtung von Begriffen wie Redundanz und Robustheit sowie eine relativierende Sichtweise von Risiko, Gefahr und Schaden gewonnen. Der Vergleich mit dem Immunsystems zeigt einfache Beispiele der Informationsspeicherung und -übertragung, die zudem Bypassfähigkeiten sowie dezentrale Eskalations- und Deeskalationsprinzipien veranschaulichen. Dies eröffnet in Analogie dieser Prinzipien einen weiten Raum Sicherheitsarchitekturen zu überdenken und neu zu strukturieren. Zudem kann die räumliche Ausbreitung von Information und Kräften als ein gemeinsames Grundproblem der Entwicklung und Wirksamkeit von Strategien sowohl in der Natur, als auch im Militär identifiziert werden. Die Betrachtung zeigt zudem wie Zellen mit fehlgeleiteten Prozessen und Strukturen umgehen. Die Analogie deutet auf das Erfordernis einer Veränderung im Umgang mit Fehlern und ihrer Rückführ- und Umkehrbarkeit im weitesten Sinne. Das Buch eröffnet überdies ein neues Verständnis von Staat, Gewaltenteilung und Institutionen in einem sozialen System. Die Ergebnisse sind auch auf andere Forschungsbereiche, Organisationen und unterschiedlichste soziale Systeme übertragbar. Es eröffnet sich ein breites Anwendungsspektrum für künftige strategische Untersuchungen.
Von der Natur geschaffene Polymere faszinieren Polymerforscher durch ihre spezielle auf eine bestimmte Aufgabe ausgerichtete Funktionalität. Diese ergibt sich aus ihrer Bausteinabfolge uber die Ausbildung von Uberstrukturen. Dazu zählen zum Beispiel Proteine (Eiweiße), aus deren Gestalt sich wichtige Eigenschaften ergeben. Diese Struktureigenschaftsbeziehung gilt ebenso für funktionelle synthetische Makromoleküle. Demzufolge kann die Kontrolle der Monomersequenz in Polymeren bedeutend für die resultierende Form des Polymermoleküls sein. Obwohl die Synthese von synthetischen Polymeren mit der Komplexität und der Größe von Proteinen in absehbarer Zeit wahrscheinlich nicht gelingen wird, können wir von der Natur lernen, um neuartige Polymermaterialien mit definierten Strukturen (Sequenzen) zu synthetisieren. Deshalb ist die Entwicklung neuer und besserer Techniken zur Strukturkontrolle von großem Interesse für die Synthese von Makromolekülen, die perfekt auf ihre Funktion zugeschnitten sind. Im Gegensatz zu der Anzahl fortgeschrittener Synthesestrategien zum Design aus- gefallener Polymerarchitekturen – wie zum Beispiel Sterne oder baumartige Polymere (Dendrimere) – gibt es vergleichsweise wenig Ansätze zur echten Sequenzkontrolle in synthetischen Polymeren. Diese Arbeit stellt zwei unterschiedliche Techniken vor, mit denen die Monomersequenz innerhalb eines Polymers kontrolliert werden kann. Gerade bei den großtechnisch bedeutsamen radikalischen Polymerisationen ist die Sequenzkontrolle schwierig, weil die chemischen Bausteine (Monomere) sehr reaktiv sind. Im ersten Teil dieser Arbeit werden die Eigenschaften zweier Monomere (Styrol und N-substituiertes Maleinimid) geschickt ausgenutzt, um in eine Styrolkette definierte und lokal scharf abgegrenzte Funktionssequenzen einzubauen. Uber eine kontrollierte radikalische Polymerisationsmethode (ATRP) wurden in einer Ein-Topf-Synthese über das N-substituierte Maleinimid chemische Funktionen an einer beliebigen Stelle der Polystyrolkette eingebaut. Es gelang ebenfalls, vier unterschiedliche Funktionen in einer vorgegebenen Sequenz in die Polymerkette einzubauen. Diese Technik wurde an zwanzig verschiedenen N-substituierten Maleinimiden getestet, die meisten konnten erfolgreich in die Polymerkette integriert werden. In dem zweiten in dieser Arbeit vorgestellten Ansatz zur Sequenzkontrolle, wurde der schrittweise Aufbau eines Oligomers aus hydrophoben und hydrophilen Segmenten (ω-Alkin-Carbonsäure bzw. α-Amin-ω-Azid-Oligoethylenglycol) an einem löslichen Polymerträger durchgeführt. Das Oligomer konnte durch die geschickte Auswahl der Verknüpfungsreaktionen ohne Schutzgruppenstrategie synthetisiert werden. Der lösliche Polymerträger aus Polystyrol wurde mittels ATRP selbst synthetisiert. Dazu wurde ein Startreagenz (Initiator) entwickelt, das in der Mitte einen säurelabilen Linker, auf der einen Seite die initiierende Einheit und auf der anderen die Ankergruppe für die Anbindung des ersten Segments trägt. Der lösliche Polymerträger ermöglichte einerseits die schrittweise Synthese in Lösung. Andererseits konnten überschüssige Reagenzien und Nebenprodukte zwischen den Reaktionsschritten durch Fällung in einem Nicht-Lösungsmittel einfach abgetrennt werden. Der Linker ermöglichte die Abtrennung des Oligomers aus jeweils drei hydrophoben und hydrophilen Einheiten nach der Synthese.
Im Mittelpunkt dieser Arbeit stehen virtuelle 3D-Stadtmodelle, die Objekte, Phänomene und Prozesse in urbanen Räumen in digitaler Form repräsentieren. Sie haben sich zu einem Kernthema von Geoinformationssystemen entwickelt und bilden einen zentralen Bestandteil geovirtueller 3D-Welten. Virtuelle 3D-Stadtmodelle finden nicht nur Verwendung als Mittel für Experten in Bereichen wie Stadtplanung, Funknetzplanung, oder Lärmanalyse, sondern auch für allgemeine Nutzer, die realitätsnah dargestellte virtuelle Städte in Bereichen wie Bürgerbeteiligung, Tourismus oder Unterhaltung nutzen und z. B. in Anwendungen wie GoogleEarth eine räumliche Umgebung intuitiv erkunden und durch eigene 3D-Modelle oder zusätzliche Informationen erweitern. Die Erzeugung und Darstellung virtueller 3D-Stadtmodelle besteht aus einer Vielzahl von Prozessschritten, von denen in der vorliegenden Arbeit zwei näher betrachtet werden: Texturierung und Visualisierung. Im Bereich der Texturierung werden Konzepte und Verfahren zur automatischen Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern sowie zur Speicherung oberflächengebundener Daten in virtuellen 3D-Stadtmodellen entwickelt. Im Bereich der Visualisierung werden Konzepte und Verfahren für die multiperspektivische Darstellung sowie für die hochqualitative Darstellung nichtlinearer Projektionen virtueller 3D-Stadtmodelle in interaktiven Systemen vorgestellt. Die automatische Ableitung von Fototexturen aus georeferenzierten Schrägluftbildern ermöglicht die Veredelung vorliegender virtueller 3D-Stadtmodelle. Schrägluftbilder bieten sich zur Texturierung an, da sie einen Großteil der Oberflächen einer Stadt, insbesondere Gebäudefassaden, mit hoher Redundanz erfassen. Das Verfahren extrahiert aus dem verfügbaren Bildmaterial alle Ansichten einer Oberfläche und fügt diese pixelpräzise zu einer Textur zusammen. Durch Anwendung auf alle Oberflächen wird das virtuelle 3D-Stadtmodell flächendeckend texturiert. Der beschriebene Ansatz wurde am Beispiel des offiziellen Berliner 3D-Stadtmodells sowie der in GoogleEarth integrierten Innenstadt von München erprobt. Die Speicherung oberflächengebundener Daten, zu denen auch Texturen zählen, wurde im Kontext von CityGML, einem international standardisierten Datenmodell und Austauschformat für virtuelle 3D-Stadtmodelle, untersucht. Es wird ein Datenmodell auf Basis computergrafischer Konzepte entworfen und in den CityGML-Standard integriert. Dieses Datenmodell richtet sich dabei an praktischen Anwendungsfällen aus und lässt sich domänenübergreifend verwenden. Die interaktive multiperspektivische Darstellung virtueller 3D-Stadtmodelle ergänzt die gewohnte perspektivische Darstellung nahtlos um eine zweite Perspektive mit dem Ziel, den Informationsgehalt der Darstellung zu erhöhen. Diese Art der Darstellung ist durch die Panoramakarten von H. C. Berann inspiriert; Hauptproblem ist die Übertragung des multiperspektivischen Prinzips auf ein interaktives System. Die Arbeit stellt eine technische Umsetzung dieser Darstellung für 3D-Grafikhardware vor und demonstriert die Erweiterung von Vogel- und Fußgängerperspektive. Die hochqualitative Darstellung nichtlinearer Projektionen beschreibt deren Umsetzung auf 3D-Grafikhardware, wobei neben der Bildwiederholrate die Bildqualität das wesentliche Entwicklungskriterium ist. Insbesondere erlauben die beiden vorgestellten Verfahren, dynamische Geometrieverfeinerung und stückweise perspektivische Projektionen, die uneingeschränkte Nutzung aller hardwareseitig verfügbaren, qualitätssteigernden Funktionen wie z.~B. Bildraumgradienten oder anisotroper Texturfilterung. Beide Verfahren sind generisch und unterstützen verschiedene Projektionstypen. Sie ermöglichen die anpassungsfreie Verwendung gängiger computergrafischer Effekte wie Stilisierungsverfahren oder prozeduraler Texturen für nichtlineare Projektionen bei optimaler Bildqualität. Die vorliegende Arbeit beschreibt wesentliche Technologien für die Verarbeitung virtueller 3D-Stadtmodelle: Zum einen lassen sich mit den Ergebnissen der Arbeit Texturen für virtuelle 3D-Stadtmodelle automatisiert herstellen und als eigenständige Attribute in das virtuelle 3D-Stadtmodell einfügen. Somit trägt diese Arbeit dazu bei, die Herstellung und Fortführung texturierter virtueller 3D-Stadtmodelle zu verbessern. Zum anderen zeigt die Arbeit Varianten und technische Lösungen für neuartige Projektionstypen für virtueller 3D-Stadtmodelle in interaktiven Visualisierungen. Solche nichtlinearen Projektionen stellen Schlüsselbausteine dar, um neuartige Benutzungsschnittstellen für und Interaktionsformen mit virtuellen 3D-Stadtmodellen zu ermöglichen, insbesondere für mobile Geräte und immersive Umgebungen.
Lamine bilden zusammen mit laminassoziierten Proteinen die nukleäre Lamina. Diese ist notwendig für die mechanische Stabilität von Zellen, die Organisation des Chromatins, der Genexpression, dem Fortgang des Zellzyklus und der Zellmigration. Die vielfältigen Funktionen der Lamine werden durch die Pathogenese von Laminopathien belegt. Zu diesen Erkrankungen, welche ihre Ursache in Mutationen innerhalb der laminkodierenden Gene, oder der Gene laminassoziierter bzw. laminprozessierender Proteine haben, zählen unter anderem das „Hutchinson-Gilford Progerie Syndrom“, die „Emery-Dreifuss“ Muskeldystrophie und die dilatierte Kardiomyopathie. Trotz der fundamentalen Bedeutung der Lamine, wurden diese bisher nur in Metazoen und nicht in einzelligen Organismen detektiert. Der amöbide Organismus Dictyostelium discoideum ist ein haploider Eukaryot, der häufig als Modellorganismus in den verschiedensten Bereichen der Zellbiologie eingesetzt wird. Mit der Entdeckung von NE81, einem Protein das mit der inneren Kernhülle von Dictyostelium discoideum assoziiert ist, wurde erstmals ein Protein identifiziert, dass man aufgrund seiner Eigenschaften als laminähnliches Protein in einem niederen Eukaryoten bezeichnen kann. Diese Merkmale umfassen die Existenz lamintypischer Sequenzen, wie die CDK1-Phosphorylierungsstelle, direkt gefolgt von einer zentralen „Rod“-Domäne, sowie eine typische NLS und die hoch konservierte CaaX-Box. Für die Etablierung des NE81 als „primitives“ Lamin, wurden im Rahmen dieser Arbeit verschiedene Experimente durchgeführt, die strukturelle und funktionelle Gemeinsamkeiten zu den Laminen in anderen Organismen aufzeigen konnten. Die Herstellung eines polyklonalen Antikörpers ermöglichte die Verifizierung der subzellulären Lokalisation des NE81 durch Elektronenmikroskopie und gab Einblicke in das Verhalten des endogenen Proteins innerhalb des Zellzyklus. Mit der Generierung von NE81-Nullmutanten konnte demonstriert werden, dass NE81 eine wichtige Rolle bei der nukleären Integrität und der Chromatinorganisation von Zellen spielt. Des Weiteren führte die Expression von zwei CaaX-Box deletierten NE81 - Varianten dazu, den Einfluss des Proteins auf die mechanische Stabilität der Zellen nachweisen zu können. Auch die Bedeutung der hochkonservierten CaaX-Box für die Lokalisation des Proteins wurde durch die erhaltenen Ergebnisse deutlich. Mit der Durchführung von FRAP-Experimente konnte außerdem die strukturgebende Funktion von NE81 innerhalb des Zellkerns bekräftigt werden. Zusätzlich wurde im Rahmen dieser Arbeit damit begonnen, den Einfluss der Isoprenylcysteincarboxylmethyltransferase auf die Lokalisation des Proteins aufzuklären. Die Entdeckung eines laminähnlichen Proteins in einem einzelligen Organismus, der an der Schwelle zu den Metazoen steht, ist für die evolutionäre Betrachtung der Entwicklung der sozialen Amöbe und für die Erforschung der molekularen Basis von Laminopathien in einem einfachen Modellorganismus sehr interessant. Die Arbeit mit Dictyostelium discoideum könnte daher Wege aufzeigen, dass Studium der Laminopathien am Tiermodell drastisch zu reduzieren. In den letzten Jahren hat die Erforschung unbekannter Bestandteile des Centrosoms in Dictyostelium discoideum große Fortschritte gemacht. Eine zu diesem Zwecke von unserer Arbeitsgruppe durchgeführte Proteomstudie, führte zur Identifizierung weiterer, potentiell centrosomaler Kandidatenproteine. Der zweite Teil dieser Arbeit beschäftigt sich mit der Charakterisierung eines solchen Kandidatenproteins, dem CP75. Es konnte gezeigt werden, dass CP75 einen echten, centrosomalen Bestandteil darstellt, der mikrotubuli-unabhängig mit der Core Struktur des Zellorganells assoziiert ist. Weiterhin wurde deutlich, dass die Lokalisation am Centrosom in Abhängigkeit vom Zellzyklus erfolgt und CP75 vermutlich mit CP39, einem weiteren centrosomalen Core Protein, interagiert.
Deutschland braucht eine neue außenpolitische Kultur! Hierfür plädierte eine junge Gruppe aus dem "Tönissteiner Kreis" 2010 in der Frühjahrsausgabe von WeltTrends und forderte eine klare Formulierung deutscher Interessen. Die angestoßene Debatte stieß auf große Resonanz und wurde von jungen Akademikern aufgenommen, die sich nicht scheuten, eigene Anregungen für die deutsche Außenpolitik zu formulieren und zentrale Thesen des Plädoyers in Frage zu stellen: Worin bestand das Neue, worin das Deutsche an der Forderung nach einer Interessendefinition? Das Papier gibt die lebhafte Debatte des außenpolitischen Nachwuchses wieder, die 2010 innerhalb wie außerhalb der Zeitschrift geführt wurde.