Refine
Year of publication
- 2011 (864) (remove)
Document Type
- Article (463)
- Doctoral Thesis (147)
- Monograph/Edited Volume (129)
- Review (53)
- Postprint (25)
- Master's Thesis (12)
- Part of Periodical (11)
- Other (9)
- Working Paper (4)
- Conference Proceeding (3)
Language
- German (864) (remove)
Keywords
- Deutschland (17)
- Germany (16)
- International Politics (16)
- Internationale Politik (16)
- Afghanistan (15)
- Bürgerschaft (15)
- Integration (15)
- Migration (15)
- Politische Theorie (15)
- Friedens- und Konfliktforschung (14)
Institute
- Institut für Romanistik (100)
- Wirtschaftswissenschaften (80)
- MenschenRechtsZentrum (71)
- WeltTrends e.V. Potsdam (69)
- Historisches Institut (63)
- Sozialwissenschaften (57)
- Institut für Slavistik (50)
- Institut für Germanistik (38)
- Institut für Jüdische Studien und Religionswissenschaft (34)
- Department Linguistik (32)
- Vereinigung für Jüdische Studien e. V. (27)
- Department Erziehungswissenschaft (26)
- Department Psychologie (24)
- Bürgerliches Recht (21)
- Öffentliches Recht (21)
- Extern (17)
- Institut für Anglistik und Amerikanistik (17)
- Institut für Chemie (17)
- Institut für Künste und Medien (16)
- Philosophische Fakultät (16)
- Department Sport- und Gesundheitswissenschaften (15)
- Zentrum für Qualitätsentwicklung in Lehre und Studium (ZfQ) (14)
- Moses Mendelssohn Zentrum für europäisch-jüdische Studien e. V. (13)
- Institut für Biochemie und Biologie (12)
- Institut für Umweltwissenschaften und Geographie (11)
- Institut für Ernährungswissenschaft (10)
- Institut für Physik und Astronomie (9)
- Institut für Informatik und Computational Science (8)
- Strafrecht (8)
- Hasso-Plattner-Institut für Digital Engineering gGmbH (6)
- Institut für Geowissenschaften (5)
- Kommunalwissenschaftliches Institut (3)
- Referat für Presse- und Öffentlichkeitsarbeit (3)
- Zentrum für Lehrerbildung und Bildungsforschung (ZeLB) (3)
- Strukturbereich Bildungswissenschaften (2)
- Zentrum für Sprachen und Schlüsselkompetenzen (Zessko) (2)
- Department Grundschulpädagogik (1)
- Fachgruppe Politik- & Verwaltungswissenschaft (1)
- Fachgruppe Soziologie (1)
- Gleichstellungsbeauftragte (1)
- Institut für Mathematik (1)
- Klassische Philologie (1)
- Potsdam Transfer - Zentrum für Gründung, Innovation, Wissens- und Technologietransfer (1)
- Universitätsbibliothek (1)
- Verband für Patholinguistik e. V. (vpl) (1)
- Wirtschafts- und Sozialwissenschaftliche Fakultät (1)
Einführung in den Band
(2011)
Lokale Politiknetzwerke werden sowohl in der öffentlichen Sozialstaatsdebatte als auch in der sozialwissenschaftlichen Forschung als vielversprechende Instrumente zur Optimierung von Wohlfahrtsmärkten propagiert. So auch in der Diskussion um den deutschen Pflegemarkt und seine Steuerungsdefizite. Im Gegensatz zu den mit dem Steuerungsinstrument Pflegekonferenz verknüpften Erwartungen, sind dessen genaues Steuerungspotential und mögliche Erklärungsfaktoren bisher jedoch nicht systematisch untersucht worden. Den methodologischen Kern dieser Arbeit bilden eine strukturelle Politikfeldanalyse des deutschen Pflegemarktes in Kombination mit einer empirischen Einzelfallstudie zu den Steuerungsleistungen einer Pflegekonferenz. Grundlage ist ein spezifisches Analyseraster auf Basis des akteurzentrierten Institutionalismus, welches die Aufmerksamkeit in der Analyse der Erklärungsfaktoren auf die Kombination der Koordinationsinstrumente Markt und Netzwerk sowie die Ausgestaltung des institutionellen Rahmens durch Gesetzgebung und Selbstverwaltung lenken soll. Im Rahmen der empirischen Erhebung konnten kaum direkte und nur wenige indirekte Steuerungsleistungen nachgewiesen werden. Als Ergebnis der Analyse lässt sich festhalten, dass lokale Politiknetzwerke im Umfeld des deutschen Pflegemarktes grundsätzlich mit erheblichen Herausforderungen hinsichtlich ihrer Steuerungsfunktion zu kämpfen haben. Dies lässt sich zum einen darauf zurückführen, dass ein gemeinsames Steuerungsinteresse der Akteure nur in wenigen Bereichen vorhanden ist, da die Grundbedingung der Interdependenz selten gegeben ist und auch nur sehr eingeschränkt innerhalb von Pflegekonferenzen entwickelt werden kann. Zum anderen sind die steuerungsrelevanten Handlungsressourcen oftmals lokal nicht verfügbar, wodurch erschwerend die Steuerungsmöglichkeiten eingeschränkt werden. Je nach Steuerungsbereich sind diese Faktoren jedoch verschieden ausgeprägt, sodass sich unterschiedliche Steuerungspotentiale ergeben.
Stadtstruktur und Umwelt
(2011)
In diesem Beitrag wird "fallbasierte Lernberatung" als ein zentrales Moment der Weiterentwicklung der Studierfähigkeit der Studierenden vor- und dargestellt. Fallbasierte Lernberatung wird darin als reflexive Praktik verstanden, die in Lehrveranstaltungen oder begleitend zu Lehrveranstaltungen angeboten werden kann. Mit der Bereitstellung eines solchen Lernberatungsangebots wird zweierlei erreicht. Studierende erhalten die professionell begleitete Gelegenheit, ihre Lernfähigkeiten weiter zu entwickeln und Lehrende Aufschluss über die konkreten Lernprobleme der Studierenden. Dieser kann wiederum auf das Lehrangebot rückwirken und so die Qualität der Lehre verbessern helfen.
Polen regiert Europa
(2011)
Am 1. Juli übernimmt Polen die EU-Ratspräsidentschaft. Es ist eine Chance, sich als europapolitischer Akteur zu profilieren. Im Thema werden Prioritäten und Herausforderungen der polnischen Ratspräsidentschaft - das künftige EU-Budget, die Östliche Partnerschaft und die Beziehungen zu Russland - klar benannt und analysiert. Japan nach der Atomkatastrophe, die panarabische Revolution und die Lage in Israel sind weitere Schwerpunkte dieser Ausgabe.
Suez 2.0?
(2011)
Kaum hatte die deutsche Bundesregierung den Beschluss gefasst, den Beschluss im UN-Sicherheitsrat über eine Flugverbotszone über Libyen nicht zu fassen, ging eine Welle des Geschimpfes durch die politische Kaste dieses Landes. Diejenigen, die sich wahlweise so schön eingeschaukelt haben in das Bett der transatlantischen Subordination oder sich bereitwillig hinter Großsprüche französischer Ambition ducken, wenn sie gerade mal nicht den Vorgaben aus den USA folgen wollen, waren aufgeschreckt.
Neues deutsches Gedenken?
(2011)
Bedarf es eines neuen Gedenktages der Vertriebenen in Deutschland? Die deutsche Regierung meint Ja. Auf ihre Initiative hin wurde die Entschließung "60 Jahre Charta der deutschen Heimatvertriebenen – Aussöhnung vollenden" im Februar 2011 angenommen. Dieser Gedenktag soll der 5. August sein, also jener Tag, an dem 1950 die "Charta der deutschen Heimatvertriebenen" in Stuttgart angenommen wurde. Der Entschluss traf im Bundestag auf den Widerstand der Opposition – aber auch auf scharfe Kritik in Polen.
In dieser Arbeit wird das regionale Klimamodell HIRHAM mit einer horizontalen Auflösung von 50 km und 19 vertikalen Schichten erstmals auf den asiatischen Kontinent angewendet, um die indische Monsunzirkulation unter rezenten und paläoklimatischen Bedingungen zu simulieren. Das Integrationsgebiet des Modells erstreckt sich von etwa 0ºN - 50ºN und 42ºE - 110ºE und bedeckt dabei sowohl die hohe Topographie des Himalajas und Tibet Plateaus als auch den nördlichen Indischen Ozean. Das Ziel besteht in der Beschreibung der regionalen Kopplung zwischen der Monsunzirkulation und den orographischen sowie diabatischen Antriebsmechanismen. Eine 44-jährige Modellsimulation von 1958-2001, die am seitlichen und unteren Rand von ECMWF Reanalysen (ERA40) angetrieben wird, bildet die Grundlage für die Validierung der Modellergebnisse mit Beobachtungen auf der Basis von Stations- und Gitterdatensätzen. Der Fokus liegt dabei auf der atmosphärischen Zirkulation, der Temperatur und dem Niederschlag im Sommer- und Wintermonsun, wobei die Qualität des Modells sowohl in Bezug zur langfristigen und dekadischen Klimatologie als auch zur interannuellen Variabilität evaluiert wird. Im Zusammenhang mit einer realistischen Reproduktion der Modelltopographie kann für die Muster der Zirkulation und Temperatur eine gute Übereinstimmung zwischen Modell und Daten nachgewiesen werden. Der simulierte Niederschlag zeigt eine bessere Übereinstimmung mit einem hoch aufgelösten Gitterdatensatz über der Landoberfläche Zentralindiens und in den Hochgebirgsregionen, der den Vorteil des Regionalmodells gegenüber der antreibenden Reanalyse hervorhebt. In verschiedenen Fall- und Sensitivitätsstudien werden die wesentlichen Antriebsfaktoren des indischen Monsuns (Meeresoberflächentemperaturen, Stärke des winterlichen Sibirischen Hochs und Anomalien der Bodenfeuchte) untersucht. Die Ergebnisse machen deutlich, dass die Simulation dieser Mechanismen auch mit einem Regionalmodell sehr schwierig ist, da die Komplexität des Monsunsystems hochgradig nichtlinear ist und die vor allem subgridskalig wirkenden Prozesse im Modell noch nicht ausreichend parametrisiert und verstanden sind. Ein paläoklimatisches Experiment für eine 44-jährige Zeitscheibe im mittleren Holozän (etwa 6000 Jahre vor heute), die am Rand von einer globalen ECHAM5 Simulation angetrieben wird, zeigt markante Veränderungen in der Intensität des Monsuns durch die unterschiedliche solare Einstrahlung, die wiederum Einflüsse auf die SST, die Zirkulation und damit auf die Niederschlagsmuster hat.
Vorliegender Leitfaden ist eines der Ergebnisse des Forschungsprojekts „Open Innovation in Life Sciences“ (OIL), das von Mai 2008 bis April 2011 an der Universität Potsdam durchgeführt wurde. Er nimmt für sich in Anspruch, gerade Innovationsmanager in kleinen und mittleren Unternehmen (KMU) der Pharmaindustrie bei der Einführung des Open Innovation Managements zu unterstützen. Zielsetzung des Forschungsprojekts war es, (1) die Chancen und Risiken von Open Innovation unter besonderer Berücksichtigung der Anforderungen von Pharma-KMU zu analysieren und (2) daraus abgeleitet ein Konzept zur Implementierung von Open Innovation bei Pharma-KMU zu entwickeln. Der Ausgangspunkt des Projektes war die Erkenntnis, dass die Life Sciences-Branche im Allgemeinen und die Pharmaindustrie im Besonderen durch eine steigende Komplexität der Innovationsprozesse und eine zunehmende Tendenz zu Kooperationen gekennzeichnet ist. Vor diesem Hintergrund eröffnet gerade der Open Innovation-Ansatz für die Pharmabranche neue Gestaltungs- und damit Wachstumsmöglichkeiten. Open Innovation – definiert als die planvolle Öffnung der Innovationsprozesse und die strategische Einbindung des Unternehmensumfelds – wird dabei als zentraler Erfolgsfaktor für die Innovationsfähigkeit beschrieben.
Das Hauptziel dieser Arbeit ist das Verständnis der molekularen Kristallisation, sowohl mit als auch ohne polymere Additive, als einen mehrstufigen Prozess. Dieser beinhaltet eine transiente flüssig-flüssig Phasentrennung, die Nukleation von Nanokristallen in der dichten flüssigen Precursor-Phase so wie eine anschließende nanokristalline Selbstorganisation. Die Arbeit beginnt mit Untersuchungen an einem quaternären Modelsystem bestehend aus DL-Glutamat (Glu), Polyethylenimin (PEI), Wasser und Ethanol. Das Phasendiagramm dieses quaternären Systems wird durch Variation der Glu/PEI w/w und Wasser/EtOH v/v Verhältnisse bestimmt, wobei Präzpitat aus polymerinduzierten flüssigen Precursor, Koazervate oder homogene Mischungen erhalten werden Das thermodynamisch stabile Koazervat kann als Referenz für das Verständnis von flüssigen Precursorn angesehen werden, welche in der Natur metastabil und transient sind. Der mehrstufige Mechanismus der Glu-Präzipitation mit PEI als Additiv wird dann mittels Neutronen Kleinwinkelstreuung untersucht. Dies zeigt, dass die ursprünglich gebildeten flüssigen Precursor noch vor der Nukleation von Nanokristallen einen Wechsel von Wachstum und Koaleszenz durchlaufen. Die Ergebnisse aus optischer- und Eletronenmikroskopie zeigen, dass sowohl die flüssigen Precursor Superstrukturen ausbilden als auch, dass die Nukleation von Nanoplättchen in jedem einzelnen Precursor Tropfen von statten geht. Dies geschieht noch bevor sich die Nanoplättchen selbst in einer radialen Orientierung ausrichten. Diese Studie liefert die Kinetik der Präzipitation von organischen Stoffen in Gegenwart von polymeren Additiven. Eine ähnliche Vorgehensweise wie für die Herstellung von Mikrokügelchen kann für die Darstellung von gemusterten Filmen angewandt werden. Die homogene Nukleation von Nanopartikeln (NPs) findet während der Verdampfung einer quarternären DL-Lys·HCl-Polyacrylsäure-Wasser-Ethanol Dispersion auf einer hydrophilen Oberfläche statt. Die darauffolgende vollständige Verdampfung löst die Mesokristallisation eines kontinuierlichen sphärolithischen dünnen Films aus, welcher sich wiederum in einen mesokristallinen dünnen Film umwandelt. Mesokristalline Filme mit 4 Hierarchiestufen bzw. auch periodische Filme werden durch die Verdampfung der Mikrokügelchen-Dispersion erhalten. Die Ergebnisse zeigen, dass die Verdampfung eine einfache aber effektive Methode zur Herstellung von verschieden gemusterten hierarchischen Filmen darstellt. Nicht-klassische Kristallisation wird auch in der Abwesenheit von polymeren Additiven beobachtet. Wir verfolgen mittels Rasterkraftmikroskop (AFM) die Nukleation und das Wachstum einer neuen molekularen Schicht auf wachsenden DL-Glu·H2O Kristallen aus übersättigter Mutterlauge. Die Bildung einer neuen molekularen Schicht verläuft durch die Anlagerung von amorphen Nanopartikeln. Das Schrumpfen der NPs zusammen mit der strukturellen Änderung von dreidimensionalen NPs zu 2D Schichten wird während dieses Relaxationsprozesses beobachtet. Schließlich kommt es zu der Ausbildung einer neuen molekularen Schicht. Die Bildung einer molekularen Schicht durch die Anlagerung von Nanopartikeln aus der Lösung und die darauffolgende Relaxation liefert ein abweichendes Bild zu der bisher gängigen klassischen Theorie des Kristallwachstums.
Introduction
(2011)
The sixth volume of the DIGAREC Series holds the contributions to the DIGAREC Keynote-Lectures given at the University of Potsdam in the winter semester 2009/10. With contributions by Mark J.P. Wolf (Concordia University Wisconsin), Espen Aarseth (Center for Computer Games Research, IT University of Copenhagen), Katie Salen (Parsons New School of Design, New York), Laura Ermi and Frans Mäyrä (University of Tampere), and Lev Manovich (University of Southern California, San Diego).
Poröse Sol-Gel-Materialien finden in vielen Bereichen Anwendung bzw. sind Gegenstand der aktuellen Forschung. Zu diesen Bereichen zählen sowohl klassische Anwendungen, wie z. B. die Verwendung als Katalysator, Molekularsieb oder Trockenmittel, als auch nichtklassische Anwendungen, wie z. B. der Einsatz als Kontrastmittel in der Magnet-Resonanz-Tomographie oder in Form von dünnen Zeolithfilmen als Isolatoren in Mikrochips. Auch für den Einsatz in der Photonik werden poröse Materialien in Betracht gezogen, wie die Entwicklung des Zeolith-Farbstoff-Lasers zeigt. Mikroporöse Zeolithe können generell über einfache Ionenaustauschreaktionen mit Lanthanoidionen in lumineszente Materialien umgewandelt werden. Neben der Erzeugung eines lumineszenten Materials, dessen Lumineszenzeigenschaften charakterisiert werden müssen, bietet die Nutzung von Lanthanoidionen die Möglichkeit diese Ionen als Sonde zur Charakterisierung der Ion-Wirt-Wechselwirkungen zu funktionalisieren, was z. B. in Bezug auf die Anwendung als Katalysator von großer Bedeutung ist. Dabei werden die einzigartigen Lumineszenzeigenschaften der Lanthanoidionen, in diesem Fall von Europium(III) und Terbium(III), genutzt. In dieser Arbeit wurden Lanthanoid-dotierte mikroporöse Zeolithe, mikroporös-mesoporöse Hybridmaterialien und mesoporöse Silikate hinsichtlich ihrer Lumineszenzeigenschaften und ihrer Wechselwirkung des Wirtsmaterials mit den Lanthanoidionen mittels zeitaufgelöster Lumineszenzspektroskopie untersucht. Zeitaufgelöste Emissionsspektren (TRES) liefern dabei sowohl Informationen in der Wellenlängen- als auch in der Zeitdomäne. Erstmalig wurden die TRES mittels einer umfangreichen Auswertemethodik behandelt. Neben der Anpassung des Abklingverhaltens mit einer diskreten Zahl von Exponentialfunktionen, wurden unterstützend auch Abklingzeitverteilungsanalysen durchgeführt. Zeitaufgelöste flächennormierte Emissionsspektren (TRANES), eine Erweiterung der normalen TRES, konnten erstmals zur Bestimmung der Zahl der emittierenden Lanthanoidspezies in porösen Materialien genutzt werden. Durch die Berechnung der Decayassoziierten Spektren (DAS) konnten den Lanthanoidspezies die entsprechenden Lumineszenzspektren zugeordnet werden. Zusätzlich konnte, speziell im Fall der Europium-Lumineszenz, durch Kombination von zeitlicher und spektraler Information das zeitabhängige Asymmetrieverhältnis R und die spektrale Evolution des 5D0-7F0-Übergangs mit der Zeit t untersucht und somit wesentliche Informationen über die Verteilung der Europiumionen im Wirtsmaterial erhalten werden. Über die Abklingzeit und das Asymmetrieverhältnis R konnten Rückschlüsse auf die Zahl der OH-Oszillatoren in der ersten Koordinationssphäre und die Symmetrie der Koordinationsumgebung gezogen werden. Für die mikroporösen und mikroporös-mesoporösen Materialien wurden verschiedene Lanthanoidspezies, im Regelfall zwei, gefunden, welche entsprechend der beschriebenen Methoden charakterisiert wurden. Diese Lanthanoidspezies konnten Positionen in den Materialien zugeordnet werden, die sich im tief Inneren des Porensystems oder auf bzw. nahe der äußeren Oberfläche oder in den Mesoporen befinden. Erstere Spezies ist aufgrund ihrer Position im Material gut vor Feuchtigkeitseinflüssen geschützt, was sich deutlich in entsprechend langen Lumineszenzabklingzeiten äußert. Zusätzlich ist diese Europiumspezies durch unsymmetrische Koordinationsumgebung charakterisiert, was auf einen signifikanten Anteil an Koordination der Lanthanoidionen durch die Sauerstoffatome im Wirtsgitter zurückzuführen ist. Ionen, die sich nahe oder auf der äußeren Oberfläche befinden, sind dagegen für Feuchtigkeit zugänglicher, was in kürzeren Lumineszenzabklingzeiten und einer symmetrischeren Koordinationsumgebung resultiert. Der Anteil von Wassermolekülen in der ersten Koordinationssphäre ist hier deutlich größer, als bei den Ionen, die sich tiefer im Porensystem befinden und entspricht in vielen Fällen der Koordinationszahl eines vollständig hydratisierten Lanthanoidions. Auch der Einfluss von Oberflächenmodifikationen auf die Speziesverteilung und das Verhalten der Materialien gegenüber Feuchtigkeit wurde untersucht. Dabei gelang es den Einfluss der Feuchtigkeit auf die Lumineszenzeigenschaften und die Speziesverteilung durch die Oberflächenmodifikation zu verringern und die Lumineszenzeigenschaften teilweise zu konservieren. Im Fall der mesoporösen Silikamonolithe wurde auch eine heterogene Verteilung der Lanthanoidionen im Porensystem gefunden. Hier wechselwirkt ein Teil der Ionen mit der Porenwand, während sich die restlichen Ionen in der wäßrigen Phase innerhalb des Porensystems aufhalten. Das Aufbringen von Oberflächenmodifikationen führte zu einer Wechselwirkung der Ionen mit diesen Oberflächenmodifikationen, was sich in Abhängigkeit von der Oberflächenbeladung in den enstprechenden Lumineszenzeigenschaften niederschlug.
Magnetische Nanopartikel bieten ein großes Potential, da sie einerseits die Eigenschaften ihrer Bulk-Materialien besitzen und anderseits, auf Grund ihrer Größe, über komplett unterschiedliche magnetische Eigenschaften verfügen können; Superparamagnetismus ist eine dieser Eigenschaften. Die meisten etablierten Anwendungen magnetischer Nanopartikel basieren heutzutage auf Eisenoxiden. Diese bieten gute magnetische Eigenschaften, sind chemisch relativ stabil, ungiftig und lassen sich auf vielen Synthesewegen relativ einfach herstellen. Die magnetischen Eigenschaften der Eisenoxide sind materialabhängig aber begrenzt, weshalb nach anderen Verbindungen mit besseren Eigenschaften gesucht werden muss. Eisencarbid (Fe3C) kann eine dieser Verbindungen sein. Dieses besitzt vergleichbare positive Eigenschaften wie Eisenoxid, jedoch viel bessere magnetische Eigenschaften, speziell eine höhere Sättigungsmagnetisierung. Bis jetzt wurde Fe3C hauptsächlich in Gasphasenabscheidungsprozessen synthetisiert oder als Nebenprodukt bei der Synthese von Kohlenstoffstrukturen gefunden. Eine Methode, mit der gezielt Fe3C-Nanopartikel und andere Metallcarbide synthetisiert werden können, ist die „Harnstoff-Glas-Route“. Neben den Metallcarbiden können mit dieser Methode auch die entsprechenden Metallnitride synthetisiert werden, was die breite Anwendbarkeit der Methode unterstreicht. Die „Harnstoff-Glas-Route“ ist eine Kombination eines Sol-Gel-Prozesses mit einer anschließenden carbothermalen Reduktion/Nitridierung bei höheren Temperaturen. Sie bietet den Vorteil einer einfachen und schnellen Synthese verschiedener Metallcarbide/nitride. Der Schwerpunkt in dieser Arbeit lag auf der Synthese von Eisencarbiden/nitriden, aber auch Nickel und Kobalt wurden betrachtet. Durch die Variation der Syntheseparameter konnten verschiedene Eisencarbid/nitrid Nanostrukturen synthetisiert werden. Fe3C-Nanopartikel im Größenbereich von d = 5 – 10 nm konnten, durch die Verwendung von Eisenchlorid, hergestellt werden. Die Nanopartikel weisen durch ihre geringe Größe superparamagnetische Eigenschaften auf und besitzen, im Vergleich zu Eisenoxid Nanopartikeln im gleichen Größenbereich, eine höhere Sättigungsmagnetisierung. Diese konnten in fortführenden Experimenten erfolgreich in ionischen Flüssigkeiten und durch ein Polymer-Coating, im wässrigen Medium, dispergiert werden. Desweiteren wurde durch ein Templatieren mit kolloidalem Silika eine mesoporöse Fe3C-Nanostruktur hergestellt. Diese konnte erfolgreich in der katalytischen Spaltung von Ammoniak getestet werden. Mit der Verwendung von Eisenacetylacetonat konnten neben Fe3C-Nanopartikeln, nur durch Variation der Reaktionsparameter, auch Fe7C3- und Fe3N-Nanopartikel synthetisiert werden. Speziell für die Fe3C-Nanopartikel konnte die Sättigungsmagnetisierung, im Vergleich zu den mit Eisenchlorid synthetisierten Nanopartikeln, nochmals erhöht werden. Versuche mit Nickelacetat führten zu Nickelnitrid (Ni3N) Nanokristallen. Eine zusätzliche metallische Nickelphase führte zu einer Selbstorganisation der Partikel in Scheiben-ähnliche Überstrukturen. Mittels Kobaltacetat konnten, in Sphären aggregierte, metallische Kobalt Nanopartikel synthetisiert werden. Kobaltcarbid/nitrid war mit den gegebenen Syntheseparametern nicht zugänglich.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
Darmkrebs ist die zweithäufigste malignombedingte Todesursache in den westlichen Industrieländern. Durch eine frühzeitige Diagnose besteht jedoch eine hohe Chance auf Heilung. Der Goldstandard zur Darmkrebsfrüherkennung ist gegenwärtig die Koloskopie. Eine Darmspiegelung ist jedoch invasiv und mit Unannehmlichkeiten für den Patienten verbunden. Die Akzeptanz in der Bevölkerung ist daher gering. Ziel des BMBF- Projektes „Entwicklung eines nichtinvasiven Nachweissystems zur Früherkennung von humanem Darmkrebs“, in dessen Rahmen diese Arbeit entstand, ist die Bereitstellung eines nichtinvasiven Nachweisverfahrens zur Darmkrebsfrüherkennung. Der Nachweis soll über die Detektion von aus neoplastischen Zellen stammender DNA in Stuhl erfolgen. Die Entartung dieser Zellen beruht auf Veränderungen im Erbgut, welches unter anderem Mutationen sind. Im ersten Teil des BMBF-Projektes wurde ein Set von Mutationen zusammengestellt, welches eine hohe Sensitivität für Vorstufen von Darmkrebs aufweist. Ziel dieser Arbeit war es, eine Nachweismethode für die zuvor identifizierten Punktmutationen zu entwickeln. Das Nachweisverfahren musste dabei unempfindlich gegen einen hohen Hintergrund nichtmutierter DNA sein, da im Stuhl geringe Mengen DNA aus neoplastischen Zellen bei einem hohen Hintergrund von DNA aus gesunden Zellen vorliegen. Hierzu wurden Plasmidmodellsysteme für die aus dem Marker-Set stammenden Genfragmente BRAF und dessen Mutante V600E, CTNNB1 und T41I, T41A, S45P und K-ras G12C hergestellt. Mit Hilfe dieser Plasmidmodellsysteme wurde dann das Nachweissystem entwickelt. Der entscheidende Schritt für die Detektion von Punktmutationen bei hohem Wildtypüberschuss ist eine vorhergehende Anreicherung. In der vorliegenden Arbeit wurde dazu die Methode der LNA-clamp-PCR (locked nucleic acid) etabliert. Die Bewertung der erzielten Anreicherung erfolgte über das relative Detektionslimit. Zur Bestimmung des Detektionslimits wurde die Schmelzkurvenanalyse von Hybridisierungssonden eingesetzt; diese wurde im Rahmen dieser Arbeit für die drei oben genannten Genfragmente und ihre Mutanten entwickelt. Die LNA-clamp-PCR wird in Anwesenheit eines LNA-Blockers durchgeführt. Das Nukleotidanalogon LNA weist im Vergleich zu DNA eine erhöhte Affinität zu komplementären DNA-Strängen auf. Gleichzeitig kommt es bei Anwesenheit einer Basenfehlpaarung zu einer größeren Destabilisierung der Bindung. Als Blocker werden kurze LNA-DNA-Hybridoligonukleotide eingesetzt, die den mutierten Sequenzbereich überspannen und selbst der Wildtypsequenz entsprechen. Durch Bindung an die Wildtypsequenz wird deren Amplifikation während der PCR verhindert (clamp = arretieren, festklemmen). Der Blocker selbst wird dabei nicht verlängert. Der Blocker bindet unter optimalen Bedingungen jedoch nicht an die mutierte Sequenz. Die Mutante wird daher ungehindert amplifiziert und somit gegenüber dem Wildtyp-Fragment angereichert. Die Position des Blockers kann im Bindungsbereich eines der Primer sein und hier dessen Hybridisierung an dem Wildtyp-Fragment verhindern oder zwischen den beiden Primern liegen und so die Synthese durch die Polymerase inhibieren. Die Anwendbarkeit beider Systeme wurde in dieser Arbeit gezeigt. Die LNA-clamp-PCR mit Primerblocker wurde für BRAF etabliert. Es wurde ein Detektionslimit von mindestens 1:100 erzielt. Die LNA-clamp-PCR mit Amplifikationsblocker wurde erfolgreich für BRAF, K-ras und CTNNB1: T41I, T41A mit einem Detektionslimit von 1:1000 bis 1:10 000 entwickelt. In Stuhlproben liegt DNA aus neoplastischen Zellen nach Literaturangaben zu einem Anteil von 1% bis 0,1% vor. Die LNA-clamp-PCR weist also mit Amplifikationsblockern ein ausreichend hohes Detektionslimit für die Analyse von Stuhlproben auf. Durch die erfolgreiche Etablierung der Methode auf drei verschiedenen Genfragmenten und vier unterschiedlichen Punktmutationen konnte deren universelle Einsetzbarkeit gezeigt werden. Für die Ausweitung der LNA-clamp-PCR auf die übrigen Mutationen des Marker-Sets wurden Richtlinien ausgearbeitet und die Blockereffizienz als Kennzahl eingeführt. Die LNA-clamp-PCR ist ein schnelles, kostengünstiges Verfahren, welches einen geringen Arbeitsaufwand erfordert und wenig fehleranfällig ist. Sie ist somit ein geeignetes Anreicherungsverfahren für Punktmutationen in einem diagnostischen System zur Darmkrebsfrüherkennung. Darüber hinaus kann die LNA-clamp-PCR auch in anderen Bereichen, in denen die Detektion von Punktmutationen in einem hohen Wildtyphintergrund erforderlich ist, eingesetzt werden.
Geleitwort
(2011)
Grußwort
(2011)
Grenzen setzen
(2011)
Rechtsextremismus und Raum
(2011)
This paper offers empirical evidence on the power of Sornette et al's [2001] model of bubbles and crashes regarding the German stock market between 1960 and 2009. We identify relevant time periods and describe them with the function given by Sornette et al's model. Our results show some evidence in predicting crashes with the understanding of logarithmic periodic structures that are hidden in the stock price trajectories. It was shown that for the DAX most of the relevant parameters determining the shape of the logarithmic periodic structures are lying in the expected interval researched by Sornette et al. Further more the paper implicitly shows that the point of time of former crashes can be predicted with the presented formula. We conclude that the concept of financial time series conceived as purely random objects should be generalised as to admit complexity.
Die statistische Analyse der Ertragslage öffentlicher Unternehmen bringt Informationen über die Ertragskraft dieser Unternehmensgruppe. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentlichen Aufgaben als an betriebswirtschaftlicher Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Öffentliche Unternehmen haben im Mittel wegen der Spezifik ihrer Aufgaben und politisch determinierter Preise einen geringeren Umsatz als private Unternehmen. Im Vergleich zu privaten sind öffentliche Unternehmen auch durch eine höhere Zinselastizität, die mit einem hohen Verschuldungsgrad zusammenhängt, und eine höhere Abschreibungsintensität gekennzeichnet. Die letzte ist auf das umfangreiche öffentliche Vermögen zurückzuführen. Im Großen und Ganzen unterstreicht die statistische Analyse der Ertragslage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten.
Die Analyse der Finanzlage öffentlicher Unternehmen bringt Informationen über die Kapitalbereitstellung und die Liquidität dieser Unternehmen. Die erforderlichen Kennzahlen werden den Jahresabschlussbilanzen entnommen, die die amtliche Statistik in öffentlichen Unternehmen erhebt. Zunächst werden geeigneten Kennzahlen ausgewählt und definiert, für die einzelnen Unternehmen aufbereitet sowie für die Gesamtheit öffentlicher Unternehmen und ihre Klassen aggregiert. Sie werden in ihrer Entwicklung über den Zeitraum von 1999 bis 2006 analysiert und – unter starken Vorbehalten – mit analogen Kennzahlen in der privaten Wirtschaft verglichen. Die Vorbehalte ergeben sich daraus, dass sich Ziele und Bedingungen im öffentlichen Unternehmensbereich häufig von denen der privaten Wirtschaft unterscheiden, z. B. durch die stärkere Orientierung an öffentliche Aufgaben als an betriebswirtschaftliche Effizienz, durch die eingeschränkte Veräußerbarkeit des Vermögens und durch das geringere Risiko einer Insolvenz. Dank der Kapitalzuführungen von der öffentlichen Hand haben öffentliche Unternehmen in Deutschland höhere und zunehmende Eigenkapital- und Rücklagenquoten im Vergleich zu privaten Unternehmen, während ihr durchschnittlicher Innenfinanzierungsgrad und ihre Kapitalrückflussquote unter denen im privaten Sektor liegen. Insgesamt wird durch die Analyse der Finanzlage die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten unterstrichen.
Die Identifikation von Einflussfaktoren und deren Wirkungsrichtung auf die Kursentwicklung einer Aktie ist von großer Bedeutung für die Finanzmarktanalyse. Die wechselseitigen Zusammenhänge zwischen den Renditen spezifischer Aktien sind solche relevante Informationen. In diesem Beitrag werden die Interdependenzen von Aktienrenditen auf der Grundlage vektorautoregressiver (VAR)-Modelle für kleine, homogene Brachen- und Marktsegmente analysiert. Hierzu wurden die Renditen ausgewählter im Deutschen Aktienindex (DAX) notierter Unternehmen zu drei Branchensegmenten zusammengefasst. Darüber hinaus zeigt sich am Beispiel der Hoechst-Aktie, dass eine gemeinsame DAX-Notierung Einfluss auf das Beziehungsgeflecht der Renditen innerhalb eines Brachensegmentes nimmt.
Mit dem vorliegenden Band „Nach Bologna: Praktika im Studium – Pflicht oder Kür? Empirische Analysen und Empfehlungen für die Hochschulpraxis“ von Wilfried Schubarth, Karsten Speck und Andreas Seidel wird die Reihe „Potsdamer Beiträge zur Lehrevaluation“ unter neuem Titel und veränderter inhaltlicher Schwerpunktsetzung fortgeführt. Die Umbenennung in „Potsdamer Beiträge zur Hochschulforschung“ versteht sich als ein Schritt hin zu einer thematischen Öffnung der Reihe für die verschiedensten Felder der Hochschulforschung. Der vorliegende Band widmet sich einem der zentralen Reformziele von Bologna: der Frage des Praxis- und Berufsbezugs und dabei insbesondere den Praxisphasen im Studium. Mit der Bologna-Reform werden im bildungspolitischen Bereich sehr vielfältige strukturelle und inhaltliche Ziele verfolgt. Das Ziel dieses Bandes besteht deshalb darin, empirische Forschungen zu Praxisbezügen und Praxisphasen im Studium vorzustellen, diese in den Kontext aktueller Debatten um Studienqualität und Studienreform zu stellen sowie Folgerungen für die Gestaltung von Praxisphasen abzuleiten. Inhaltliche Schwerpunkte bilden das BMBF-Forschungsprojekt ProPrax und die Praxisphasen im Lehramtsstudium. Die Beiträge dieses Bandes gehen aus einem gleichnamigen Workshop hervor, der am 1. Oktober 2010 in Potsdam stattfand.
Die Arbeit befasst sich theoretisch und empirisch mit der so genannten Public Service Motivation (PSM) und ihrem Zusammenhang zu anderen psychologischen Motivationstheorien. Die Public Service Motivation geht davon aus, dass öffentlich Beschäftigte unter anderem dadurch motiviert sind, dass sie in ihrer Arbeit einen Dienst am Gemeinwohl sehen. Auf Basis einer empirischen Erhebung konnte dieses Konstrukt auch für Beschäftigte in Deutschland nachgewiesen und der Einfluss soziodemographischer Variablen bestätigt werden. Darüber hinaus gibt die Arbeit erste Hinweise auf Zusammenhänge zu verschiedenen Prozesstheorien der Motivation. Empirisch zeigt sich vor allem zur Gleichheitstheorie und dem darauf aufbauenden Equity Sensitivity Construct ein starker Zusammenhang.
Von der Natur geschaffene Polymere faszinieren Polymerforscher durch ihre spezielle auf eine bestimmte Aufgabe ausgerichtete Funktionalität. Diese ergibt sich aus ihrer Bausteinabfolge uber die Ausbildung von Uberstrukturen. Dazu zählen zum Beispiel Proteine (Eiweiße), aus deren Gestalt sich wichtige Eigenschaften ergeben. Diese Struktureigenschaftsbeziehung gilt ebenso für funktionelle synthetische Makromoleküle. Demzufolge kann die Kontrolle der Monomersequenz in Polymeren bedeutend für die resultierende Form des Polymermoleküls sein. Obwohl die Synthese von synthetischen Polymeren mit der Komplexität und der Größe von Proteinen in absehbarer Zeit wahrscheinlich nicht gelingen wird, können wir von der Natur lernen, um neuartige Polymermaterialien mit definierten Strukturen (Sequenzen) zu synthetisieren. Deshalb ist die Entwicklung neuer und besserer Techniken zur Strukturkontrolle von großem Interesse für die Synthese von Makromolekülen, die perfekt auf ihre Funktion zugeschnitten sind. Im Gegensatz zu der Anzahl fortgeschrittener Synthesestrategien zum Design aus- gefallener Polymerarchitekturen – wie zum Beispiel Sterne oder baumartige Polymere (Dendrimere) – gibt es vergleichsweise wenig Ansätze zur echten Sequenzkontrolle in synthetischen Polymeren. Diese Arbeit stellt zwei unterschiedliche Techniken vor, mit denen die Monomersequenz innerhalb eines Polymers kontrolliert werden kann. Gerade bei den großtechnisch bedeutsamen radikalischen Polymerisationen ist die Sequenzkontrolle schwierig, weil die chemischen Bausteine (Monomere) sehr reaktiv sind. Im ersten Teil dieser Arbeit werden die Eigenschaften zweier Monomere (Styrol und N-substituiertes Maleinimid) geschickt ausgenutzt, um in eine Styrolkette definierte und lokal scharf abgegrenzte Funktionssequenzen einzubauen. Uber eine kontrollierte radikalische Polymerisationsmethode (ATRP) wurden in einer Ein-Topf-Synthese über das N-substituierte Maleinimid chemische Funktionen an einer beliebigen Stelle der Polystyrolkette eingebaut. Es gelang ebenfalls, vier unterschiedliche Funktionen in einer vorgegebenen Sequenz in die Polymerkette einzubauen. Diese Technik wurde an zwanzig verschiedenen N-substituierten Maleinimiden getestet, die meisten konnten erfolgreich in die Polymerkette integriert werden. In dem zweiten in dieser Arbeit vorgestellten Ansatz zur Sequenzkontrolle, wurde der schrittweise Aufbau eines Oligomers aus hydrophoben und hydrophilen Segmenten (ω-Alkin-Carbonsäure bzw. α-Amin-ω-Azid-Oligoethylenglycol) an einem löslichen Polymerträger durchgeführt. Das Oligomer konnte durch die geschickte Auswahl der Verknüpfungsreaktionen ohne Schutzgruppenstrategie synthetisiert werden. Der lösliche Polymerträger aus Polystyrol wurde mittels ATRP selbst synthetisiert. Dazu wurde ein Startreagenz (Initiator) entwickelt, das in der Mitte einen säurelabilen Linker, auf der einen Seite die initiierende Einheit und auf der anderen die Ankergruppe für die Anbindung des ersten Segments trägt. Der lösliche Polymerträger ermöglichte einerseits die schrittweise Synthese in Lösung. Andererseits konnten überschüssige Reagenzien und Nebenprodukte zwischen den Reaktionsschritten durch Fällung in einem Nicht-Lösungsmittel einfach abgetrennt werden. Der Linker ermöglichte die Abtrennung des Oligomers aus jeweils drei hydrophoben und hydrophilen Einheiten nach der Synthese.
Daß die Rhetorik für die Literatur und Wissenschaft der Frühen Neuzeit von größter Bedeu-tung ist, gehört seit langem zum Grundbestand der Forschung. Trotzdem ist praktisch keine der großen Rhetoriken dieser Zeit in einer neuen Ausgabe oder gar Übersetzung zugänglich. Die vorliegende Ausgabe ist ein erster Schritt, dieser unbefriedigenden Situation Abhilfe zu verschaffen, indem sie Philipp Melanchthons Elementa rhetorices zum ersten Mal in einer kritischen Ausgabe und Übersetzung zur Verfügung stellt. Neben den De copia verborum ac rerum des Erasmus sind Melanchthon Elementa rhetorices wahrscheinlich das meistgedruckte Lehrbuch des 16. Jahrhunderts. 1531 zum ersten Mal erschienen und bis 1539 mehrmals überarbeitet und erweitert, erscheinen sie bis zum Ende des Jahrhunderts in über hundert Ausgaben. An zahllosen Schulen und Universitäten im protestantischen Raum war ihre Lektüre für Generationen von Schülern Pflicht, die Dichter des 17. Jahrhunderts sind mit ihr zur Schule gegangen. Die vorliegende Ausgabe ist nicht nur die erste kritische Ausgabe des Textes, sondern auch die erste vollständige Übersetzung. Die bisher unbekannten Varianten der Ausgaben 1531, 1532 und 1536 sind in einem Variantenverzeichnis erfaßt. Der teilweise schwer zugänglichen Text wird durch einen umfangreichen Kommentar, ein Nachwort und ein Glossar erschlossen. Dabei wird nicht nur der Text selbst in der Form wiedergegeben, in der er dem Leser des 16. Jahrhunderts vorlag, sondern auch der den Elementa rhetorices ursprünglich beigegebene Anhang. Dieser Anhang umfaßt neben drei Briefen von Seneca und Plinius d. J. vor allem die "Gegensätzlichen Briefe" Giovanni Picos della Mirandola und Franz Burchards, einem Schüler Melanchthons. Burchard übernimmt hier die Verteidigung der Rhetorik gegen den über fünfzig Jahre zuvor geführten, scharfen und spöttischen Angriff Picos della Mirandola, der schnell zu einer gewissen Berühmtheit gelangt war. Melanchthon hielt die Verteidigung Burchards nicht nur der Aufnahme in sein Lehrbuch für würdig, sondern verfaßte auch umfangreiche, interpretierende Marginalien zu beiden Briefen. Indem diese Marginalien von den Herausgebern der Gesamtausgabe von Melanchthons Werken nicht aufgenommen wurden, bietet die Ausgabe mit diesen Marginalien auch die erste Edition eines bisher unbekannten Textes.
Die Arbeit beschreibt die humanistische Reform des 'Triviums', also der grammatischen, dialektischen (logisch-argumentativen) und rhetorischen Ausbildung, wie sie sich in dem Zeitraum von 1480 bis 1540 an Schulen und Universitäten durchsetzte. Die Arbeit ist dabei sowohl historisch wie systematisch angelegt, indem sie die Lehrinhalte der jeweiligen Kunst an ausgewählten Lehrbüchern darstellt, gleichzeitig aber unter ständigem Rückbezug auf die scholastisch-mittelalterliche Tradition die humanistischen Neuerungen davon abgrenzt. Im Zentrum stehen Werke von Lorenzo Valla, Rudolf Agricola, Erasmus, Juan Luis Vives und Philipp Melanchthon. Es stellt sich dabei heraus, daß die humanistischen Neuerungen in erster Linie die Praxisbezogenheit des Triviums betreffen, erst aus dieser ergeben sich dann die inhaltlichen Neuerungen. Unter Praxisbezogenheit ist dabei sowohl die Ableitung von Grammatik, Dialektik und Rhetorik aus der Beobachtung ihrer immer schon vorgängigen Anwendung zu verstehen, als auch ihre Anwendung zum Zweck der sprachlichen, argumentativ-logischen und rhetorischen Analyse. D.h. das grammatische, dialektische und rhetorische Regelwerk wird auf deskriptivem Wege gewonnen, um wiederum in der Analyse auf die Praxis zurückgewendet zu werden. Dieser Analyse werden dabei von alltäglichen Äußerungen, politischen, religiösen oder sonstigen sachlichen Texten bis hin zu literarischen Werken alles unterzogen. In einem letzten Teil stellt die Arbeit drei solcher Analysen vor und versucht sich schließlich selbst an einer dialektisch-rhetorischen Analyse dreier dramatischer Bearbeitungen der Parabel vom verlorenen Sohn.
Den Krieg um Afghanistan hat der Westen verloren – wieder einmal. Die Frage des Abzugs bestimmt die außen- und sicherheitspolitische Agenda, nicht nur in Washington D.C. und Berlin. Ziel ist, das "Fiasko Afghanistan" möglichst glimpflich enden zu lassen – aber wie? Die Frage hat auch 2011 nicht an Aktualität eingebüßt. Kenner der Region und außenpolitische Experten diskutieren im vorliegenden WeltTrends Papier die Ausgangslage des Afghanistan-Komplexes und analysieren Abzugsstrategien – klar, kontrovers, pointiert.
Fremde Bürger
(2011)
Wie werden Fremde zu Bürgern? Unsere Autoren erweitern die oft polemisch geführte Integrationsdebatte. Dies gilt sowohl geografisch als auch kulturell. Von Australien über Bahrain bis nach Kanada reichen die Beispiele. Die Renaissance des Bürgers und urbane Toleranz bilden den gedanklichen Rahmen. Der Aufstand ist nun doch gekommen; und zwar in Nordafrika. Die panarabischen Proteste markieren eine Zeitenwende im Nahen Osten. Wir analysieren Auslöser und mögliche Konsequenzen - regional wie global.
Die Klimakonferenz in Cancún hat zwar die Scherben von Kopenhagen zusammengekratzt. Als Erfolg gefeiert wurde, dass überhaupt ein gemeinsames Dokument zustande kam mit Aussagen zum Schutz der Regenwälder und Geldversprechen für die armen Länder. Aber nichts davon ist finanziert oder gar völkerrechtlich verbindlich. Ist also alles verloren? Keineswegs! Es gibt sogar gute Gründe für Optimismus.
Zwischenruf : Experten
(2011)
In den vergangenen zwei Jahrzehnten hieß es, es gebe keine Entwicklung ohne Frieden. Daraus wurde abgeleitet, man müsse Soldaten nach Afghanistan schicken, um Entwicklungsperspektiven zu sichern. Dies wurde sodann abgewandelt: "Ohne Sicherheit keine Entwicklung". Mit dem Scheitern der Intervention im Land der Afghanen wurde daraus: "Ohne Entwicklung keine Sicherheit". Dies hat Auswirkungen auf die Entwicklungszusammenarbeit: Frieden als Ziel ist verschwunden, sie wird zur Funktion der "Sicherheit Deutschlands", die am Hindukusch verteidigt werden soll. Dafür wird passendes Personal gesucht.
Die Beiträge des vorliegenden Sammelbandes gehen auf die wissenschaftliche Fachtagung „Grenzen der Toleranz. Rechtsextremes Milieu und demokratische Gesellschaft in Brandenburg - Bilanz und Perspektiven" zurück, die im Mai 2009 in Potsdam stattfand. Auf der Tagung hielten verschiedene Wissenschaftler Vorträge, die ihrerseits durch Praktiker/innen mittels „Kommentaren aus der Praxis“ gespiegelt wurden. Die meisten Vorträge der Tagung finden sich in diesem Band nun in überarbeiteter, in der Regel erweiterter und aktualisierter Form wieder. In einem Fall wurde ein Text aufgenommen, der aus einem längeren „Kommentar aus der Praxis“ entstanden ist. Die Beiträge kreisen um das Problem des Rechtsextremismus, seinen Erscheinungsformen und Praktiken in Brandenburg und darüber hinaus, und beleuchten die staatlichen und zivilgesellschaftlichen Gegenmaßnahmen und –strategien. Dabei wird deutlich: Brandenburg hat zwar noch ein Rechtsextremismusproblem - aber auch vielfältige Strategien und Erfahrungen in der erfolgreichen Auseinandersetzung mit diesem Phänomen.
Der vorliegende Beitrag knüpft an die in Potsdam seit 2001 durchgeführte Langzeitstudie an und untersucht die aktuelle Situation auf dem formellen Beteiligungsmarkt in Deutschland nach dem Ausbruch der Finanzkrise. Neben den allgemeinen Gegebenheiten des Marktes werden vor allem die Finanzierungsbedingungen sowie das Investitionsverhalten einzelner Beteiligungsgesellschaften analysiert. In den Jahren 2008 - 2009 zeigt sich einerseits eine weitestgehend unveränderte Struktur der Refinanzierungsquellen. Privatpersonen und Banken sowie der öffentliche Sektor nehmen weiterhin einen hohen Stellenwert ein. Andererseits werden deutliche Veränderungen der strukturellen Merkmale, wie auch im Investitionsverhalten einzelner Beteiligungsgesellschaften deutlich. Besonders auffällig für die Branche sind das Rationalisierungsbestreben beim Einsatz von Investmentmanagern sowie die zunehmende Spätphasenspezialisierung. Aus dem festgestellten Konsolidierungs- und Reifeprozess erwächst die Herausforderung und offene Frage, wie der Markt eine solche strukturelle Angebotslücke im Frühphasensegment begegnen will. Auch das Einwerben neuer Finanzmittel sowie die aktuellen Exit-Bedingungen werden in der vorliegenden Studie kritisch beleuchtet. Als ein reizvolles Instrument zur Reduzierung der aufgezeigten Problemfelder wird dabei die aktuell unterentwickelte Syndizierung von Beteiligungsinvestitionen angesehen. Die effizientere Ausgestaltung derartiger Finanzierungsstrukturen sollte dazu beitragen, dass das private Beteiligungskapital künftig stärker bei der Transformation betrieblicher Forschung und Entwicklung zum Einsatz gelangt.
Die Impuls-Antwort-Analyse – auch Schockanalyse genannt – stellt eine wichtige Möglichkeit der vertiefenden Analyse von vektorautoregressiven (VAR) Modellen dar. Bei der Schätzung der Impuls-Antwort-Folgen müssen die Zeitreiheneigenschaften der zugrundeliegenden Daten berücksichtigt werden. Weisen die Zeitreihen stochastische Trends auf und sind die Zeitreihen kointegriert, kann die Impuls-Antwort-Analyse auf der Basis eines kointegrierenden VAR-Modells (VECM) erfolgen. Pesaran und Shin (1998) entwickelten die verallgemeinerten (Generalized) Impuls-Antwort-Funktionen, um den Mangel der fehlenden Eindeutigkeit der orthogonalen Schockanalyse zu umgehen. Am Beispiel der Variablen einer Konsumfunktion für Deutschland werden die auf der Grundlage eines Vektor-Fehlerkorrekturmodells berechneten verallgemeinerten Impuls-Antwort-Folgen den orthogonalen gegenübergestellt.
Öffentliche Unternehmen werden in Adäquation zum wirtschaftlichen und politischen Verständnis an Hand des Finanz- und Personalstatistikgesetzes operationalisierbar definiert und sowohl gegenüber öffentlichen Behörden als auch gegenüber privaten Unternehmen abgegrenzt. Dabei wird gezeigt, dass keine Deckungsgleichheit, aber eine stückweise Überlappung mit dem Sektor Staat besteht. Dadurch gewinnt ein Teil der öffentlichen Unternehmen Bedeutung für die Volkswirtschaftliche Gesamtrechnung, insbesondere für den öffentlichen Schuldenstand und damit für die Konvergenzkriterien im Rahmen der Wirtschafts- und Währungsunion. Die amtliche Statistik gewinnt die Daten für die Statistik öffentlicher Unternehmen in Totalerhebung aus den Jahresabschlüssen dieser Unternehmen einschließlich ihrer Gewinn und Verlustrechnung. Die Statistik öffentlicher Unternehmen übertrifft damit in ihrer Ausführlichkeit und Tiefe die meisten anderen Fachstatistiken. Dem steht der Nachteil der relativ späten Verfügbarkeit gegenüber. Der Wissenschaft steht die Statistik in Form einer formal anonymisierten Datei an Wissenschaftlerarbeitsplätzen in den Forschungsdatenzentren der Statistischen Ämter des Bundes und der Länder zur Verfügung. Der Anonymisierungsprozess bedeutet eine weitere Verzögerung der Verfügbarkeit der Daten und steht zusammen mit strengen Geheimhaltungsvorschriften in den Forschungsdatenzentren im Widerspruch zur gebotenen Transparenz und der vorgeschriebenen Offenlegung der Bilanzen im öffentlichen Sektor.
Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung.
Virtualisierung und Cloud Computing gehören derzeit zu den wichtigsten Schlagworten für Betreiber von IT Infrastrukturen. Es gibt eine Vielzahl unterschiedlicher Technologien, Produkte und Geschäftsmodelle für vollkommen verschiedene Anwendungsszenarien. Die vorliegende Studie gibt zunächst einen detaillierten Überblick über aktuelle Entwicklungen in Konzepten und Technologien der Virtualisierungstechnologie – von klassischer Servervirtualisierung über Infrastrukturen für virtuelle Arbeitsplätze bis zur Anwendungsvirtualisierung und macht den Versuch einer Klassifikation der Virtualisierungsvarianten. Bei der Betrachtung des Cloud Computing-Konzepts werden deren Grundzüge sowie verschiedene Architekturvarianten und Anwendungsfälle eingeführt. Die ausführliche Untersuchung von Vorteilen des Cloud Computing sowie möglicher Bedenken, die bei der Nutzung von Cloud-Ressourcen im Unternehmen beachtet werden müssen, zeigt, dass Cloud Computing zwar große Chancen bietet, aber nicht für jede Anwendung und nicht für jeden rechtlichen und wirtschaftlichen Rahmen in Frage kommt.. Die anschließende Marktübersicht für Virtualisierungstechnologie zeigt, dass die großen Hersteller – Citrix, Microsoft und VMware – jeweils Produkte für fast alle Virtualisierungsvarianten anbieten und hebt entscheidende Unterschiede bzw. die Stärken der jeweiligen Anbieter heraus. So ist beispielsweise die Lösung von Citrix für Virtual Desktop Infrastructures sehr ausgereift, während Microsoft hier nur auf Standardtechnologie zurückgreifen kann. VMware hat als Marktführer die größte Verbreitung in Rechenzentren gefunden und bietet als einziger Hersteller echte Fehlertoleranz. Microsoft hingegen punktet mit der nahtlosen Integration ihrer Virtualisierungsprodukte in bestehende Windows-Infrastrukturen. Im Bereich der Cloud Computing-Systeme zeigen sich einige quelloffene Softwareprojekte, die durchaus für den produktiven Betrieb von sogenannten privaten Clouds geeignet sind.
"Forschung meets Business" - diese Kombination hat in den vergangenen Jahren immer wieder zu zahlreichen interessanten und fruchtbaren Diskussionen geführt. Mit dem Symposium "Sicherheit in Service-orientierten Architekturen" führt das Hasso-Plattner-Institut diese Tradition fort und lud alle Interessenten zu einem zweitägigen Symposium nach Potsdam ein, um gemeinsam mit Fachvertretern aus der Forschung und Industrie über die aktuellen Entwicklungen im Bereich Sicherheit von SOA zu diskutieren. Die im Rahmen dieses Symposiums vorgestellten Beiträge fokussieren sich auf die Sicherheitsthemen "Sichere Digitale Identitäten und Identitätsmanagement", "Trust Management", "Modell-getriebene SOA-Sicherheit", "Datenschutz und Privatsphäre", "Sichere Enterprise SOA", und "Sichere IT-Infrastrukturen".
Herausforderung Eurasien
(2011)
Im Osten was Neues: Seit zehn Jahren gibt es die Shanghai-Gruppe. Für die Geschichtsschreibung ein kleiner, ein winziger Zeitraum. Welchen Platz die Organisation einst in Geschichtsbüchern einnehmen wird, ist ungewiss. Die strategische Bedeutung, die Entscheidungsprozesse sowie die Ziele der Shanghai-Gruppe sind bislang nicht konturscharf einzuschätzen gewesen. Im Thema untersuchen Kenner der Gruppe die Interessen der Akteure, vor allem jene Chinas und Russlands. Sie werfen einen Blick auf die geostrategische Relevanz Zentralasiens und machen auf das kritische Verhältnis zwischen der Allianz und den USA aufmerksam.
Russland sieht in der Shanghai-Gruppe ein wichtiges außen- und sicherheitspolitisches Instrument. Damit sollen sowohl das internationale Profil verbessert als auch militärische Interessen (Waffenexporte) umgesetzt werden. Obwohl sich das Verhältnis zu China deutlich verbesserte, ist es russisches Interesse, mittels der SCO Chinas Einfluss in Zentralasien zu begrenzen. Angesichts der strategischen Differenzen zwischen Moskau und Peking stellt sich das Problem des möglichen Bruchs der Shanghai-Gruppe.
Lange Zeit war die Reaktion der europäischen Politiker auf die Krise der Eurozone eher zurückhaltend bis gespalten. Als es jedoch Ende Oktober 2010 zum EU-Gipfel in Brüssel kam, schien es, also ob die EU nun mit Anspruch und klarer Orientierung handeln würde. Einer der Gründe für diese Veränderung besteht darin, dass nun die meisten Mitglieder - Frankreich eingeschlossen - bereit sind, die bittere Pille einer deutschen Führung zu schlucken.
Bei der Entdeckung der Glutathionperoxidase-2 (GPx2) wurde zunächst davon ausgegangen, dass die Funktion dieses Enzyms im Kryptengrund des Colons einzig in der Reduktion von H2O2 besteht. Im Laufe der weiteren Erforschung zeigte sich, dass GPx2 auch in verschiedenen Tumorgeweben vermehrt exprimiert wird. Dabei wird diskutiert, ob die Wirkung von GPx2 im Tumor eher als pro- oder als antikarzinogen einzustufen ist. Mehrere Experimente in vitro und in vivo zeigten antiinflammatorische Eigenschaften der GPx2. Aufgrund dieser Befunde wird derzeit über weitere Funktionen der GPx2 spekuliert. In dieser Arbeit wurde die physiologische Funktion von GPx2 näher erforscht, dazu wurden Wildtyp- und GPx2-Knockout-Mäuse in Hinblick auf Veränderungen der Enzymexpression und der Colonmorphologie untersucht. Es wurden drei verschiedene Selendiäten verfüttert: selenarmes, selenadäquates und selensupplementiertes Futter. Unter physiologischen Bedingungen ist am Kryptengrund des Colons, innerhalb der proliferierenden Zone, die Mitoserate am höchsten. Der Großteil der apoptotischen Zellen ist hingegen an der Kryptenspitze vorzufinden. Durch den Knockout von GPx2 kam es zu einer signifikanten Erhöhung der Apoptoserate am Kryptengrund. Dabei war der größte Effekt auf selenarmem Futter zu verzeichnen. Hierbei wurde sogar eine Veränderung der Colonmorphologie dokumentiert, da die Verschiebung der Proliferationszone in Richtung Kryptenspitze eine Verlängerung der Krypten nach sich zog. Im Wildtyp wurden keine Apoptosen im Kryptengrund detektiert. GPx1 wird unter physiologischen Bedingungen im Gegensatz zur GPx2 in der Kryptenspitze exprimiert und ist im Selenmangel nicht mehr detektierbar. Der Knockout von GPx2 erhöhte die GPx1-Expression im Kryptengrund auf allen drei Selendiäten. Diese Überexpression von GPx1 am Kryptengrund soll vermutlich den Verlust von GPx2 an dieser Stelle kompensieren. Da jedoch dort die massive Apoptoserate detektiert wurde, kann die GPx1 nicht die komplette Funktion von GPx2 kompensieren. Diese Ergebnisse deuten darauf hin, dass die Funktion von GPx2 nicht nur in der Reduktion von H2O2 liegt. Vielmehr kann eine Rolle bei der Aufrechterhaltung der Homöostase von Zellen postuliert werden. Ein weiterer Bestandteil dieser Arbeit war die Klärung der Frage, welchen Einfluss GPx2 auf die entzündungsassoziierte Colonkarzinogenese ausübt. In dem hierfür verwendeten AOM/DSS-Model wird der karzinogene Prozess durch Entzündung vorangetrieben. Es erfolgte sowohl im Wildtyp als auch im GPx2-Knockout zum einen die Bewertung des Entzündungsstatus des Colons und zum anderen wurde die Anzahl von ACF und Tumoren verglichen. Das Colon im GPx2-Knockout war wesentlich stärker entzündet als im Wildtyp. Diese Ergebnisse bestätigen die für die GPx2 postulierte antiinflammatorische Funktion. Normalerweise führt eine Erhöhung der Mitoseanzahl zur Regeneration des entzündeten Gewebes. Jedoch beeinflusst der Verlust von GPx2 vermutlich den Ablauf der Entzündung, indem beispielsweise die Regeneration des Gewebes durch die enorm hohe Apoptoserate am Kryptengrund verlangsamt wird. Des Weiteren hatten sich im GPx2-Knockout tendenziell mehr Tumore entwickelt. Somit korrelierte die Entzündung des Colons mit der Entwicklung von Tumoren. Der Verlust von GPx2 begünstigte vermutlich sowohl die Tumorinitiation als auch die Tumorprogression. Allerdings stimulierte die Expression von GPx2 ebenfalls das Tumorwachstum. Es kann geschlussfolgert werden, dass eine adäquate GPx2-Expression vor Entzündung schützt und somit das Risiko für Colonkrebs senkt. Ob GPx2 aber insgesamt pro- oder antikarzinogen wirkt, hängt vermutlich vom Stadium des Colonkarzinogenese ab.
Kennen Sie Randegg?
(2011)
Seit seiner berühmt-berüchtigten Friedenspreisrede von 1998 nimmt die Anzahl der literaturwissenschaftlichen und -politischen Publikationen, die Martin Walsers Werk eine nationalistische und antisemitische Tendenz unterstellen, zu. Bisweilen wird behauptet, Walser suche über die Ausschließung des Jüdischen das Nationale zu stärken und postuliere die Unversöhnlichkeit von Tätergemeinschaft und Opfergemeinschaft nach 1945. Das bislang in der Forschung wenig beachtete Hörspiel „Das Gespenst von Gattnau“ lässt die Annahme einer anderen Tendenz zu: die Tendenz zur Versöhnung.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, ob die Frühgeburtlichkeit eine Auswirkung auf den Spracherwerb im ersten Lebensjahr hat. Insbesondere wurde der Frage nachgegangen, ob sich die Verarbeitung der rhythmisch-prosodischen Eigenschaften von Sprache im ersten Lebensjahr und deren weitere Ausnutzung für die Entwicklung des Lexikons bei sehr untergewichtigen Deutsch lernenden Frühgeborenen im Vergleich zu Reifgeborenen unterscheidet. Die besondere Spracherwerbssituation Frühgeborener liefert weitere Erkenntnisse bezüglich der Frage, inwieweit der frühe Spracherwerb durch prädeterminierte reifungsbedingte Mechanismen und Abläufe bestimmt wird und inwieweit dessen Verlauf und die relevanten Erwerbsmechanismen durch individuelle erfahrungsabhängige Faktoren beeinflusst werden. Damit liefern die Ergebnisse auch einen weiteren Beitrag zur Nature-Nurture-Diskussion.
Das vorliegende Buch vergleicht Strategien biologischer Systeme mit militärischen Strategien. Die zentrale Fragestellung ist dabei darauf gerichtet, ob es neben systemischen Gemeinsamkeiten auch gemeinsame oder ähnliche Strukturmuster und ähnliche Prozessabläufe beispielsweise sowohl im biologischen Abwehrmechanismus des Immunsystems und bei Insektenstaaten als auch bei Prozessen im Militär gibt. Vor diesem Hintergrund klaffen in der Theorie der Strategie, speziell in den Militärwissenschaften Lücken, denn der Systemansatz wird nicht konsequent beachtet, wie in diesem Buch mehrfach nachgewiesen ist. Von einem allgemeinen Verständnis der Strategie als bewusstem planerischem Vorgehen ist Abstand zu nehmen. Ausgehend von der Methode der Analogie und des Vergleichs wird im theoretischen Teil dieses Buches die Allgemeine Systemtheorie erläutert. Dabei werden der Begriff der Strategie ebenso wie die Begriffe Struktur und Prozess und Ansätze aus der Kriegsphilosophie von Clausewitz untersucht. Den Ausgangspunkt und schließlich auch wieder den Endpunkt der Überlegungen bilden neben dem notwendigen weiten Verständnis von Strategie, vor allem der Begriff der Organisation, ihrer Umwelt und der in diesem Zusammenhang bestehenden Wechselwirkung. Sowohl die Wechselwirkung von Umwelt und System als auch ihre Abhängigkeit durch strukturelle Kopplung werden beschrieben. Das Zusammenspiel und die daraus entstehende Komplexität der fünf Komponenten der Wahrnehmung, der Information und der Führung im Zusammenhang der Komponenten von Raum und Zeit in einem sozialen System lassen die klassische Ziel-Mittel-Zweck-Beziehung Clausewitz´scher Strategiedefinition verkürzt erscheinen. Anhand eines kurzen Rekurses der Methoden der Sozialen Netzwerkanalyse (SNA) wird der breite und tiefgehende Analyserahmen der Messung und Transparenzerreichung in Organisationen vorgestellt. Die SNA wird als Ausprägung der Netzwerk- und Graphentheorie, in die Allgemeine Systemtheorie integriert. Sie bildet eine zukunftsweisende Methode der Untersuchung von Netzwerken wie etwa dem Internet (Facebook, Xing etc.). Der aufgezeigte Theorierahmen bildet dabei zugleich eine Methode für den Systemvergleich und kann als Vorgehensmodell künftiger Strategieentwicklung genutzt werden. Der anschließende Systemvergleich wird mit mehreren Beispielen durchgeführt. Ausgehend von der Zelle als Grundeinheit werden Strukturen und Prozesse des Immunsystems mit solchen in militärischen Strukturen, weil sie im Lauf der Evolution enorme Leistungen in Reaktion, Anpassung und Optimierung vollbracht haben. Der Vergleich geht der Frage nach, ob in diesen Bereichen der Strategie und Organisation systemische Grundregeln existieren. Das Beispiel der Wechselwirkung zwischen Parasit und Wirt zeigt, dass jeder Fortschritt und Sieg angesichts der Systemeinbettung von Strategie nur relativ wirken kann. Die Analogie zwischen Viren und Bakterien sowie die Entwicklung des Begriffs der sozialen Mimikry führen zu einem erweiterten Verständnis der Strategie von Terroristen in sozialen Systemen. Verdeutlicht wird das Grundschema des Täuschens und Eindringens in Systeme sowie die Beeinflussung und Umsteuerung von Prozessen und Strukturen in einem System durch Kommunikation und Implementation von Codes. Am Beispiel des Immunsystems und der Bildung verschiedener Kommunikations- und Steuerungsmechanismen von Zellsystemen sowie Beispielen von Schwarmbildung und der Organisation sozialer Insekten werden eine Vielzahl heuristischer Hinweise für neue Ansätze für die Organisation von Streitkräften und ihrer Steuerung gefunden. Neben der Erarbeitung eines grundlegenden Strategiebegriffs anhand von Wahrnehmung und Selektion als Grundprozess der Erzeugung von Strategie wird eine differenzierte Betrachtung von Begriffen wie Redundanz und Robustheit sowie eine relativierende Sichtweise von Risiko, Gefahr und Schaden gewonnen. Der Vergleich mit dem Immunsystems zeigt einfache Beispiele der Informationsspeicherung und -übertragung, die zudem Bypassfähigkeiten sowie dezentrale Eskalations- und Deeskalationsprinzipien veranschaulichen. Dies eröffnet in Analogie dieser Prinzipien einen weiten Raum Sicherheitsarchitekturen zu überdenken und neu zu strukturieren. Zudem kann die räumliche Ausbreitung von Information und Kräften als ein gemeinsames Grundproblem der Entwicklung und Wirksamkeit von Strategien sowohl in der Natur, als auch im Militär identifiziert werden. Die Betrachtung zeigt zudem wie Zellen mit fehlgeleiteten Prozessen und Strukturen umgehen. Die Analogie deutet auf das Erfordernis einer Veränderung im Umgang mit Fehlern und ihrer Rückführ- und Umkehrbarkeit im weitesten Sinne. Das Buch eröffnet überdies ein neues Verständnis von Staat, Gewaltenteilung und Institutionen in einem sozialen System. Die Ergebnisse sind auch auf andere Forschungsbereiche, Organisationen und unterschiedlichste soziale Systeme übertragbar. Es eröffnet sich ein breites Anwendungsspektrum für künftige strategische Untersuchungen.
Wissenschaftler sind regelmäßig mehr an Forschung interessiert als an Lehre. Dies hat verschiedene Gründe, auf die hier nicht im Einzelnen eingegangen werden soll. Einer dieser Gründe liegt im eigenen Professionsverständnis als Forscher/in bzw. Wissenschaftler/in begründet. Im Kern geht es dabei um Entdeckungen, um Innovationen, um die Weiterentwicklung vorhandenen Wissens. Lehre wird dem gegenüber als intermediärer Bereich gesehen, in dem vorhandenes Wissen reproduziert wird, der deshalb mehr dem Berufssystem zugehörig ist und weniger dem Wissenschaftssystem (Fangmann 2006, S. 30). Lehre erscheint deshalb als Belastung, die mit Forschung nicht korrespondiert, eher von Forschung abhält, insbesondere wenn Studierende den eigenen Lehrbemühungen passiv gegenüberstehen und der Ertrag der Lehre zweifelhaft erscheint. Im Folgenden soll die Verwandtschaft von Forschung und Lernen dargestellt und auf ihre korrespondierenden Logiken verwiesen werden. Grundlage dafür ist ein lerntheoretisches Modell, das Lernen subjekttheoretisch als soziales Handeln konzipiert (Holzkamp 1993), das mit Forschen vergleichbar ist. Forschungsbasierte Lehre wird im Kontext einer subjekttheoretischen Didaktik (Ludwig 2006) als Lehre im Format der Forschung vorgestellt, die Lernen unterstützen kann, weil Lernen dem Forschungsprozess ähnelt. Typen, Erträge und Umsetzungsprobleme forschungsbasierter Lehre werden kurz skizziert.