Refine
Year of publication
- 2010 (512) (remove)
Document Type
- Article (186)
- Doctoral Thesis (134)
- Monograph/Edited Volume (133)
- Review (20)
- Part of Periodical (12)
- Master's Thesis (8)
- Postprint (5)
- Preprint (4)
- Part of a Book (3)
- Working Paper (3)
Language
- German (512) (remove)
Is part of the Bibliography
- yes (512) (remove)
Keywords
- Deutsche Literatur der Frühen Neuzeit (4)
- Frühe Neuzeit (4)
- Argumentationstheorie (3)
- Neue Ökonomische Geographie (3)
- Africa (2)
- Afrika (2)
- Außenpolitik (2)
- Brandenburg (2)
- De inventione dialectica (2)
- Demokratie (2)
Institute
- Wirtschaftswissenschaften (55)
- Historisches Institut (52)
- Institut für Romanistik (41)
- Department Erziehungswissenschaft (28)
- Öffentliches Recht (28)
- Sozialwissenschaften (27)
- Institut für Biochemie und Biologie (26)
- Institut für Germanistik (25)
- Institut für Jüdische Studien und Religionswissenschaft (21)
- Bürgerliches Recht (18)
Einführung
(2010)
Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter
(2010)
Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus.
Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann.
Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und bestätigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgefügen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorgänger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorgänger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zusätzlich konnte vermutet werden, dass ein beträchtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterstützung des wirtschaftlich mächtigen VEB Carl Zeiss Jena zurückzuführen war. Um diesen Zusammenhängen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielräumen der beiden Thüringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere Förderung des DFV bzw. des DTSB für einen Schwerpunktclub wie Jena überhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abhängig, wer förderte sie durch welche Leistungen? Wie wurden diese Beschlüsse vor Ort umgesetzt? Wer waren die Trägerbetriebe und in welchem Maße und wodurch engagierten sich diese für den Fußball in Erfurt und Jena? Wie kamen die häufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals für die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung bestätigen das bereits von Hans Joachim Teichler als grundlegend für den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteiräson“. Eigenmächtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktionäre in den Trägerbetrieben konnten beispielsweise in Erfurt bei der eigenmächtigen Erhöhung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Trägerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die über die Clubs an die Spieler weitergereicht wurden. Für die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorgänge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schlüssel für den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. für den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen Möglichkeiten die entscheidende Gründe für die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund für die Stärke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit.
Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen.
Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde.
Die Gasversorgung Europas
(2010)
Die Abhängigkeit der EU von Russlands Gaslieferungen sowie die Zuverlässigkeit des Transitlandes Ukraine ist hochgradig umstritten. Für den Politikwissenschaftler Jacopo Pepe, zeigen sich dabei jedoch keine existentiellen Bedrohungen für die Versorgungssicherheit Europas, sondern konstruierte Diskurse. Er argumentiert, dass es sich hier nicht um geopolitisches sondern um ein ökonomisches Problem handelt. Dieses wurzelt in dem ukrainisch-russisch Gasgeschäft der 1990er Jahre. Geopolitische Fragen und belastete politischen Beziehungen haben die Krise zugespitzt und die russische Reaktion verschärft. Erst so konnte das Umfeld für einen „Securitization“ Diskurs entstehen, der mit geostrategischen Zielen der USA übereinstimmt. Die Lösung muss sowohl (geo)ökonomisch als auch geopolitisch erfolgen: Geoökonomisch, durch die Gründung eines europäisch-russisch-ukrainischen Konsortium für die Verwaltung des International Transport System der Ukraine; geopolitisch durch eine kooperative Neuvermessung des Verhältnisses der EU mit Russland. Nur dadurch kann ein erneutes Scheitern der Gasversorgung Europas verhindert werden.
Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde.
Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertschöpfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gewährleisten. Die Belastung der Nahrung mit Rückständen jeglicher Art war in letzter Zeit häufig Mittelpunkt heftiger öffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO schätzt, dass etwa 25% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20% der Getreideernte der Europäischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gewährleistet bleibt, werden neben den Routinemethoden schnellere und zerstörungsfreie Methoden benötigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgewählten optisch-basierten spektroskopischen Methoden für die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexität angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in Lösung über künstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben höchster Komplexität.
Kinder erwerben Passivstrukturen später als die meisten anderen syntaktischen Strukturen. Die vorliegende Studie beschäftigt sich mit der Frage, ob dies auf informationsstrukturelle Faktoren zurückzuführen sein könnte. Probleme beim Erwerb von Passivsätzen wurden in vorhergehenden Studien unter anderem auf ihre geringe Inputfrequenz oder bestimmte syntaktische Charakteristika von Passivsätzen zurückgeführt. Jedoch konnte bisher keiner dieser Ansätze ihr spätes Erwerbsalter umfassend erklären. Während Aktivsätze, die kanonische, unmarkierte Satzstruktur im Deutschen, in jeglichem Diskurskontext verwendet werden können, werden Passivsätze fast ausschließlich dann verwendet, wenn der Patiens der beschriebenen Handlung schon vorerwähnt war und/ oder als Topik eines Satzes fungieren soll. Passivsätze sind also nicht in jedem Kontext informationsstrukturell adäquat. Kinder haben im Gegensatz zu Erwachsenen aufgrund ihrer geringeren syntaktischen Fähigkeiten Probleme, Sätze zu verarbeiten, die nicht in einem adäquaten Kontext stehen. Der Einfluss dieser Kontextbedingungen auf das Satzverständnis wurde in der vorliegenden Studie bei deutschsprachigen Kindern untersucht. Kindern zwischen 3;0 und 4;11 Jahren wurden Aktiv- oder Passivsätze präsentiert, denen informationsstrukturell adäquate, inadäquate oder neutrale Kontextsätze vorangingen. Wie erwartet verstanden die Kinder Aktivsätze besser als Passivsätze und 4-jährige Kinder zeigten bessere Leistungen als 3-jährige. Es gab Tendenzen, dass die 3-jährigen Kinder Passivsätze besser, aber Aktivsätze schlechter verstanden, wenn ihr Subjekt vorerwähnt wurde. Statistisch signifikante Kontexteffekte fanden sich jedoch im Gegensatz zu einer vergleichbaren Studie mit englischsprachigen Kindern (Gourley und Catlin, 1978) in keiner Testbedingung. Außerdem zeigte sich, dass die Kinder Passivsätze insgesamt besser und Aktivsätze insgesamt schlechter verstanden als englischsprachige Kinder in anderen Studien. Die Ergebnisse werden mit dem Competition Modell (Mac Whinney und Bates, 1987) und einer Sprachverarbeitungstheorie von Stromswold (2002) erklärt. Außerdem wird diskutiert, warum die deutschsprachigen Kinder in der vorliegenden Studie andere Sprachverständnisleistungen zeigten als englischsprachige Kinder.
Sprachverständnisuntersuchungen sind sowohl für die Forschung zum Spracherwerb und zu dessen Störungen als auch für die Diagnostik in der klinischen Praxis von essentieller Bedeutung. Zwei der verbreitetesten Methoden zur Erfassung des Verständnisses von syntaktischen Strukturen sind das Ausagieren von Sätzen (AS) und die Satz-Bild-Zuordnung (SBZ). Beide Methoden sind mit unterschiedlichen Anforderungen an die Probanden sowie mit spezifischen Vor- und Nachteilen verbunden (vgl. z.B. Goodluck 1996, Gerken & Shady 1996), woraus sich die Frage ergibt, inwiefern die Wahl der Methode das Testergebnis und die damit verbundenen Schlussfolgerungen beeinflusst. In der hier beschriebenen empirischen Untersuchung wurden die AS- und die SBZ-Methode anhand des Verstehens semantisch reversibler Sätze mit Objektvoranstellung direkt miteinander verglichen: Jeweils 24 monolingual mit Deutsch als Muttersprache aufwachsenden, sprachunauffälligen Kindern im Alter von 3;0 bis 3;5 bzw. 5;0 bis 5;5 Jahren wurden insgesamt zwölf Items, von denen neun aus semantisch reversiblen Sätzen mit Objektvoranstellung und drei aus entsprechenden subjektinitialen Kontrastsätzen bestanden, sowohl mittels der AS-Methode als auch mittels der SBZ-Methode präsentiert. Zum Ausagieren der Testsätze (AS-Test) wurden Spielzeugfiguren verwendet, für die Satz-Bild-Zuordnung (SBZ-Test) wurden pro Item ein Ziel- und zwei Ablenkerbilder erstellt. Die kindlichen Reaktionen wurden nach syntaktischen Kriterien als korrekt bzw. inkorrekt bewertet, Abweichungen wurden hinsichtlich der Fehlerart klassifiziert. Zusätzlich wurde bei den einzelnen Kindern der Erwerbsstand der untersuchten Struktur beurteilt und es wurden, sofern möglich, die eingesetzten Sprachverständnisstrategien ermittelt. Der Vergleich der Methoden ergab für die einzelnen Altersgruppen sehr unterschiedliche Befunde: Bei den 3;0- bis 3;5-jährigen Kindern zeigten sich im SBZ-Test teilweise starke Rateeffekte, die zu verfälschten Ergebnissen und kaum interpretierbaren Reaktionsmustern führten, während dies im AS-Test nicht der Fall war. Für diese Altersgruppe ist demnach die AS-Methode als die geeignetere anzusehen. Bei den 5;0- bis 5;5-jährigen Kindern konnte indes keine derartige Diskrepanz zwischen den beiden Tests festgestellt werden. Vielmehr waren die Leistungen hier insgesamt vergleichbar, so dass für diese Altersgruppe die AS- und die SBZ-Methode als für die Untersuchung des Syntaxverständnisses gleichwertig gelten können. Darüber hinaus bestätigte die Untersuchung viele der in der Literatur beschriebenen Vor- und Nachteile der beiden Methoden, darunter der geringere Materialbeschaffungsaufwand bei der AS-Methode, die größere Durchführungspraktikabilität der SBZ-Methode, die höhere Attraktivität und das geringere Risiko für Antwort-biases bei der AS-Methode, die leichtere Bewertbarkeit der kindlichen Reaktionen bei der SBZ-Methode. Im Vergleich der Altersgruppen zeigte sich, dass die 5;0- bis 5;5-jährigen Kinder Testsätze mit Objektvoranstellung deutlich besser verstanden als die 3;0- bis 3;5-jährigen: Die meisten der jüngeren Kinder hatten die untersuchte Struktur offenbar noch nicht erworben – sie interpretierten die Sätze mit Objektvoranstellung stattdessen am häufigsten nach der Wortreihenfolgestrategie, verstanden sie also wie subjektinitiale Strukturen. Von den 5;0- bis 5;5-jährigen Kindern dagegen hatten 75% die untersuchte Struktur rezeptiv erworben, interpretierten die Testsätze also primär korrekt nach der grammatischen Strategie. Aus diesen Ergebnissen wurde geschlossen, dass die Struktur semantisch reversibler Sätze mit Objektvoranstellung frühestens ab einem Alter von 5;0 bis 5;5 Jahren als in der ungestörten Sprachentwicklung rezeptiv erworben gelten kann. Da sich jedoch in beiden Altersgruppen trotz allem eine erhebliche interindividuelle Variation hinsichtlich der Verständnisfähigkeiten zeigte, muss insgesamt von einem relativ langen Zeitfenster für den ungestörten Erwerb dieser Struktur ausgegangen werden.
Bislang konzentrierten sich die Untersuchungen des westdeutschen Blicks auf Ostdeutschland auf den Zeitraum vor der Wende oder auf Rundfunk- und Fernseh-Medien. Die Gegenwartsliteratur stellt einen weißen Fleck in dieser Frage dar. Anhand des Chronotopos-Konzepts von Michail Bachtin werden in dieser Arbeit daher zeitliche und räumliche Tiefenstrukturen in der Darstellung Ostdeutschlands in den Werken Jan Böttchers und Andreas Maiers herausgearbeitet und mit ihrer Darstellung Westdeutschlands verglichen. Neben grundsätzlichen Unterschieden fallen dabei signifikante Übereinstimmungen auf.
Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen.
Dass die Textlinguistik nicht umhin kommt, ihre Beschreibungen und ihr Instrumentarium auch im Hinblick auf Texte zu überprüfen, die nicht von Muttersprachlern erzeugt worden sind, ist durch die wachsenden Bedürfnisse nach fremdsprachiger Kommunikation und die rapide steigende Zahl entsprechender kommunikativer Ereignisse bedingt. Der Fokus der vorliegenden Publikation liegt auf dem fremdsprachigen Text (vorzugsweise in seiner schriftlichen, monologischen Ausprägung) als sprachlicher Größe liegen. Bei der Analyse fremdsprachiger Texte werden neben textlinguistischen Fragen aber auch andere Gesichtspunkte berücksichtigt: soziolinguistische Aspekte, z.B. in Bezug auf die Kommunikationspartner, die kommunikativen Domänen, den sozial-historischen Rahmen der Kommunikation usw., psycholinguistische Hintergründe, z.B. im Hinblick auf die kognitive Verarbeitung fremdsprachlich-kommunikativer Anforderungen, literaturwissenschaftliche Bezüge, etwa hinsichtlich fremdsprachiger Einflüsse auf literarische Werke und ihre Rolle im literarischen Diskurs, translationswissenschaftliche Gesichtspunkte im Hinblick auf die Adaptation und Bewahrung des Fremden im übersetzten Text sowie pädagogisch-didaktische Fragen im Rahmen des gesteuerten Fremdsprachenerwerbs.
Moby-Dick als Leerstelle und romantische Chiffre für die Aporie eines transzendentalen Signifikats
(2010)
Die Arbeit unternimmt den Versuch, Melvilles Moby-Dick als einen Vorboten postmoderner Literarizität in den Blick zu nehmen, der in seiner Autoreferentialität den eigenen textuellen Status kritisch-ironisierend reflektiert und Sprache als einen krisenhaften Zugang zu Welt und Kosmos ins Spiel bringt. Sie legt dar, dass Melvilles opus magnum ein im Verlaufe der abendländischen Philosophie epistemologisch und semiologisch virulent gewordenes Krisenbewusstsein vom "Phantasma der Umfassung der Wirklichkeit" (Lyotard) einerseits auf inhaltlicher und andererseits autoreferentiell auf der Ebene der écriture inszeniert. Entsprechend wird davon ausgegangen, dass die vom Text absorbierten Diskurse in ihrer schieren Vielzahl nicht als partikulare Bezüge hermeneutisch isoliert werden können, sondern stattdessen in ihrer Heterogenität selbst die zentrale Problematik illustrieren, in deren Dienst sie als konstitutive Elemente stehen: Statt positiven Sinn zu stiften, verunmöglichen sie jegliche interpretatorische Direktive und verweisen dadurch auf eine dem Roman inhärente negative Dimension von Sinn – sie sind also vielmehr Bestandteile eines verhandelten Problems als dessen Lösung. Nicht nur in den cetologischen Abschnitten des Romans – gleichwohl dort am offenkundigsten – lässt sich Melvilles spielerisch-dekonstruktiver Umgang mit westlichen Wissens- und Denkmodellen erkennen: Dringt man in ahabischer Manie(r) in das semantische Feld des Romans auf der Suche nach einem letzten Grund, einer inferentiellen Letztbegründung, gerät man in einen infiniten regressiven Strudel, der jede getroffene semantische Arretierung auf die Bedingungen ihrer Möglichkeit hin befragt und dadurch wieder aufbricht. Eine ishmaelische Lektüre des Moby-Dick bestünde darin, den Anspruch auf Letztbegründetheit im Sinne der différance Derridas aufzuschieben und sich damit der Gravitation eines transzendentalen Signifikats zu entziehen. Liest man die cetologischen Kapitel vor diesem Hintergrund, kann man in ihnen – so eine der zentralen Thesen der Arbeit – eine autoreferentielle Kontrastfolie erkennen, eine negative Exemplifikation dessen, wie sich der Moby-Dick nicht erfassen lässt: gewissermaßen eine Lektüreanleitung ex negativo. Wesentliche Merkmale der Melvilleschen écriture sind Ambivalenz, Parodie und Dialogizität. Er verwendet stilistische und motivische Versatzstücke, destruiert sie und unterläuft so permanent die Ernsthaftigkeit der den Roman strukturierenden Schicksalszeichen wie auch die interpretativen Anstrengungen des Lesers. Die Autorität des eigenen Diskurses wird ironisch unterminiert und der Text damit in einer Schwebe zwischen Parodie und Monomanie, Unabschließbarkeit und Universalanspruch gehalten. Als die figurativen Kraftfelder dieser konkurrierenden Paradigmen stehen Ahab und Ishmael auf der Handlungsebene personifizierend für die paradoxe Konstellation des gesamten Textes, der nicht die Auflösung oder Aufhebung seiner konfliktiven Elemente sucht, sondern als ästhetischer Ausdruck des Paradoxen feste Orientierungspunkt vorenthält. Anstatt beide Figuren und die ihnen zugrundeliegenden epistemologischen Strategien antagonistisch in Opposition zueinander zu stellen, begreift diese Arbeit sie als komplementäre Elemente eines romantischen Metatextes, der sie in eine konfliktive Rezeption einfasst. In Analogie zum Konzept der romantischen Ironie Friedrich Schlegels wird Ahab hierbei als prototypischer Allegorisierer begriffen, wohingegen Ishmael als Ironiker für die Relativierung derartig monomanischer Kraftakte steht – zwischen Anspannung und Abspannung, Unbedingtem und Bedingtem baut sich jene Dynamik auf, die den gesamten Text durchwaltet. Im Sinne der romantischen Universalpoesie ist der Moby-Dick nicht auf einen systemischen Abschluss hin orientiert, sondern besteht auf/aus seiner Unabschließbarkeit: Heterogenität, Inkonsequenz, Verworrenheit und mitunter Unverständlichkeit sind demnach keine Folgen kompositorischer Nachlässigkeit, sondern in ihrer Gesamtheit als das performative Moment der eigentlichen Mitteilung zu begreifen.
Klassifikationen von Computerspielen widmet sich den Begriffen, mit denen Computerspiele zu Klassifikationszwecken versehen werden. Eine repräsentative Auswahl an derartigen Klassifikationsmodellen, die die Arbeiten von Designern, Journalisten, Pädagogen, Laien und expliziten Computerspielforschern abdeckt, wird vorgestellt und hinsichtlich ihrer Anwendbarkeit zur eindeutigen Bestimmung konkreter Spiele bewertet. Dabei zeigen sich zwei grundlegend verschiedene Herangehensweisen an die Problematik: „Kategorisierungen“ stellen feste Kategorien auf, in die einzelne Spiel eindeutig einsortiert werden sollen, während „Typologien“ die einzelnen Elemente von Spielen untersuchen und klassifizieren. Beide Ansätze werden analysiert und ihre jeweiligen Vor- und Nachteile aufgezeigt. Da offensichtlich wird, dass die Klassifikation von Computerspielen in bedeutendem Maße vom jeweiligen zugrunde liegenden Verständnis davon, was ein „Computerspiel“ sei, abhängt, ist der Untersuchung der Klassifikationsmodelle eine Betrachtung dieser problematischen Begriffsdefinition vorangestellt, die beispielhaft an vier ausgewählten Aspekten durchgeführt wird.
Der Anstieg der Energiepreise kann zu einer länger anhaltenden Verteuerung von Gütertransporten führen. Welche Auswirkungen haben steigende Transportkosten auf die Entwicklung von Städtesystemen? Ein solcher Transportkostenanstieg hat in der Russischen Föderation nach der Preisliberalisierung 1992 real, d.h. in Relation zu den Preisen anderer Gütergruppen stattgefunden. Gleichzeitig stellt die Bevölkerungsstatistik der Russischen Föderation Daten bereit, mit deren Hilfe Hypothesen zur Entwicklung von Städtesystemen unter dem Einfluss steigender Transportkosten geprüft werden können. Diese Daten werden in der vorliegenden Arbeit umfassend ausgewertet. Den theoretischen Hintergrund liefert die Modellierung eines Städtesystems mit linearer Raumstruktur im Rahmen der Neuen Ökonomischen Geographie. Damit wird ein Werkzeug geschaffen, das auch auf weiträumige Städtesysteme mit ausgeprägter Bandstruktur angewendet werden kann. Die hier erstmals erfolgte ausführliche Erläuterung des zu Grunde liegenden Theorieansatzes versteht sich als Ergänzung der Standardlehrbücher der Raumwirtschaftstheorie. Die Ergebnisse der empirischen Untersuchung bestätigen die Prognose des Modells, dass in großflächigen Ländern bzw. Regionen mit Ähnlichkeit zur unterstellten Raumstruktur ein Anstieg der Transportkosten Konzentrationstendenzen in den Zentren befördert, während die peripheren Regionen zunehmend abgekoppelt werden.
Gegenstand der Studie ist die Evaluation eines kommunalen Sportprojekts. Die Forschungsarbeit entstand aus der wachsenden Erkenntnis heraus, dass es nicht mehr nur um die Entwicklung und Durchführung kommunaler oder sozialer Projekte geht, sondern zunehmend darauf ankommt, die Projektarbeit zu evaluieren, um ihren Einfluss auf die kommunale, soziale und personale Entwicklung zu prüfen und in der Folge die Implementierung zu optimieren. Die unterschiedlichen Schritte in der Definition des theoretischen Rahmens, der Datenanalyse sowie der Erarbeitung der evaluativen Empfehlungen wurden unternommen mit dem Anspruch auf Modellcharakter, um für zukünftige Evaluationsvorhaben entsprechende Standards zu setzen. Die Grundidee des kommunalen Sportprojekts „Straßenfußball für Toleranz“ ist innovativ: Mädchen und Jungen erobern durch gemeinsames Fußballspielen den öffentlichen Raum. Sie spielen ohne Schiedsrichter und nach speziellen Regeln. Das Projekt richtet sich ausdrücklich an sozial benachteiligte Jugendliche und bezieht gleichermaßen Jungen wie Mädchen ein.
Kenia erlangt Anfang der 1960er seine Unabhängigkeit und wird in der Folge von den Präsidenten Kenyatta und später Moi autoritär regiert. Als Konsequenz des internationalen und nationalen Druckes werden 1991 wieder Mehrparteienwahlen zugelassen. Die Hoffnungen auf einen Trendwechsel werden zunächst aber nicht erfüllt. Präsident Moi bleibt bei den Wahlen 1992 und 1997 siegreich und versucht jeden möglichen Reformprozess aufzuhalten bzw. zu verlangsamen. Mit dem neu gewählten Präsidenten Kibaki entsteht 2002 die Hoffnung auf Veränderung. Aber als alter Wegbegleiter Mois erfüllt Kibaki nicht die internationalen und nationalen Erwartungen. Moi und Kibaki organisieren jeweils kontra-demokratische Eliten hinter sich und nutzen das mächtige Präsidentenamt, die stärkste Institution im politischen System Kenias, um den Status quo so lange wie möglich zu erhalten. Die Parteien werden weder durch die Regierung noch durch die Opposition zu starken Institutionen transformiert und das unstete Verhalten der Geberländer vermag den Einfluss der autoritären Führung nicht dauerhaft einzuschränken.
Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden.
Obwohl Privatisierung in den letzten Jahren und Jahrzehnten ein Kernthema nicht nur der rechtswissenschaftlichen Debatte gewesen ist, wurde der Bereich der Privatisierung des Maßregelvollzugs nach §§ 63, 64 StGB, § 7 JGG sowie der Aufgaben nach §§ 81, 126a StPO insoweit vernachlässigt. Vor dem Hintergrund hauptsächlich fiskalischer Erwägungen und den Möglichkeiten einer Flucht aus dem Beamten- und dem Haushaltsrecht geraten zunehmend auch solche Bereiche in den Blickpunkt von Privatisierungsüberlegungen, die bisher selbstverständlich dem Bereich staatlicher Tätigkeit zugerechnet werden. Der Staat versteht sich zunehmend als Gewährleistungsstaat, der staatliche Aufgaben nicht mehr eigenhändig erfüllt, sondern sich hierfür der Leistung Dritter bedient. Bislang wurden der Maßregelvollzug nach §§ 63, 64 StGB und § 7 JGG sowie die Unterbringung zur Beobachtung des Beschuldigten nach § 81 StPO und die einstweilige Unterbringung nach § 126a StPO durch den Staat in den (staatlichen) Landeskliniken vollzogen. Auf der im Jahr 2004 eingeführten Rechtsgrundlage des § 36 Abs. 3 S. 2 und S. 5 BbgPsychKG entwickelte das Land Brandenburg ein Modell, um die Durchführung der genannten Aufgaben zu privatisieren, und gliederte die Landeskliniken im Jahr 2006 aus der Landesverwaltung aus. Der Autor untersucht die verfassungsrechtliche Zulässigkeit dieses Privatisierungsvorhabens in formeller und materieller Hinsicht. Eine Besonderheit der Veröffentlichung besteht darin, dass die Arbeit konkrete Aussagen zur Ausgestaltung des Regel-Ausnahme-Verhältnisses des Funktionsvorbehalts nach Art. 33 Abs. 4 GG enthält. Daran fehlte es bislang. Daneben untersucht der Autor einfachgesetzliche Grenzen für Privatisierungen des Maßregellzugs nach §§ 63, 64 StGB, § 7 JGG und der Aufgaben nach §§ 81, 126a StPO sowie solche Privatisierungsgrenzen, die sich aus internationalen Menschenrechtsstandards ergeben.
Brüche und Umbrüche
(2010)
Das Erkenntnisziel der Analyse der Vermögenslage ist die Gewinnung von Informationen über das Vermögen eines Unternehmens und seine Investitionstätigkeiten. In dieser Arbeit stellt das Definitionssystem der Jahresabschlussanalyse (in der Fachliteratur auch Bilanzanalyse genannt) die theoretische Grundlage für die statistische Analyse der Vermögenslage in der Gesamtheit öffentlicher Unternehmen dar. Die Vermögenslage wird mit Hilfe der aus der Bilanz ablesbaren Kennzahlen analysiert. Dabei stellen die Posten der Bilanz ursprüngliche Merkmale dar, auf deren Grundlage die zu untersuchenden Merkmale – Kennzahlen der Vermögenslage gebildet werden. Da die Heterogenität öffentlicher Unternehmen die Vergleichbarkeit der untersuchten Kennzahlen erschwert, stellt die Aufbereitung der Bilanz (Bildung der Strukturbilanz) in diesem Zusammenhang einen wichtigen Zwischenschritt in der Analyse dar, der allerdings schon dem Wirtschaftsprüfer erhebliche Kopfschmerzen bereiten kann, geschweige dem Statistiker. Eine einheitliche Strukturbilanz soll die Vergleichbarkeit der Bilanzkennzahlen gewähren. Die Vorgehensweise bei der Aufbereitung der Bilanz für eine Strukturbilanz wird in der Fachliteratur nicht eindeutig festgelegt. Die fachlichen Beiträge dort bestehen überwiegend aus Hinweisen und Empfehlungen zum Vorgehen in einzelnen Untenehmen, was natürlich gut nachzuvollziehen ist, da jedes Unternehmen eine eigene Spezifik hat. An dieser Stelle muss jedoch ein Statistiker, der sich weniger mit den einzelnen Fällen beschäftigt, sondern die Massenphänomene untersucht, auf eine einheitliche Variante der Bilanzaufbereitung zurückgreifen. Auf die Besonderheiten der Datenaufbereitung für öffentliche Unternehmen und die Bildung der Strukturbilanz soll an dieser Stelle nicht eingegangen werden. In dem folgenden Abschnitt werden die zu untersuchenden Merkmale - Kennzahlen der Vermögenslage definiert. Diesem schließt sich der Abschnitt mit den empirischen Ergebnissen an. Die Berechnungen wurden sowohl für die ganze Grundgesamtheit öffentlicher Unternehmen als auch an einigen Stellen für ihre einzelnen Klassen durchgeführt.
Steuern in Fragilen Staaten
(2010)
Fragile states are characterized by institutions which do not have the political will or ability to reduce poverty in the interests of their citizen, to establish basic social security, to promote a successful development process, and to guarantee security and human rights. The regional disintegration processes after the period of imperialism and the fall of the iron curtain have created many new states, which still are politically unstable and unable for a sustainable development. In the literature such states are describes as "weak", "failing or failed", "collapsed", "conflict or post-conflict" - dependant on the extent of the particular state failure. Several indicators try to describe such states and partly allow for projections of the future development. Then the role of taxation is discussed in detail before recommendations for the development cooperation are presented. Obviously taxation plays a key role for the democratization process in fragile states.
Die gesundheitsfördernden Eigenschaften von grünem Tee sind weitgehend akzeptiert. Den Teecatechinen, insbesondere dem Epigallocatechin-3-gallat (EGCG), werden zahlreiche positive Effekte zugesprochen (z. B. antioxidativ, antikanzerogen, antiinflammatorisch, Blutdruck und Cholesterinspiegel senkend). Die Mechanismen, die zu einer Reduktion der in Tierversuchen beschriebenen Körper- und Fettmasse führen, sind nicht ausreichend geklärt. Ziel dieser Arbeit bestand darin, die kurz- und mittelfristigen Wirkungen einer TEAVIGO®-Applikation (mind. 94 % EGCG) am Mausmodell im Hinblick auf den Energie- und Fettstoffwechsel sowie die Expression daran beteiligter Gene in wichtigen Organen und Geweben zu untersuchen. In verschiedenen Tierversuchen wurde männlichen C57BL/6-Mäusen eine Hochfettdiät (HFD) mit und ohne Supplementation (oral, diätetisch) des entkoffeinierten Grüntee-Extraktes TEAVIGO® in unterschiedlichen Dosierungen gefüttert. Es wurden sowohl kurz- als auch mittelfristige Wirkungen des EGCG auf die Energiebilanz (u. a. indirekte Tierkalorimetrie) und Körperzusammensetzung (NMR) sowie die exogene Substratoxidation (Stabilisotopentechnik: Atemtests, Inkorporation natürlicher 13C-angereicherter Triglyceride aus Maiskeimöl in diverse Organe/Gewebe) und Gen-expression (quantitative real-time PCR) untersucht. Die Applikationsform und ihre Dauer riefen unterschiedliche Wirkungen hervor. Mäuse mit diätetischer Supplementation zeigten bereits nach kurzer Zeit eine verminderte Körperfettmasse, die bei weiterer Verabreichung auch zu einer Reduktion der Körpermasse führte. Beide Applikationsformen resultieren, unabhängig von der Dauer der Intervention, in einer erhöhten Energieausscheidung, während die Futter- und Energieaufnahme durch EGCG nicht beeinflusst wurden. Der Energieverlust war von einer erhöhten Fett- und Stickstoffausscheidung begleitet, deren Ursache die in der Literatur beschriebene Interaktion und Hemmung digestiver Enzyme sein könnte. Besonders unter postprandialen Bedingungen wiesen EGCG-Mäuse erniedrigte Triglycerid- und Glycogengehalte in der Leber auf, was auf eine eingeschränkte intestinale Absorption der Nährstoffe hindeutet. Transkriptanalysen ergaben im Darm eine verminderte Expression von Fettsäuretransportern, während die Expression von Glucosetransportern durch EGCG erhöht wurde. Weiterhin reduzierte EGCG, nach Umstellung von Standard- auf eine maiskeimölhaltige Hochfettdiät, die Inkorporation natürlicher 13C-angereicherter Triglyceride in diverse Organe und Gewebe – insbesondere Leber, viszerales und braunes Fettgewebe sowie Skelettmuskel. Die Analyse der 13C-Anreicherung im Atem der Mäuse und die Energieumsatzmessungen ergaben nach kurzer Applikation eine erhöhte Fettoxidation, die im weiteren Verlauf der Intervention auf eine erhöhte Kohlenhydratoxidation umgeschaltet wurde. Weiterhin war die orale Applikation von EGCG bei gleichzeitiger Fütterung einer Hochfettdiät von makroskopischen und mikroskopischen degenerativen Veränderungen der Leber begleitet. Diese Effekte wurden nach diätetischer Supplementation der Hochfettdiät mit EGCG nicht beobachtet. Zusammenfassend zeigen die Ergebnisse, dass die Körpergewichts- und Fettgewebs-abnahme durch diätetisches EGCG sich durch eine herabgesetzte Verdaulichkeit der Nahrung erklären lässt. Dies führte zu verschiedenen kurz- und mittelfristigen Veränderungen in der Fettverteilung und im Fettmetabolismus.
Der "eTEACHiNG-kompass" beinhaltet Informationen zu verschiedenen Funktionen der E-Learning-Plattform "Moodle" und weiteren digitalen Lehr-Lern-Medien. Durch Anregungen sowie konkrete Nutzungs- und Handlungsvorschläge will er deren methodisch reflektierten Einsatz in der Lehre unterstützen. Inhalt Nr. 1 Lernräume einrichten. Kursgestaltung in Moodle Nr. 2 Materialien online bereitstellen. Die Moodle-Funktion "Arbeitsmaterialien" kreativ nutzen Nr. 3 Kommunizieren, organisieren und kooperieren. Foren in Moodle verwenden Nr. 4 Lernende begleiten, Veranstaltungen evaluieren. Die Feedback-Funktion in Moodle Nr. 5 Inhalte online-unterstützt vermitteln. Mit der Moodle-Funktion "Lektion" arbeiten Nr. 6 Unterstützen und überprüfen. Mit der Moodle-Funktion "Test" arbeiten Nr. 7 Online-Glossare. Wissensspeicher im Internet Nr. 8 Kooperatives und kollaboratives Lernen im Netz Arbeiten mit Wikis. Nr. 9 Der Lernbegleiter. Lernen in Worte fassen Nr. 10 Web Based Training. Aufbereiten von Lehrinhalten für die Online-Vermittlung Nr. 11 Podcasting. Einsatzmöglichkeiten in der Hochschullehre Nr. 12 E-Learning und Urheberrecht. Verwendung geschützter Werke in Forschung und Lehre
Für den Umgang post-autoritärer Gesellschaften mit den Tätern von Menschenrechtsverletzungen der Vorgängerregime gibt es zahlreiche Möglichkeiten. Neben der legalen Strafverfolgung haben sich seit Mitte der 1970er Jahre vor allem Wahrheitskommissionen als Form gegenseitiger Versöhnung zwischen Tätern und Opfern etabliert. Die vorliegende Studie gibt aus der Perspektive der vergleichenden Politikfeldforschung eine Antwort auf die Frage, welche politischen Faktoren der Wahrheitskommissionen in Uruguay, Panama und Ghana zu einer Verzögerung bei den Aufarbeitungsprozessen nach der Transition führen. Dazu werden aus der Theorie von Transitional Justice Hypothesen zur Machtverteilung, dem Ausmaß der Menschenrechtsverletzungen und den zivil-militärischen Reformen für verspätete Wahrheitskommissionen abgeleitet, welche zur Plausibilisierung der Verzögerung beitragen. Im empirisch-analytischen Teil der Arbeit wird in der Untersuchungs- und Kontrollgruppe deutlich, dass im Vergleich zu transitionsnahen Wahrheitskommissionen ein niedrigeres Niveau an Menschenrechtsverletzungen den politischen Druck für die Aufarbeitung hemmt und die Täter als demokratisch gewählte Machthaber nach der Transition kein Interesse an der Wahrheit haben (Ghana und Panama) bzw. mit den neuen Machthabern paktierten (Uruguay). Zudem zeigt die Studie, dass zivil-militärische Reformen keinen Einfluss auf die Aufarbeitung der Wahrheit haben, wie in der Literatur argumentiert wird. Auch wird angezweifelt, dass sich die politische Machtverteilung bei der Einsetzung von Wahrheitskommissionen im Gleichgewicht befindet.
Die Ergebnisse aus dreißig Fallstudien in deutschen Biotechnologieunternehmen wurden genutzt, um einen Leitfaden für Biotechnologieunternehmen zu entwickeln, der die Unternehmen im Prozess der Internationalisierung unterstützt. Der Leitfaden zur Internationalisierung umfasst: • Beschreibung relevanter Auslandsmärkte (USA, UK, Frankreich, Indien) • Auswahl geeigneter Auslandsmärkte • Ermittlung einer geeigneten Markteintrittsform • Darstellung von Good Practice in der Internationalisierung • Managementempfehlungen Im Rahmen der Fallstudien wurde die USA als wichtigster Auslandsmarkt für Dienstleistungen in der roten Biotechnologie (DLrBT) identifiziert, Großbritannien als wichtigster europäischer Markt. Auch Frankreich wurde als ein bedeutender Markt in Europa ermittelt, der für die Unternehmen jedoch sehr schwer zu bearbeiten ist aufgrund von hohen Markteintrittsbarrieren. Des weiteren wurde Indien, neben den genannten Märkten, als ein emergenter Markt in den Leitfaden aufgenommen. Mit dem Internationalisierungsleitfaden wurde ein Instrument entwickelt, das zu einer objektiveren Bewertung von Chancen und Risiken des Markteintritts in einen bestimmten Zielmarkt einen Beitrag leistet. Der Anwender wird angehalten sich systematisch mit den folgenden Themenkomplexen zu beschäftigen: • Was sind relevante k.o.-Kriterien für Zielmärkte? • Welche Umsatzchancen birgt der Zielmarkt? • Wie sind die generellen Verhältnisse im Zielmarkt (z.B. Käuferverhalten)? • Auf welche Akteure treffe ich im Zielmarkt (Kunden, Wettbewerber, Mittler)? • Wie trete ich am besten in den Markt ein? Im Leitfaden wird auch aufgezeigt, wie die Internationalisierung in „Good Practice“ Unternehmen der Biotechnologie abgelaufen ist. Die empirische Grundlage dafür bilden die Ergebnisse der Fallstudienarbeit. • Wie ist die Internationalisierung im Detail abgelaufen? • Wie erfolgte der Eintritt in Auslandsmärkte? • Was waren die Gründe für diesen Ablauf bzw. für diese Vorgehensweise? • Was waren die größten Barrieren? Im Leitfaden werden Rahmenbedingungen und Internationalisierungsstrategien diskutiert und das Born-Global Verhalten dem stufenartigen Vorgehen in der Internationalisierung gegenübergestellt und Managementempfehlungen präsentiert. Im Leitfaden werden Checklisten zur Länderauswahl, zur Einschätzung von Markteintrittsbarrieren und unternehmensinternen Kriterien für die Zielmarkterschließung angeboten. Der Leitfaden zur Internationalisierung ist eine praktische Handlungsanleitung für das Management von Biotechnologieunternehmen.
Inhalt: - Internationale Kooperation in der Qualitätssicherung von Lehre und Studium (Pohlenz) - Mit dem Bachelor in den Beruf...? - Lehrerbildung in Vietnam (Van Cuong) - Interkulturelle Schule aus erster Hand (Nguyen, Bilir) - Schule und Studium im Ausland (Saeltzer) - Mehrsprachigkeit im Klassenzimmer (Mayr, Mezger, Paul) - Muttersprachliche Kompetenzen entwickeln (Haßler) - Sprachbarrieren überwinden (Wartgenstedt) - Grundlagen der Forschungsmethodologie als Studieninhalt (Jakupec) - Als Valeologin auf neuen Wegen nach Potsdam (Hintze) - Deutsch-Polnischer Studienaustausch und erweitertes Studienangebot (Zeißler) - Von Wiesbaden über New York, St. Louis und Washington nach Brandenburg - Chancen im Auslandsschuldienst (Saeltzer) - Interkultularität muss nicht international sein (Nowak) - Lehrerbildung braucht internationale Kontakte (Hübner) - Ausschreibung: Preis für die beste Lehr- und Studieninnovation an der Humanwissenschaftlichen Fakultät
Der vorliegende Beitrag gibt einen Überblick über die Entstehung der ersten deutschen Kolonien in Georgien sowie die wirtschaftlichen Aspekte ihrer Tätigkeiten. Im II. Kapitel wird kurz die Vorgeschichte der Beziehungen zwischen Deutschland und Georgien beschrieben. Es wird gezeigt, dass diese Beziehungen schon im dritten Jahrhundert begannen und nach der Eroberung Georgiens durch die Mongolen im 13. Jahrhundert unterbrochen wurden. Die Wiederherstellung der Beziehungen zwischen den Ländern fand im 17. Jahrhundert statt, wobei eine Intensivierung im 18. Jahrhundert beobachtet werden kann. Im III. Kapitel geht es um die Entstehung der deutschen Kolonien in Georgien; insbesondere entstanden viele deutsche Siedlungen in Ost-Georgien, in der Nähe der Hauptstadt Tbilissi (mit deutschen Bezeichnungen, z.B. Rosenthal, Marienfeld, Alexandersdorf, Petersdorf, Elenendorf usw.) und in Tbilissi. Das IV. Kapitel beschäftigt sich mit der Analyse der wirtschaftlichen Tätigkeiten der deutschen Kolonien, insbesondere mit der Gründung von zahlreichen neuen kleinen und mittleren Unternehmen in der Nahrungsproduktion, Landwirtschaft und im Dienstleistungsbereich. Die kleinen und mittleren deutschen Unternehmen verwendeten modernes Know-how und Technologien aus Deutschland. Dies hat wesentlich zur wirtschaftlichen Entwicklung Georgiens beigetragen.
Die adipositasbedingte Insulinresistenz geht mit einer unterschwelligen Entzündungsreaktion einher. Als Antwort auf dieses Entzündungsgeschehen wird PGE2 unter anderem von Kupffer Zellen der Leber freigesetzt und kann seine Wirkung über vier PGE2-Rezeptorsubtypen (EP1-EP4) vermitteln. In vorangegangenen Arbeiten konnte gezeigt werden, dass PGE2 in Rattenhepatozyten über den EP3 R ERK1/2-abhängig die intrazelluläre Weiterleitung des Insulinsignals hemmt. Über die Modulation der Insulinrezeptorsignalkette durch andere EP-Rezeptoren war bisher nichts bekannt. Daher sollte in stabil transfizierten Zelllinien, die jeweils nur einen der vier EP-Rezeptorsubtypen exprimierten, der Einfluss von PGE2 auf die Insulinrezeptorsignalkette untersucht werden. Es wurden HepG2-Zellen, die keinen funktionalen EP-Rezeptor aufwiesen, sowie HepG2-Zellen, die stabil den EP1-R (HepG2-EP1), den EP3β-R (HepG2 EP3β) oder den EP4-R (HepG2 EP4) exprimierten, sowie die humane fötale Hepatozytenzelllinie, Fh hTert, die den EP2- und den EP4-R exprimierte, für die Untersuchungen verwendet. Die Zellen wurden für 330 min mit PGE2 (10 µM) vorinkubiert, um die pathophysiologische Situation nachzustellen und anschließend mit Insulin (10 nM) für 15 min stimuliert. Die insulinabhängige Akt- und ERK1/2-Phosphorylierung wurde im Western-Blot bestimmt. In allen Hepatomzelllinien die EP-R exprimierten, nicht aber in der Zelllinie, die keinen EP R exprimierte, hemmte PGE2 die insulinstimulierte Akt-Phosphorylierung. In allen drei stabil transfizierten Zelllinien, nicht jedoch in den Fh-hTert-Zellen, steigerte PGE2 die basale und insulinstimulierte Phosphorylierung der Serin/Threoninkinase ERK1/2. In den HepG2 EP1- und den HepG2-EP3β-Zellen steigerte PGE2 mutmaßlich über die ERK1/2-Aktivierung die Serinphosphorylierung des IRS, welche die Weiterleitung des Insulinsignals blockiert. Die Hemmung der Aktivierung von ERK1/2 hob in EP3 R-exprimierenden Zellen die Abschwächung der Insulinsignalübertragung teilweise auf. In diesen Zellen scheint die ERK1/2-Aktivierung die größte Bedeutung für die Hemmung der insulinstimulierten Akt-Phosphorylierung zu haben. Da durch die Hemmstoffe die PGE2-abhängige Modulation nicht vollständig aufgehoben wurde, scheinen darüber hinaus aber noch andere Mechanismen zur Modulation beizutragen. In den Fh hTert-Zellen wurde die Insulinrezeptorsignalkette offensichtlich über einen ERK1/2-unabhängigen, bisher nicht identifizierten Weg unterbrochen. Eine gesteigerte PGE2-Bildung im Rahmen der Adipositas ist nicht auf die peripheren Gewebe beschränkt. Auch im Hypothalamus können bei Adipositas Zeichen einer Entzündung nachgewiesen werden, die mit einer gesteigerten PGE2-Bildung einhergehen. Daher wurde das EP R-Profil von primären hypothalamischen Neuronen und neuronalen Modellzelllinien charakterisiert, um zu prüfen, ob PGE2 in hypothalamischen Neuronen die Insulinsignalkette in ähnlicher Weise unterbricht wie in Hepatozyten. In allen neuronalen Zellen hemmte die Vorinkubation mit PGE2 die insulinstimulierte Akt-Phosphorylierung nicht. In der neuronalen hypothalamischen Zelllinie N 41 wirkte PGE2 eher synergistisch mit Insulin. In durch Retinsäure ausdifferenzierten SH SY5Y-Zellen waren die Ergebnisse allerdings widersprüchlich. Dies könnte darauf zurückzuführen sein, dass die Expression der EP Rezeptoren im Verlauf der Kultur stark schwankte und somit die EP R-Ausstattung der Zellen zwischen den Zellversuchen variierte. Auch in den primären hypothalamischen Neuronen variierte die EP R-Expression abhängig vom Differenzierungszustand und PGE2 beeinflusste die insulinstimulierte Akt-Phosphorylierung nicht. Obwohl in allen neuronalen Zellen die Akt-Phosphorylierung durch Insulin gesteigert wurde, konnte in keiner der Zellen eine insulinabhängige Regulation der Expression von Insulinzielgenen (POMC und AgRP) nachgewiesen werden. Das liegt wahrscheinlich an dem niedrigen Differenzierungsgrad der untersuchten Zellen. Im Rahmen der Adipositas kommt es zu einer Überaktivierung des Endocannabinoidsystems. Endocannabinoidrezeptoren sind mit den EP Rezeptoren verwandt. Daher wurde geprüft, ob Endocannabinoide die Insulinsignalweiterleitung in ähnlicher Weise beeinflussen können wie PGE2. Die Vorinkubation der N 41-Zellen für 330 min mit einem Endocannabinoidrezeptoragonisten steigerte die insulinstimulierte Akt-Phosphorylierung, was auf einen insulinsensitiven Effekt von Endocannabinoiden hindeutet. Dies steht im Widerspruch zu der in der Literatur beschriebenen endocannabinoidabhängigen Insulinresistenz, die aber auf indirekte, durch Endocannabinoide ausgelöste Veränderungen zurückzuführen sein könnte.
Und der Zukunft abgewandt
(2010)
Seit dem Ende der DDR, das den Zusammenbruch des Ostblocks und damit die Beendigung des »Kalten Kriegs« einleitete, wird verstärkt versucht, das Wesen dieses Staates zu definieren und damit seine Folgen auf wirtschaftlicher, sozialer, psychologischer und bildungspolitischer Ebene zu verstehen und einzuordnen. Alexandra Budke analysiert in diesem Band das Schulfach Geographie, das neben der Staatsbürgerkunde und der Geschichte ein zentrales Fach war und in dem die in den Lehrplänen definierte »staatsbürgerliche, weltanschauliche oder ideologische Erziehung« auf der Grundlage des Marxismus-Leninismus stattfinden sollte. Sie klärt, inwiefern Geographieunterricht in der DDR genutzt wurde, um geopolitische Interessen des Staates zu kommunizieren und zu verbreiten. Damit lässt sich durch die detaillierte Analyse des Fachunterrichts auch die Frage beantworten, ob SchülerInnen im Unterricht politisch manipuliert wurden und welche Handlungsmöglichkeiten die zentralen Akteure des Unterrichts, die LehrerInnen und die SchülerInnen, im Rahmen der durch die Bildungspolitik gesetzten curricularen Vorgaben wahrgenommen haben.
Forschungsbasierte Lehre
(2010)
Mit der Integration von Forschung in Lehre gelingen nicht nur aktivierende, teilnehmerorientierte Lehrmethoden, sie bietet vielmehr für Studierende die Möglichkeit an Forschung teilzuhaben. Dabei geht forschungsbasiertes Lernen über die Förderung von Selbstständigkeit und projektorientiertem Studium hinaus, denn es wird von den Studierenden eine sie interessierende Problemstellung entwickelt mit dem Ziel neue Erkenntnisse zu gewinnen. Hierin liegt die Besonderheit des Konzepts: es wird bei den Lerninteressen der Studierenden angesetzt. Dieser Beitrag erörtern ein Beispiel, wie Forschungsprojekte in der Lehre genutzt werden können.