Refine
Has Fulltext
- yes (740) (remove)
Year of publication
Document Type
- Doctoral Thesis (740) (remove)
Language
- German (740) (remove)
Keywords
- language acquisition (9)
- Modellierung (8)
- Spracherwerb (8)
- taste (7)
- Geschmack (6)
- Nanopartikel (6)
- Polymer (6)
- Selen (6)
- Serotonin (6)
- education (6)
Institute
- Institut für Biochemie und Biologie (121)
- Institut für Chemie (109)
- Institut für Ernährungswissenschaft (63)
- Institut für Physik und Astronomie (55)
- Wirtschaftswissenschaften (53)
- Department Psychologie (38)
- Institut für Umweltwissenschaften und Geographie (37)
- Sozialwissenschaften (36)
- Department Erziehungswissenschaft (35)
- Department Sport- und Gesundheitswissenschaften (27)
In dieser Arbeit wurden Zusammenhänge zwischen den sexuellen Erfahrungen junger Frauen und Männer, ihren Persönlichkeitseigenschaften und ihren sexualmoralischen Einstellungen auf der einen Seite und der Einschätzung ihrer sexuellen Handlungsfähigkeit auf der anderen Seite untersucht. Die Grundlage für das Modell der sexuellen Handlungsfähigkeit bildeten die Vorstellungen der Arbeitsgruppe um Matthias Grundmann (Grundmann et al. 2006) sowie von Emirbayer und Mische (1998). Das in dieser Arbeit entwickelte Modell zur sexuellen Handlungsfähigkeit ist ein multidimensionales Konstrukt, das sich aus den Komponenten „sexuelle Kommunikation“, „sexuelle Zufriedenheit“, „sexuelle Reziprozität“ sowie „sexuelle Eigenverantwortung“ zusammensetzt. „Sexuelle Kommunikation“ beinhaltet die Fähigkeit, sexuelle Wünsche zum Ausdruck bringen zu können. „Sexuelle Zufriedenheit“ beschreibt den Grad der Zufriedenheit mit dem eigenen Sexualleben. „Sexuelle Reziprozität“ verweist auf die Fähigkeit, sexuelle Aufmerksamkeiten sowohl Annehmen als auch Geben zu können. „Sexuelle Eigenverantwortung“ betont schließlich die Einschätzung, inwieweit die eigene Sexualität selbst bestimmt gestaltet werden kann. Mit Emirbayer und Mische werden die sexuellen Erfahrungen der Frauen und Männer als Korrelate der Einschätzung der Dimensionen der sexuellen Handlungsfähigkeit betrachtet. Mit Grundmann et al. sind es zudem verschiedene Persönlichkeitseigenschaften sowie sexualmoralische Einstellungen, deren Beschaffenheiten Aussagen über die sexuelle Handlungsfähigkeit erlauben. Um die Thematik der sexuellen Handlungsfähigkeit empirisch zu betrachten, wurden im Jahr 2006 695 junge Potsdamer/innen im Alter von 19 bis 21 Jahren im Rahmen einer standardisierten Erhebung zu ihren sexuellen und Beziehungserfahrungen befragt. Die empirischen Analysen verdeutlichen eine ko-konstruktive Anschauung von der Entwicklung sexueller Handlungsfähigkeit. Diese entsteht nicht im Individuum allein, sondern innerhalb der Interaktions- und Aushandlungsprozesse des Individuums mit den Anderen seiner sozialen und sexuellen Umwelt. Von Bedeutung erweisen dabei sowohl die Erlebnisse der sexuellen Biografie als auch die Persönlichkeitsmerkmale eines jeden Einzelnen. Nur geringfügig erscheinen die erfragten sexualmoralischen Ansichten von Bedeutung.
Wenn in einem verbrannten Gebäude, in dem sich unliebsame Untermieter breit gemacht haben, diese damit beginnen, Stein für Stein das restliche Gemäuer abzutragen, um die verbliebenen Fenster zuzumauern, wird es Zeit, mit mehr oder weniger freundlichen Worten die Bewohner des Hauses zu verweisen, die nur verhindern, dass sich neue Besucher dem Gelände nähern. Dafür muss freilich alter und neuer Behang von den Wänden genommen werden; und eben durch die Verbannung all dessen, was nicht an diesen Ort gehört, kann ein freundliches Bild des Dichters Friedrich Hölderlin erhalten bleiben, der nicht nur poetisch, sondern auch zwischenmenschlich einigen bedeutenden Persönlichkeiten seiner Zeit im Wege stand, was ihm wohl in beiden Aspekten zum Verhängnis geworden ist, weil er sich weder verwandtschaftlich noch im Rahmen des poetischen Geschäfts gegen seine intrigante Umgebung zur Wehr zu setzen wusste. Der etwas länger geratene Aufsatz „So sind die Zeichen in der Welt“ soll weder ein neues Heiligenbild schaffen noch einen frisch aus der Tasche gezogenen Popstar zum Liebhaben, sondern will behutsam einige Fresken des Gedankengebäudes Hölderlin für diejenigen freilegen, deren Bild des Dichters noch nicht völlig von der Vorstellung des wahnsinnig gewordenen Dichters übertüncht worden ist. Obwohl sich die Arbeit damit ganz bewusst den Hölderlin - Studien von Pierre Bertaux anschließt, setzt sie sich auch mit dieser Wahrnehmungslinie kritisch auseinander, indem sie neben biographischen Anmerkungen auch stil- und ideologiekritische Methoden einsetzt, um die manchmal unübersichtliche Quellenlage ein wenig durchsichtiger zu machen, als dies bisher der Fall ist. Über eine solche, in Einzelheiten vielleicht unorthodox wirkende Darstellung hinaus will die Arbeit die Behandlungsmöglichkeit von Friedrich Hölderlin im Deutschunterricht des Gymnasiums nahe legen, weil selbst Jüngeres über ihn behandelt wird, das darauf hinweist, inwiefern die Marginalisierung dieses Poeten damit zu tun hat, dass er während eines langen Abschnitts der Literaturgeschichte auch dafür verantwortlich gemacht wurde, was er weder geschrieben hat noch meinte. Die Intention der Arbeit besteht insgesamt in der Vorstellung, das Gedankengut Hölderlins müsse aus dem breiten Strom einer konservativen Wahrnehmungstradition entfernt werden (zu der beispielsweise auch die dramatische Hölderlin - Bearbeitung E. Jelineks Wolken.Heim. gezählt werden kann, selbst wenn sie widerborstig gemeint sein sollte) und dieser Dichter sei als realistischer Denker zu restaurieren, der sich deshalb dem Literaturbetrieb seiner Zeit entgezogen hat, weil er, selbst der Lebensführung nach, sehr früh die Bewegungen gegen französische Aufklärung und Revolution begriffen hat – und von deren massiver Ablehnung Hölderlin bis heute getroffen wird. Da Friedrich Hölderlin aber nicht nur ideologischer Betrachtung, Kritik und Verfälschung ausgesetzt ist, sondern auch regelmäßig Gegenstand umfangreicher biographisch - psychologischer Spekulationen darstellt, wurde dieser Aspekt nicht nur bezogen auf die Rezeptionsgeschichte untersucht, sondern am Gegenstand selbst. In diesem Zusammenhang konnte nicht nur eine bislang vernachlässigte Beziehung Hölderlins zu Sophie Mereau rekonstruiert und der Verdacht zurückgewiesen werden, es habe zur selben Zeit eine homoerotische Beziehung zu Isaak Sinclair bestanden, vielmehr gelang auch der Nachweis, dass das Verhältnis des Dichters zu Susette Gontard weder singulär noch konkurrenzlos gewesen ist, weshalb sich eine eindeutige Zuordnung dieser Frau zur poetischen Figur der Diotima verbietet. Dazu wurde einerseits der Umstand entmythologisiert, nach dem die Liebe zur Frankfurter Zeit platonisch betrieben wurde, andererseits aber diese Affaire den Verhältnissen Hölderlins zu anderen Frauen zugeordnet, mit denen sich Frau Gontard – letztlich erfolglos – dadurch auseinander zu setzen versuchte, dass sie die Rolle Diotimas okkupierte. Dabei ließ sich schließlich der Verdacht erhärten, die stabilste Bindung des Dichters an eine Frau sei die zur eigenen Schwester Heinrike gewesen, mit der bis zum Bruch von Bordeaux aus zwar unregelmäßig, aber emotional immer wieder ausufernde Briefe getauscht wurden. Es ist nicht ohne Ironie, wenn ausgerechnet im vielleicht bekanntesten Gedicht Hölderlins, der „Hälfte des Lebens“, in dem regelmäßig ein bedeutender philosophischer Entwurf gesehen wird, Rudimente eines Textes enthalten sind, der – eindeutig erotisch konnotiert – an die eigene Schwester gerichtet ist.
Populärwissenschaftlicher Abstract: Bislang gibt es in der beobachtenden optischen Astronomie zwei verschiedene Herangehensweisen: Einerseits werden Objekte durch Kameras abbildend erfaßt, andererseits werden durch die wellenlängenabhängige Zerlegung ihres Lichtes Spektren gewonnen. Das Integral - Field - Verfahren ist eine relativ neue Technik, welche die genannten Beobachtungsmethoden vereint. Das Objektbild im Teleskopfokus wird in räumlich zerlegt und jedes Ortselement einem gemeinsamen Spektrografen zugeführt. Hierdurch wird das Objekt nicht nur zweidimensional räumlich erfaßt, sondern zusätzlich die spektrale Kompenente als dritte Dimension erhalten, weswegen das Verfahren auch als 3D-Methode bezeichnet wird. Anschaulich kann man sich das Datenresultat als eine Abbildung vorstellen, in der jeder einzelne Bildpunkt nicht mehr nur einen Intensitätswert enthält, sondern gleich ein ganzes Spektrum. Diese Technik ermöglicht es, ausgedehnte Objekte im Unterschied zu gängigen Spaltspektrografen komplett zu erfassen. Die besondere Stärke der Methode ist die Möglichkeit, die Hintergrundkontamination der unmittelbaren Umgebung des Objektes zu erfassen und in der Auswertung zu berücksichtigen. Durch diese Fähigkeit erscheint die 3D-Methode prädestiniert für den durch moderne Großteleskope erschlossenen Bereich der extragalaktischen Stellarastronomie. Die detaillierte Untersuchung aufgelöster stellare Populationen in nahegelegenen Galaxien ist erst seit kurzer Zeit dank der Fortschritte mit modernen Grossteleskopen und fortschrittlicher Instrumentierung möglich geworden. Wegen der Bedeutung für die Entstehung und Evolution von Galaxien werden diese Arbeiten zukünftig weiter an Bedeutung gewinnen. In der vorliegenden Arbeit wurde die Integral-Field-Spektroskopie an zwei planetarischen Nebeln in der nächstgelegenen großen Spiralgalaxie M31 (NGC 224) getestet, deren Helligkeiten und Koordinaten aus einer Durchmusterung vorlagen. Hierzu wurden Beobachtungen mit dem MPFS-Instrument am russischen 6m - Teleskop in Selentschuk/Kaukasus sowie mit INTEGRAL/WYFFOS am englischen William-Herschel-Teleskop auf La Palma gewonnen. Ein überraschendes Ergebnis war, daß eins der beiden Objekte falsch klassifiziert wurde. Sowohl die meßbare räumliche Ausdehnung des Objektes als auch das spektrale Erscheinungsbild schlossen die Identität mit einem planetarischen Nebel aus. Mit hoher Wahrscheinlichkeit handelt es sich um einen Supernovaüberrest, zumal im Rahmen der Fehler an gleicher Stelle eine vom Röntgensatelliten ROSAT detektierte Röntgenquelle liegt. Die in diesem Projekt verwendeten Integral-Field-Instrumente wiesen zwei verschiedene Bauweisen auf, die sich miteinander vergleichen ließen. Ein Hauptkritikpunkt der verwendeten Instrumente war ihre geringe Lichtausbeute. Die gesammelten Erfahrung fanden Eingang in das Konzept des derzeit in Potsdam in der Fertigung befindlichen 3D-Instruments PMAS (Potsdamer Multi - Apertur - Spektrophotometer), welcher zunächst für das 3.5m-Teleskop des Calar - Alto - Observatoriums in Südspanien vorgesehen ist. Um die Effizienz dieses Instrumentes zu verbessern, wurde in dieser Arbeit die Kopplung der zum Bildrasterung verwendeten Optik zu den Lichtleitfasern im Labor untersucht. Die Untersuchungen zur Maximierung von Lichtausbeute und Stabilität zeigen, daß sich die Effizienz durch Auswahl einer geeigneten Koppelmethode um etwa 20 Prozent steigern lässt.
Indonesien zählt zu den weltweit führenden Ländern bei der Nutzung von geothermischer Energie. Die geothermischen Energiequellen sind im Wesentlichen an den aktiven Vulkanismus gebunden, der durch die Prozesse an der indonesischen Subduktionszone verursacht wird. Darüber hinaus sind geotektonische Strukturen wie beispielsweise die Sumatra-Störung als verstärkende Faktoren für das geothermische Potenzial von Bedeutung. Bei der geophysikalischen Erkundung der indonesischen Geothermie-Ressourcen konzentrierte man sich bisher vor allem auf die Magnetotellurik. Passive Seismologie wurde dahingegen ausschließlich für die Überwachung von im Betrieb befindlichen Geothermie-Anlagen verwendet. Jüngste Untersuchungungen z.B. in Island und in den USA haben jedoch gezeigt, dass seismologische Verfahren bereits in der Erkundungsphase wichtige Informationen zu den physikalischen Eigenschaften, zum Spannungsfeld und zu möglichen Fluid- und Wärmetransportwegen liefern können. In der vorgelegten Doktorarbeit werden verschiedene moderne Methoden der passiven Seismologie verwendet, um beispielhaft ein neues, von der indonesischen Regierung für zukünftige geothermische Energiegewinnung ausgewiesenes Gebiet im nördlichen Teil Sumatras (Indonesien) zu erkunden. Die konkreten Ziele der Untersuchungen umfassten (1) die Ableitung von 3D Strukturmodellen der P- und S-Wellen Geschwindigkeiten (Parameter Vp und Vs), (2) die Bestimmung der Absorptionseigenschaften (Parameter Qp), und (3) die Kartierung und Charakterisierung von Störungssystemen auf der Grundlage der Seismizitätsverteilung und der Herdflächenlösungen. Für diese Zwecke habe ich zusammen mit Kollegen ein seismologisches Netzwerk in Tarutung (Sumatra) aufgebaut und über einen Zeitraum von 10 Monaten (Mai 2011 – Februar 2012) betrieben. Insgesamt wurden hierbei 42 Stationen (jeweils ausgestattet mit EDL-Datenlogger, 3-Komponenten, 1 Hz Seismometer) über eine Fläche von etwa 35 x 35 km verteilt. Mit dem Netzwerk wurden im gesamten Zeitraum 2568 lokale Erdbeben registriert. Die integrierte Betrachtung der Ergebnisse aus den verschiedenen Teilstudien (Tomographie, Erdbebenverteilung) erlaubt neue Einblicke in die generelle geologische Stukturierung sowie eine Eingrenzung von Bereichen mit einem erhöhten geothermischen Potenzial. Das tomographische Vp-Modell ermöglicht eine Bestimmung der Geometrie von Sedimentbecken entlang der Sumatra-Störung. Für die Geothermie besonders interessant ist der Bereich nordwestlich des Tarutung-Beckens. Die dort abgebildeten Anomalien (erhöhtes Vp/Vs, geringes Qp) habe ich als mögliche Aufstiegswege von warmen Fluiden interpretiert. Die scheinbar asymetrische Verteilung der Anomalien wird hierbei im Zusammenhang mit der Seismizitätsverteilung, der Geometrie der Beben-Bruchflächen, sowie struktur-geologischen Modellvorstellungen diskutiert. Damit werden wesentliche Informationen für die Planung einer zukünftigen geothermischen Anlage bereitgestellt.
Die vorliegende Arbeit 'Abflußentwicklung in Teileinzugsgebieten des Rheins - Simulationen für den Ist-Zustand und für Klimaszenarien' untersucht Auswirkungen möglicher zukünftiger Klimaänderungen auf das Abflußgeschehen in ausgewählten, durch Mittelgebirge geprägten Teileinzugsgebieten des Rheins: Mosel (bis Pegel Cochem); Sieg (bis Pegel Menden 1) und Main (bis Pegel Kemmern).In einem ersten Schritt werden unter Verwendung des hydrologischen Modells HBV-D wichtige Modellprozesse entsprechend der Einzugsgebietscharakteristik parametrisiert und ein Abbild der Gebietshydrologie erzeugt, das mit Zeitreihen gemessener Tageswerte (Temperatur, Niederschlag) eine Zeitreihe der Pegeldurchflüsse simulieren kann. Die Güte der Simulation des Ist-Zustandes (Standard-Meßzeitraum 1.1.1961-31.12.1999) ist für die Kalibrierungs- und Validierungszeiträume in allen Untersuchungsgebieten gut bis sehr gut.Zur Erleichterung der umfangreichen, zeitaufwendigen einzugsgebietsbezogenen Datenaufbereitung für das hydrologische Modell HBV-D wurde eine Arbeitsumgebung auf Basis von Programmerweiterungen des Geoinformationssystems ArcView und zusätzlichen Hilfsprogrammen entwickelt. Die Arbeitsumgebung HBV-Params enthält eine graphische Benutzeroberfläche und räumt sowohl erfahrenen Hydrologen als auch hydrologisch geschulten Anwendern, z.B. Studenten der Vertiefungsrichtung Hydrologie, Flexibilität und vollständige Kontrolle bei der Ableitung von Parameterwerten und der Editierung von Parameter- und Steuerdateien ein. Somit ist HBV-D im Gegensatz zu Vorläuferversionen mit rudimentären Arbeitsumgebungen auch außerhalb der Forschung für Lehr- und Übungszwecke einsetzbar.In einem zweiten Schritt werden Gebietsniederschlagssummen, Gebietstemperaturen und simulierte Mittelwerte des Durchflusses (MQ) des Ist-Zustandes mit den Zuständen zweier Klimaszenarien für den Szenarienzeitraum 100 Jahre später (2061-2099) verglichen. Die Klimaszenarien beruhen auf simulierten Zirkulationsmustern je eines Modellaufes zweier Globaler Zirkulationsmodelle (GCM), die mit einem statistischen Regionalisierungsverfahren in Tageswertszenarien (Temperatur, Niederschlag) an Meßstationen in den Untersuchungsgebieten überführt wurden und als Eingangsdaten des hydrologischen Modells verwendet werden.Für die zweite Hälfte des 21. Jahrhunderts weisen beide regionalisierten Klimaszenarien eine Zunahme der Jahresmittel der Gebietstemperatur sowie eine Zunahme der Jahressummen der Gebietsniederschläge auf, die mit einer hohen Variabilität einhergeht. Eine Betrachtung der saisonalen (monatlichen) Änderungsbeträge von Temperatur, Niederschlag und mittlerem Durchfluß zwischen Szenarienzeitraum (2061-2099) und Ist-Zustand ergibt in allen Untersuchungsgebieten eine Temperaturzunahme (höher im Sommer als im Winter) und eine generelle Zunahme der Niederschlagssummen (mit starken Schwankungen zwischen den Einzelmonaten), die bei der hydrologischen Simulation zu deutlich höheren mittleren Durchflüssen von November bis März und leicht erhöhten mittleren Durchflüssen in den restlichen Monaten führen. Die Stärke der Durchflußerhöhung ist nach den individuellen Klimaszenarien unterschiedlich und im Sommer- bzw. Winterhalbjahr gegenläufig ausgeprägt. Hauptursache für die simulierte starke Zunahme der mittleren Durchflüsse im Winterhalbjahr ist die trotz Temperaturerhöhung der Klimaszenarien winterlich niedrige Evapotranspiration, so daß erhöhte Niederschläge direkt in erhöhten Durchfluß transformiert werden können.Der Vergleich der Untersuchungsgebiete zeigt in Einzelmonaten von West nach Ost abnehmende Änderungsbeträge der Niederschlagssummen, die als Hinweis auf die Bedeutung der Kontinentalitätseinflüsse auch unter geänderten klimatischen Bedingungen in Südwestdeutschland aufgefaßt werden könnten.Aus den regionalisierten Klimaszenarien werden Änderungsbeträge für die Modulation gemessener Zeitreihen mittels synthetischer Szenarien abgeleitet, die mit einem geringen Rechenaufwand in hydrologische Modellantworten überführt werden können. Die direkte Ableitung synthetischer Szenarien aus GCM-Ergebniswerten (bodennahe Temperatur und Gesamtniederschlag) an einzelnen GCM-Gitterpunkten erbrachte unbefriedigende Ergebnisse.Ob, in welcher Höhe und zeitlichen Verteilung die in den (synthetischen) Szenarien verwendeten Niederschlags- und Temperaturänderungen eintreten werden, kann nur die Zukunft zeigen. Eine Abschätzung, wie sich die Abflußverhältnisse und insbesondere die mittleren Durchflüsse der Untersuchungsgebiete bei möglichen Änderungen entwickeln würden, kann jedoch heute schon vorgenommen werden. Simulationen auf Szenariogrundlagen sind ein Weg, unbekannte zukünftige Randbedingungen sowie regionale Auswirkungen möglicher Änderungen des Klimasystems ausschnittsweise abzuschätzen und entsprechende Risikominderungsstrategien zu entwickeln. Jegliche Modellierung und Simulation natürlicher Systeme ist jedoch mit beträchtlichen Unsicherheiten verknüpft. Vergleichsweise große Unsicherheiten sind mit der zukünftigen Entwicklung des sozioökonomischen Systems und der Komplexität des Klimasystems verbunden. Weiterhin haben Unsicherheiten der einzelnen Modellbausteine der Modellkette Emissionsszenarien/Gaszyklusmodelle - Globale Zirkulationsmodelle/Regionalisierung - hydrologisches Modell, die eine Kaskade der Unsicherheiten ergeben, neben Datenunsicherheiten bei der Erfassung hydrometeorologischer Meßgrößen einen erheblichen Einfluß auf die Vertrauenswürdigkeit der Simulationsergebnisse, die als ein dargestellter Wert eines Ergebnisbandes zu interpretieren sind.Der Einsatz (1) robuster hydrologischer Modelle, die insbesondere temperaturbeeinflußte Prozesse adäquat beschreiben,(2) die Verwendung langer Zeitreihen (wenigsten 30 Jahre) von Meßwerten und(3) die gleichzeitige vergleichende Betrachtung von Klimaszenarien, die auf unterschiedlichen GCMs beruhen (und wenn möglich, verschiedene Emissionsszenarien berücksichtigen),sollte aus Gründen der wissenschaftlichen Sorgfalt, aber auch der besseren Vergleichbarkeit der Ergebnisse von Regionalstudien im noch jungen Forschungsfeld der Klimafolgenforschung beachtet werden.
In den letzten Jahren wurden relativ komplexe Erosionsmodelle entwickelt, deren Teilprozesse immer mehr auf physikalisch begründeten Ansätzen beruhen. Damit verbunden ist eine höhere Anzahl aktueller Eingangsparameter, deren Bestimmung im Feld arbeits- und kostenaufwendig ist. Zudem werden die Parameter punktuell, also an bestimmten Stellen und nicht flächenhaft wie bei der Fernerkundung, erfasst. Im Rahmen dieser Arbeit wird gezeigt, wie Satellitendaten als relativ kostengünstige Ergänzung oder Alternative zur konventionellen Parametererhebung genutzt werden können. Dazu werden beispielhaft der Blattflächenindex (LAI) und der Bedeckungsgrad für das physikalisch begründete Erosionsmodell EROSION 3D abgeleitet. Im Mittelpunkt des Interesses steht dabei das Aufzeigen von existierenden Methoden, die die Basis für eine operationelle Bereitstellung solcher Größen nicht nur für Erosions- sondern allgemein für Prozessmodelle darstellen. Als Untersuchungsgebiet dient das primär landwirtschaftlich genutzte Einzugsgebiet des Mehltheuer Baches, das sich im Sächsischen Lößgefilde befindet und für das Simulationsrechnungen mit konventionell erhobenen Eingangsparametern für 29 Niederschlagsereignisse im Jahr 1999 vorliegen [MICHAEL et al. 2000]. Die Fernerkundungsdatengrundlage bilden Landsat-5-TM-Daten vom 13.03.1999, 30.04.1999 und 19.07.1999. Da die Vegetationsparameter für alle Niederschlagsereignisse vorliegen sollen, werden sie basierend auf der Entwicklung des LAI zeitlich interpoliert. Dazu erfolgt zunächst die Ableitung des LAI für alle vorhandenen Fruchtarten nach den semi-empirischen Modellen von CLEVERS [1986] und BARET & GUYOT [1991] mit aus der Literatur entnommenen Koeffizienten. Des Weiteren wird eine Methode untersucht, nach der die Koeffizienten für das Clevers-Modell aus den TM-Daten und einem vereinfachten Wachstumsmodell bestimmt werden. Der Bedeckungsgrad wird nach ROSS [1981] aus dem LAI ermittelt. Die zeitliche Interpolation des LAI wird durch die schlagbezogene Anpassung eines vereinfachten Wachstumsmodells umgesetzt, das dem hydrologischen Modell SWIM [KRYSANOVA et al. 1999] entstammt und in das durchschnittliche Tagestemperaturen eingehen. Mit den genannten Methoden bleiben abgestorbene Pflanzenteile unberücksichtigt. Im Vergleich zur konventionellen terrestrischen Parametererhebung ermöglichen sie eine differenziertere Abbildung räumlicher Variabilitäten und des zeitlichen Verlaufes der Vegetationsparameter. Die Simulationsrechnungen werden sowohl mit den direkten Bedeckungsgraden aus den TM-Daten (pixelbezogen) als auch mit den zeitlich interpolierten Bedeckungsgraden für alle Ereignisse (schlagbezogen) durchgeführt. Bei beiden Vorgehensweisen wird im Vergleich zur bisherigen Abschätzung eine Verbesserung der räumlichen Verteilung der Parameter und somit eine räumliche Umverteilung von Erosions- und Depositionsflächen erreicht. Für die im Untersuchungsgebiet vorliegende räumliche Heterogenität (z. B. Schlaggröße) bieten Landsat-TM-Daten eine ausreichend genaue räumliche Auflösung. Damit wird nachgewiesen, dass die satellitengestützte Fernerkundung im Rahmen dieser Untersuchungen sinnvoll einsetzbar ist. Für eine operationelle Bereitstellung der Parameter mit einem vertretbaren Aufwand ist es erforderlich, die Methoden weiter zu validieren und möglichst weitestgehend zu automatisieren.
An einigen CT-Modellkomplexen in verschiedenen Lösungsmitteln und bei Temperaturen von 113-300 K sollte der Einfluß der Umgebung auf die Form und Lage der Absorption von CT-Komplexen unterschiedlicher Bindungsfestigkeit untersucht werden.
Dazu wurden bekannte Bandenprofilfunktionen auf ihre Anwendbar-keit geprüft. Da eine optimale Anpassung nicht möglich war, wurde eine neue Profilfunktion entwickelt, die eine bessere Beschreibung ergab.
Nach der Bestimmung der Gleichgewichtskonstante und des Extink-tionskoeffizienten konnte mit der Profilfläche das Übergangsmoment berechnet werden.
Die Lösungsmittelabhängigkeit wurde bei verschiedenen Brechzahlen und Dielektrizitätskonstanten untersucht.
Für feste Komplexe wurde eine spezielle Präparationstechnik gewählt. Die beobachteten Feinstrukturen und der auftretende Streuuntergrund werden diskutiert.
Gegenstand der Dissertation ist die größen- und eigenschaftsoptimierte Synthese und Charakterisierung von anorganischen Nanopartikeln in einer geeigneten Polyelektrolytmodifizierten Mikroemulsion. Das Hauptziel bildet dabei die Auswahl einer geeigneten Mikroemulsion, zur Synthese von kleinen, stabilen, reproduzierbaren Nanopartikeln mit besonderen Eigenschaften. Die vorliegende Arbeit wurde in zwei Haupteile gegliedert. Der erste Teil befasst sich mit der Einmischung von unterschiedlichen Polykationen (lineares Poly (diallyldimethylammoniumchlorid) (PDADMAC) und verzweigtes Poly (ethylenimin) (PEI)) in verschiedene, auf unterschiedlichen Tensiden (CTAB - kationisch, SDS - anionisch, SB - zwitterionisch) basierenden, Mikroemulsionssysteme. Dabei zeigt sich, dass das Einmischen der Polykationen in die Wassertröpfchen der Wasser-in-Öl (W/O) Mikroemulsion prinzipiell möglich ist. Der Einfluss der verschiedenen Polykationen auf das Phasenverhalten der W/O Mikroemulsion ist jedoch sehr unterschiedlich. In Gegenwart des kationischen Tensids führen die repulsiven Wechselwirkungen mit den Polykationen zu einer Destabilisierung des Systems, während die ausgeprägten Wechselwirkungen mit dem anionischen Tensid in einer deutlichen Stabilisierung des Systems resultieren. Für das zwitterionische Tensid führen die moderaten Wechselwirkungen mit den Polykationen zu einer partiellen Stabilisierung. Der zweite Teil der Arbeit beschäftigt sich mit dem Einsatz der unterschiedlichen, Polyelektrolyt- modifizierten Mikroemulsionen als Templatphase für die Herstellung verschiedener, anorganischer Nanopartikel. Die CTAB-basierte Mikroemulsion erweist sich dabei als ungeeignet für die Herstellung von CdS Nanopartikeln, da zum einen nur eine geringe Toleranz gegenüber den Reaktanden vorhanden ist (Destabilisierungseffekt) und zum anderen das Partikelwachstum durch den Polyelektrolyt-Tensid-Film nicht ausreichend begrenzt wird. Zudem zeigt sich, dass eine Abtrennung der Partikel aus der Mikroemulsion nicht möglich ist. Die SDS-basierten Mikroemulsionen, erweisen sich als geeignete Templatphase zur Synthese kleiner anorganischer Nanopartikel (3 – 20 nm). Sowohl CdS Quantum Dots, als auch Gold Nanopartikel konnten erfolgreich in der Mikroemulsion synthetisiert werden, wobei das verzweigte PEI einen interessanten Templat-Effekt in der Mikroemulsion hervorruft. Als deutlicher Nachteil der SDS-basierten Mikroemulsionen offenbaren sich die starken Wechselwirkungen zwischen dem Tensid und den Polyelektrolyten während der Aufarbeitung der Nanopartikel aus der Mikroemulsion. Dabei erweist sich die Polyelektrolyt-Tensid-Komplexbildung als hinderlich für die Redispergierung der CdS Quantum Dots in Wasser, so dass Partikelaggregation einsetzt. Die SB-basierten Mikroemulsionen erweisen sich als günstige Templatphase für die Bildung von größen- und eigenschaftenoptimierten Nanopartikeln (< 4 nm), wobei insbesondere eine Modifizierung mit PEI als ideal betrachtet werden kann. In Gegenwart des verzweigten PEI gelang es erstmals ultrakleine, fluoreszierende Gold Cluster (< 2 nm) in einer SB-basierten Mikroemulsion als Templatphase herzustellen. Als besonderer Vorteil der SB-basierten Mikroemulsion zeigen sich die moderaten Wechselwirkungen zwischen dem zwitterionischen Tensid und den Polyelektrolyten, welche eine anschließende Abtrennung der Partikel aus der Mikroemulsion unter Erhalt der Größe und ihrer optischen Eigenschaften ermöglichen. In der redispergierten wässrigen Lösung gelang somit eine Auftrennung der PEI-modifizierten Partikel mit Hilfe der asymmetrischer Fluss Feldflussfraktionierung (aF FFF). Die gebildeten Nanopartikel zeigen interessante optische Eigenschaften und können zum Beispiel erfolgreich zur Modifizierung von Biosensoren eingesetzt werden.
Abzug unter Beobachtung
(2022)
Mehr als vier Jahrzehnte lang beobachteten die Streitkräfte und Militärnachrichtendienste der NATO-Staaten die sowjetischen Truppen in der DDR. Hierfür übernahm in der Bundesrepublik Deutschland der Bundesnachrichtendienst (BND) die militärische Auslandsaufklärung unter Anwendung nachrichtendienstlicher Mittel und Methoden. Die Bundeswehr betrieb dagegen taktische Fernmelde- und elektronische Aufklärung und hörte vor allem den Funkverkehr der „Gruppe der sowjetischen Streitkräfte in Deutschland“ (GSSD) ab. Mit der Aufstellung einer zentralen Dienststelle für das militärische Nachrichtenwesen, dem Amt für Nachrichtenwesen der Bundeswehr, bündelte und erweiterte zugleich das Bundesministerium für Verteidigung in den 1980er Jahren seine analytischen Kapazitäten. Das Monopol des BND in der militärischen Auslandsaufklärung wurde von der Bundeswehr dadurch zunehmend infrage gestellt.
Nach der deutschen Wiedervereinigung am 3. Oktober 1990 befanden sich immer noch mehr als 300.000 sowjetische Soldaten auf deutschem Territorium. Die 1989 in Westgruppe der Truppen (WGT) umbenannte GSSD sollte – so der Zwei-plus-Vier-Vertrag – bis 1994 vollständig abziehen. Der Vertrag verbot auch den drei Westmächten, in den neuen Bundesländern militärisch tätig zu sein. Die für die Militäraufklärung bis dahin unverzichtbaren Militärverbindungsmissionen der Westmächte mussten ihre Dienste einstellen. Doch was geschah mit diesem „alliierten Erbe“? Wer übernahm auf deutscher Seite die Aufklärung der sowjetischen Truppen und wer kontrollierte den Truppenabzug?
Die Studie untersucht die Rolle von Bundeswehr und BND beim Abzug der WGT zwischen 1990 und 1994 und fragt dabei nach Kooperation und Konkurrenz zwischen Streitkräften und Nachrichtendiensten. Welche militärischen und nachrichtendienstlichen Mittel und Fähigkeiten stellte die Bundesregierung zur Bewältigung des Truppenabzugs zur Verfügung, nachdem die westlichen Militärverbindungsmissionen aufgelöst wurden? Wie veränderten sich die Anforderungen an die militärische Auslandsaufklärung des BND? Inwieweit setzten sich Konkurrenz und Kooperation von Bundeswehr und BNDbeim Truppenabzug fort? Welche Rolle spielten dabei die einstigen Westmächte? Die Arbeit versteht sich nicht nur als Beitrag zur Militärgeschichte, sondern auch zur deutschen Nachrichtendienstgeschichte.
In dieser Arbeit wurden zwei Themenbereiche bearbeitet: 1. Ellipsometrie an Adsorpionsschichten niedermolekularer Tenside an der Wasser/Luft-Grenzfläche (Ellipsometrie ist geeignet, adsorbierte Mengen von nicht- und zwitterionischen Tensiden zu messen, bei ionischen werden zusätzlich die Gegenionen mit erfaßt; Ellipsometrie mißt sich ändernde Gegenionenverteilung). 2. Ellipsometrische Untersuchung von endadsorbierten Polymerbürsten an der Wasser/Öl-Grenzfläche (Ellipsometrie ist nicht in der Lage, verschiedene Segmentkonzentrationsprofile innerhalb der Bürste aufzulösen, ist aber sehr wohl geeignet, Skalengesetze für Dicken und Drücke in Abhängigkeit von Ankerdichte und Kettenlänge der Polymere zu überprüfen; für in Heptan gequollene Poly-isobuten-Bürsten konnte gezeigt werden, daß sie sich entsprechend den theoretischen Vorhersagen für Bürsten in einem theta-Lösungsmittel verhalten)
NutzerInnen von gewalthaltigen Medien geben einerseits oftmals zu, dass sie fiktionale, gewalthaltige Medien konsumieren, behaupten jedoch gleichzeitig, dass dies nicht ihr Verhalten außerhalb des Medienkontexts beeinflusst. Sie argumentieren, dass sie leicht zwischen Dingen, die im fiktionalen Kontext und Dingen, die in der Realität gelernt wurden, unterscheiden können. Im Kontrast zu diesen Aussagen zeigen Metanalysen Effektstärken im mittleren Bereich für den Zusammenhang zwischen Gewaltmedienkonsum und aggressivem Verhalten. Diese Ergebnisse können nur erklärt werden, wenn MediennutzerInnen gewalthaltige Lernerfahrungen auch außerhalb des Medienkontexts anwenden. Ein Prozess, der Lernerfahrungen innerhalb des Medienkontexts mit dem Verhalten in der realen Welt verknüpft, ist Desensibilisierung, die oftmals eine Reduktion des negativen Affektes gegenüber Gewalt definiert ist. Zur Untersuchung des Desensibilisierungsprozesses wurden vier Experimente durchgeführt. Die erste in dieser Arbeit untersuchte Hypothese war, dass je häufiger Personen Gewaltmedien konsumieren, desto weniger negativen Affekt zeigen sie gegenüber Bildern mit realer Gewalt. Jedoch wurde angenommen, dass diese Bewertung auf Darstellungen von realer Gewalt beschränkt ist und nicht bei Bildern ohne Gewaltbezug, die einen negativen Affekt auslösen, zu finden ist. Die zweite Hypothese bezog sich auf den Affekt während des Konsums von Mediengewalt. Hier wurde angenommen, dass besonders Personen, die Freude an Gewalt in den Medien empfinden weniger negativen Affekt gegenüber realen Gewaltdarstellungen zeigen. Die letzte Hypothese beschäftigte sich mit kognitiver Desensibilisierung und sagte vorher, dass Gewaltmedienkonsum zu einem Transfer von Reaktionen, die normalerweise gegenüber gewalthaltigen Reizen gezeigt werden, auf ursprünglich neutrale Reize führt. Das erste Experiment (N = 57) untersuchte, ob die habituelle Nutzung von gewalthaltigen Medien den selbstberichteten Affekt (Valenz und Aktivierung) gegenüber Darstellungen von realer Gewalt und nichtgewalthaltigen Darstellungen, die negativen Affekt auslösen, vorhersagt. Die habituelle Nutzung von gewalthaltigen Medien sagte weniger negative Valenz und weniger allgemeine Aktivierung gegenüber gewalthalten und nichtgewalthaltigen Bildern vorher. Das zweite Experiment (N = 103) untersuchte auch die Beziehung zwischen habituellem Gewaltmedienkonsum und den affektiven Reaktionen gegenüber Bildern realer Gewalt und negativen affektauslösenden Bildern. Als weiterer Prädiktor wurde der Affekt beim Betrachten von gewalthaltigen Medien hinzugefügt. Der Affekt gegenüber den Bildern wurde zusätzlich durch psychophysiologische Maße (Valenz: C: Supercilii; Aktivierung: Hautleitreaktion) erhoben. Wie zuvor sagte habitueller Gewaltmedienkonsum weniger selbstberichte Erregung und weniger negative Valenz für die gewalthaltigen und die negativen, gewalthaltfreien Bilder vorher. Die physiologischen Maßen replizierten dieses Ergebnis. Jedoch zeigte sich ein anderes Muster für den Affekt beim Konsum von Gewalt in den Medien. Personen, die Gewalt in den Medien stärker erfreut, zeigen eine Reduktion der Responsivität gegenüber Gewalt auf allen vier Maßen. Weiterhin war bei drei dieser vier Maße (selbstberichte Valenz, Aktivität des C. Supercilii und Hautleitreaktion) dieser Zusammenhang auf die gewalthaltigen Bilder beschränkt, mit keinem oder nur einem kleinen Effekt auf die negativen, aber nichtgewalthaltigen Bilder. Das dritte Experiment (N = 73) untersuchte den Affekt während die Teilnehmer ein Computerspiel spielten. Das Spiel wurde eigens für dieses Experiment programmiert, sodass einzelne Handlungen im Spiel mit der Aktivität des C. Supercilii, dem Indikator für negativen Affekt, in Bezug gesetzt werden konnten. Die Analyse des C. Supercilii zeigte, dass wiederholtes Durchführen von aggressiven Spielzügen zu einem Rückgang von negativen Affekt führte, der die aggressiven Spielhandlungen begleitete. Der negative Affekt während gewalthaltiger Spielzüge wiederum sagte die affektive Reaktion gegenüber Darstellungen von gewalthaltigen Bildern vorher, nicht jedoch gegenüber den negativen Bildern. Das vierte Experiment (N = 77) untersuchte kognitive Desensibilisierung, die die Entwicklung von Verknüpfungen zwischen neutralen und aggressiven Kognitionen beinhaltete. Die Teilnehmer spielten einen Ego-Shooter entweder auf einem Schiff- oder einem Stadtlevel. Die Beziehung zwischen den neutralen Konstrukten (Schiff/Stadt) und den aggressiven Kognitionen wurde mit einer lexikalischen Entscheidungsaufgabe gemessen. Das Spielen im Schiff-/Stadt-Level führte zu einer kürzen Reaktionszeit für aggressive Wörter, wenn sie einem Schiff- bzw. Stadtprime folgten. Dies zeigte, dass die im Spiel enthaltenen neutralen Konzepte mit aggressiven Knoten verknüpft werden. Die Ergebnisse dieser vier Experimente wurden diskutiert im Rahmen eines lerntheoretischen Ansatzes um Desensibilisierung zu konzeptualisieren.
Die Arbeit beschreibt die Analyse von Beobachtungen zweier Sonnenflecken in zweidimensionaler Spektro-Polarimetrie. Die Daten wurden mit dem Fabry-Pérot-Interferometer der Universität Göttingen am Vakuum-Turm-Teleskop auf Teneriffa erfasst. Von der aktiven Region NOAA 9516 wurde der volle Stokes-Vektor des polarisierten Lichts in der Absorptionslinie bei 630,249 nm in Einzelaufnahmen beobachtet, und von der aktiven Region NOAA 9036 wurde bei 617,3 nm Wellenlänge eine 90-minütige Zeitserie des zirkular polarisierten Lichts aufgezeichnet. Aus den reduzierten Daten werden Ergebniswerte für Intensität, Geschwindigkeit in Beobachtungsrichtung, magnetische Feldstärke sowie verschiedene weitere Plasmaparameter abgeleitet. Mehrere Ansätze zur Inversion solarer Modellatmosphären werden angewendet und verglichen. Die teilweise erheblichen Fehlereinflüsse werden ausführlich diskutiert. Das Frequenzverhalten der Ergebnisse und Abhängigkeiten nach Ort und Zeit werden mit Hilfe der Fourier- und Wavelet-Transformation weiter analysiert. Als Resultat lässt sich die Existenz eines hochfrequenten Bandes für Geschwindigkeitsoszillationen mit einer zentralen Frequenz von 75 Sekunden (13 mHz) bestätigen. In größeren photosphärischen Höhen von etwa 500 km entstammt die Mehrheit der damit zusammenhängenden Schockwellen den dunklen Anteilen der Granulen, im Unterschied zu anderen Frequenzbereichen. Die 75-Sekunden-Oszillationen werden ebenfalls in der aktiven Region beobachtet, vor allem in der Lichtbrücke. In den identifizierten Bändern oszillatorischer Power der Geschwindigkeit sind in einer dunklen, penumbralen Struktur sowie in der Lichtbrücke ausgeprägte Strukturen erkennbar, die sich mit einer Horizontalgeschwindigkeit von 5-8 km/s in die ruhige Sonne bewegen. Diese zeigen einen deutlichen Anstieg der Power, vor allem im 5-Minuten-Band, und stehen möglicherweise in Zusammenhang mit dem Phänomen der „Evershed-clouds“. Eingeschränkt durch ein sehr geringes Signal-Rausch-Verhältnis und hohe Fehlereinflüsse werden auch Magnetfeldvariationen mit einer Periode von sechs Minuten am Übergang von Umbra zu Penumbra in der Nähe einer Lichtbrücke beobachtet. Um die beschriebenen Resultate zu erzielen, wurden bestehende Visualisierungsverfahren der Frequenzanalyse verbessert oder neu entwickelt, insbesondere für Ergebnisse der Wavelet-Transformation.
Zellbasierte heterologe Expressionssysteme bieten ein einfaches und schnelles Verfahren, um neue Süßstoffe oder Süßverstärker zu finden. Unter Verwendung eines solchen Testsystems, konnte ich in Zusammenarbeit mit der Symrise AG, Holzminden und dem Institut für Pflanzenbiochemie in Halle/Saale die vietnamesische Pflanze Mycetia balansae als Quelle eines neuen Süßstoffs identifizieren. Deren Hauptkomponenten, genannt Balansine, aktivieren spezifisch den humanen Süßrezeptor. Chimäre Rezeptoren zeigten, dass die amino-terminalen Domänen der Süßrezeptoruntereinheiten, welche ein Großteil der Liganden des Süßrezeptors binden, für dessen Aktivierung durch Balansin A nicht notwendig sind.
Voraussetzung für die Anwendung zellbasierter Testsysteme zum Auffinden neuer Süßstoffe ist jedoch, dass süße Substanzen gesichert identifiziert werden, während nicht süße Substanzen zuverlässig keine Rezeptoraktivierung aufweisen. Während in HEK293 TAS1R2 TAS1R3To Galpha15i3-Zellen Süßrezeptoraktivierung gegenüber nicht süß schmeckenden Substanzen beobachtet wurde, konnte mit den HEK293PEAKrapid Galpha15-Zellen ein zuverlässiges Testsystem identifiziert, welches den Süßgeschmack der untersuchten Substanzen widerspiegelte.
Es fanden sich keine Hinweise, dass akzessorische Proteine oder verwandte Rezeptoren des Süßrezeptors das unterschiedliche Verhalten der Zellen verursachen. Es konnte gezeigt werden, dass die Verwendung unterschiedlicher G-Proteine die Signalamplituden des Süßrezeptors beeinflusst, die Unterschiede zwischen den Zellsystemen jedoch nicht vollständig erklärt. Keine der untersuchten Galpha-Proteinchimären spiegelte die intrinsische Süße der Substanzen wider.
Wenn auch nicht ursächlich für die Diskrepanz zwischen Süßrezeptoraktivierung in vitro und Süßgeschmack in vivo, so weisen die Ergebnisse dieser Arbeit auf eine Interaktion der Süßrezeptoruntereinheiten mit dem humanen Calcium-sensing Rezeptor hin. Vanillin und Ethylvanillin konnten als neue Agonisten des Calcium-sensing Rezeptors identifiziert werden.
Wie die vorliegende Arbeit zeigt, können sich kleine Unterschiede im Zellhintergrund deutlich auf die Funktionsweise heterolog exprimierter Rezeptoren auswirken. Dies zeigt wie wichtig die Wahl der Zellen für solche Screeningsysteme ist.
"Kinderwelt ist Bewegungswelt" (Schmidt, 1997, S. 156, zitiert nach Schmidt, Hartmann-Tews & Brettschneider, 2003, S. 31). Das kindliche Bewegungsverhalten hat sich bereits im Grundschulalter verändert, so dass sich Bewegungsaktivitäten von Kindern erheblich unterscheiden und keineswegs mehr verallgemeinert werden können. Richtet man den Fokus auf die Frage „Wie bewegt sind unsere Kinder?“ so scheint diese von den Medien bereits beantwortet zu sein, da dort von ansteigendem Bewegungsmangel der heutigen Kinder gegenüber früheren Generationen berichtet wird. Wenn es in den Diskussionen um den Gesundheitszustand unserer Kinder geht, nimmt die körperlich-sportliche Aktivität eine entscheidende Rolle ein. Bewegungsmangel ist hierbei ein zentraler Begriff der in der Öffentlichkeit diskutiert wird. Bei der Betrachtung der einzelnen Studien fällt auf, dass deutliche Defizite in der Messung der körperlich-sportlichen Aktivität bestehen. Zentraler Kritikpunkt in den meisten Studien ist die subjektive Erfassung der körperlich-sportlichen Aktivität. Ein Großteil bisheriger Untersuchungen zum Bewegungsverhalten basiert auf Beobachtungen, Befragungen oder Bewegungstagebüchern. Diese liefern ausschließlich zum Teil subjektive Einschätzungen der Kinder oder Eltern über die tatsächliche Bewegungszeit und -intensität. Das objektive Erfassen der Aktivität bzw. Inaktivität ist zwar seit einigen Jahren zentraler Gegenstand vieler Studien, dennoch gilt es, dieses noch sachkundiger zu lösen, um subjektive und objektive Daten zu vergleichen. Um dem Bewegungsmangel der heutigen Kinder entgegenzuwirken, sind empirisch abgesicherte Erkenntnisse über die Bedingungsfaktoren und die Folgen des veränderten Bewegungsverhaltens dringend nötig. Die Quer- und Längsschnittuntersuchung umfasst die Bereiche Anthropometrie, die Erfassung der körperlich-sportlichen Aktivität und die Herzfrequenzmessung über 24h. Für die Studie konnten 106 Jungen und Mädchen im Zeitraum von Januar 2007 bis April 2009 rekrutiert und überprüft werden. Die physiologischen Parameter wurden mit Hilfe des ACTIHEART-Messsytems aufgezeichnet und berechnet. Die Ergebnisse zur körperlich-sportlichen Aktivität wurden in die Untersuchungsabschnitte Schulzeit gesamt, Pause, Sportunterricht, Nachmittag und 24h unterteilt. Durch das Messsystem werden die Bewegungsaktivität und die Herzfrequenz synchron aufgezeichnet. Das System nimmt die Beschleunigungswerte des Körpers auf und speichert sie im frei wählbaren Zeitintervall, Short oder Long Term, in Form von „activity counts“ ab. Das Messsytem berechnet weiterhin die Intensität körperlicher Aktivität.
Im Bereich der medizinischen Diagnostik spielen DNA-Chips eine immer wichtigere Rolle. Dabei werden Glas- oder Silikon-Oberflächen mit Tausenden von einzelsträngigen DNA-Fragmenten, sog. Sonden, bestückt, die mit den passenden DNA-Fragmenten in der zugefügten Patientenprobe verschmelzen. Die Auswertung solcher Messungen liefert die Diagnose für Krankheiten wie z.B. Krebs, Alzheimer oder für den Nachweis pathogener Erreger. Durch fortschreitende Miniaturisierung dieser Meßsysteme können bis zu 40.000 Genfragmente des Menschen in einer einzigen Messung analysiert werden. Neben den DNA-Fragmenten können Bio-Chips auch für andere biologische Komponenten wie Antikörper und Proteine eingesetzt werden, wobei bei letzteren neben der Bindung auch die Aktivität ein wichtiger Diagnoseparamter ist. Am Fraunhofer-Institut für medizinische Technik und am Lehrstuhl für Analytische Biochemie der Universität Potsdam wurden im Rahmen einer Doktorarbeit Methoden entwickelt, die es ermöglichen auf nukleinsäuremodifizierten Sensoroberflächen die Aktivität von Proteinen zu messen. Es wurden Nukleinsäuren auf Oberflächen optischer Sensoren verankert. Diese fungierten als Rezeptor für die Proteine sowie auch als Substrat für Restriktionsenzyme, die Nukleinsäuren schneiden und Polymerasen, die Nukleinsäuren synthetisieren und verlängern können. Seine Anwendung fand diese Messmethode in der Messung der Aktivität des Proteins Telomerase, das in 90% aller Tumore erhöhte Aktivität gegenüber gesunden Zellen aufweist. Die Vorteile dieses neuen Assays gegenüber älteren Methoden liegt im Verzicht auf radioaktiv-markierten Komponenten und einer deutlich verkürzten Analysezeit. Die Arbeit schliesst mit einem funktionsfähigen Nachweis der Telomeraseaktivität im Zellextrakt von gesunden und kranken Zellen. Der direkte Einfluß von Hemmstoffen auf die Aktivität konnte sichtbar gemacht werden, und steht daher bei der Entwicklung neuer Tumor-Diagnostika und Therapeutika zur Verfügung.
1. Problemstellung und Relevanz des Themas Die deutsche Hochschullandschaft hat in den letzten Jahren zahlreiche Veränderungen bewältigen müssen und steht weiterhin großen Herausforderungen gegenüber, durch welche sich zunehmend wettbewerbsähnliche Merkmale in diesem Sektor verfestigen: • Umstellung auf international vergleichbare Studiengänge • Neuregelung der Studienplatzvergabe • Einführung von Studiengebühren in einigen Bundesländern • Leistungsindikatoren zur Verteilung der staatlichen Haushaltsmittel • Demographischer Wandel Eine Bildungseinrichtung besitzt mehrere Anspruchsgruppen: die Studierenden, welche Bildungsleistungen nachfragen, den Staat, der für die Leistungen zahlt, die Öffentlichkeit, die an Grundlagenforschungen interessiert ist und schließlich die Wirtschaft, die Absolventen rekrutiert (vgl. Berthold, C. 2001, S.431). Die Hochschulen befinden sich untereinander verstärkt im Wettbewerb um qualifizierte (und ggf. zahlungswillige) Studierende, um finanzielle Mittel vom Staat oder aus der Privatwirtschaft und um renommierte Wissenschaftler. Hochschulen müssen sich nun den veränderten Bedingungen anpassen, um auch weiterhin im nationalen und internationalen Wettbewerb überlebensfähig zu bleiben. Grundsätzlich kann sich hierbei an in der Privatwirtschaft erfolgreich eingesetzten Marketinginstrumenten orientiert werden. 2. Zielsetzung und Aufbau der Arbeit Nach einer Analyse der oben genannten Rahmenbedingungen, wird im ersten Teil dieser Arbeit gezeigt, welche Erkenntnisse aus dem Marketing auf Hochschulen übertragen werden können. Dabei werden sowohl strategische Fragen beleuchtet als auch die Instrumente des Marketing-Mix vorgestellt. In einer anschließenden Untersuchung wurden Faktoren bestimmt, welche sich positiv auf den Entwicklungsstand von Marketingaktivitäten an Hochschulen auswirken. Dabei konnten - beispielhaft für die Region Berlin/Brandenburg - sechs verschiedene Hochschultypen identifiziert werden. Diese weisen, in Abhängigkeit der verschiedenen Eigenschaften der jeweiligen Institutionen, einen unterschiedlichen Entwicklungsstand oder ein anderes Verständnis von Hochschulmarketing auf. Aufgrund dessen erscheinen für sie jeweils andere Marketingstrategien empfehlenswert. Die größte Rolle für den differenzierten Status quo im Hochschulmarketing an Berliner und Brandenburger Hochschulen spielt die Stärke des äußeren Drucks unter dem sich die Hochschule befindet, um ihre Auslastung und die notwendige finanzielle Ausstattung sicherzustellen. Ferner unterscheiden sich die Hochschulleitungen erheblich in ihrem Engagement und der Bereitschaft, diesen Herausforderungen mit Marketinginstrumenten zu begegnen. Trotz der gestiegenen Anzahl von Beiträgen zur Notwendigkeit der Einführung von ökonomischen Überlegungen auch im Hochschulmanagement gibt es viele Kritiker, die ein Ende der Freiheit für Forschung und Lehre prophezeien, wenn der Marketing-Gedanke verstärkt auch an Bildungseinrichtungen Einzug hält. Unumstritten ist, dass Managementansätze aus der privaten Wirtschaft nicht ohne weiteres auf eine Hochschule adaptiert werden können. Wahrscheinlich besteht jedoch die größere Gefahr für Freiheit und Erfolg von Forschung und Lehre in der Missachtung dieser aktuellen Tendenzen (vgl. Tutt 2006, S. 171)!
Die Klangeigenschaften von Musikinstrumenten werden durch das Zusammenwirken der auf ihnen anregbaren akustischen Schwingungsmoden bestimmt, welche sich wiederum aus der geometrischen Struktur des Resonators in Kombination mit den verwendeten Materialien ergeben. In dieser Arbeit wurde das Schwingungsverhalten von Streichinstrumenten durch den Einsatz minimal-invasiver piezoelektrischer Polymerfilmsensoren untersucht. Die studierten Kopplungsphänomene umfassen den sogenannten Wolfton und Schwingungstilger, die zu dessen Abschwächung verwendet werden, sowie die gegenseitige Beeinflussung von Bogen und Instrument beim Spielvorgang. An Dielektrischen Elastomeraktormembranen wurde dagegen der Einfluss der elastischen Eigenschaften des Membranmaterials auf das akustische und elektromechanische Schwingungsverhalten gezeigt. Die Dissertation gliedert sich in drei Teile, deren wesentliche Ergebnisse im Folgenden zusammengefasst werden.
In Teil I wurde die Funktionsweise eines abstimmbaren Schwingungstilgers zur Dämpfung von Wolftönen auf Streichinstrumenten untersucht. Durch Abstimmung der Resonanzfrequenz des Schwingungstilgers auf die Wolftonfrequenz kann ein Teil der Saitenschwingungen absorbiert werden, so dass die zu starke Anregung der Korpusresonanz vermieden wird, die den Wolfton verursacht. Der Schwingungstilger besteht aus einem „Wolftöter“, einem Massestück, welches auf der Nachlänge der betroffenen Saite (zwischen Steg und Saitenhalter) installiert wird. Hier wurde gezeigt, wie die Resonanzen dieses Schwingungstilgers von der Masse des Wolftöters und von dessen Position auf der Nachlänge abhängen. Aber auch die Geometrie des Wolftöters stellte sich als ausschlaggebend heraus, insbesondere bei einem nicht-rotationssymmetrischen Wolftöter: In diesem Fall entsteht – basierend auf den zu erwartenden nicht-harmonischen Moden einer massebelasteten Saite – eine zusätzliche Mode, die von der Polarisationsrichtung der Saitenschwingung abhängt.
Teil II der Dissertation befasst sich mit Elastomermembranen, die als Basis von Dielektrischen Elastomeraktoren dienen, und die wegen der Membranspannung auch akustische Resonanzen aufweisen. Die Ansprache von Elastomeraktoren hängt unter anderem von der Geschwindigkeit der elektrischen Anregung ab. Die damit zusammenhängenden viskoelastischen Eigenschaften der hier verwendeten Elastomere, Silikon und Acrylat, wurden einerseits in einer frequenzabhängigen dynamisch-mechanischen Analyse des Elastomers erfasst, andererseits auch optisch an vollständigen Aktoren selbst gemessen. Die höhere Viskosität des Acrylats, das bei tieferen Frequenzen höhere Aktuationsdehnungen als das Silikon zeigt, führt zu einer Verminderung der Dehnungen bei höheren Frequenzen, so dass über etwa 40 Hertz mit Silikon größere Aktuationsdehnungen erreicht werden. Mit den untersuchten Aktoren konnte die Gitterkonstante weicher optischer Beugungsgitter kontrolliert werden, die als zusätzlicher Film auf der Membran installiert wurden. Über eine Messung der akustischen Resonanzfrequenz von Elastomermebranen aus Acrylat in 1Abhängigkeit von ihrer Vorstreckung konnte in Verbindung mit einer Modellierung des hyperelastischen Verhaltens des Elastomers (Ogden-Modell) der Schermodul bestimmt werden.
Schließlich wird in Teil III die Untersuchung von Geigen und ihrer Streichanregung mit Hilfe minimal-invasiver piezoelektrischer Polymerfilme geschildert. Es konnten am Bogen und am Steg von Geigen – unter den beiden Füßen des Stegs – jeweils zwei Filmsensoren installiert werden. Mit den beiden Sensoren am Steg wurden Frequenzgänge von Geigen gemessen, welche eine Bestimmung der frequenzabhängigen Stegbewegung erlaubten. Diese Methode ermöglicht damit auch eine umfassende Charakterisierung der Signaturmoden in Bezug auf die Stegdynamik. Die Ergebnisse der komplementären Methoden von Impulsanregung und natürlichem Spielen der Geigen konnten dank der Sensoren verglichen werden. Für die Nutzung der Sensoren am Bogen – insbesondere für eine Messung des Bogendrucks – wurde eine Kalibrierung des Bogen-Sensor-Systems mit Hilfe einer Materialprüfmaschine durchgeführt. Bei einer Messung während des natürlichen Spielens wurde mit den Sensoren am Bogen einerseits die Übertragung der Saitenschwingung auf den Bogen festgestellt. Dabei konnten außerdem longitudinale Bogenhaarresonanzen identifiziert werden, die von der Position der Saite auf dem Bogen abhängen. Aus der Analyse dieses Phänomens konnte die longitudinale Wellengeschwindigkeit der Bogenhaare bestimmt werden, die eine wichtige Größe für die Kopplung zwischen Saite und Bogen ist. Mit Hilfe des Systems aus Sensoren an Bogen und Steg werden auf Grundlage der vorliegenden Arbeit Studien an Streichinstrumenten vorgeschlagen, in denen die Bespielbarkeit der Instrumente zu den jeweils angeregten Steg- und Bogenschwingungen in Beziehung gesetzt werden kann. Damit könnte nicht zuletzt auch die bisher nicht vollständig geklärte Rolle des Bogens für Klang und Bespielbarkeit besser beurteilt werden
Das Metabolische Syndrom stellt eine Kombination verschiedener metabolischer Anomalien in einem Individuum dar. Starkes Übergewicht gilt als maßgebende Größe in der Genese des Syndroms, welches mit einem enormen Risiko für kardiovaskuläre Erkrankungen einhergeht. Um die stark steigende Prävalenz des Metabolischen Syndroms einzudämmen, sind dringend Konzepte für die Behandlung, vor allem jedoch für die Prävention von Übergewicht erforderlich. Einen wichtigen Beitrag leisten diesbezüglich Ballaststoffe in der Ernährung. Sie tragen auf unterschiedlichen Wegen zur Gewichtskontrolle bei und beeinflussen zudem verschiedene mit dem Metabolischen Syndrom assoziierte Blutparameter. Ebenso werden protektive Effekte von Polyphenolen, welche zur Gruppe der sekundären Pflanzenstoffe zählen, beschrieben. Diese wirken u. a. auf den Glukose- sowie den Insulinhaushalt und greifen darüber hinaus in die Regulation der Fettverbrennung sowie des Energieverbrauches ein. Die Kombination beider Substanzgruppen verspricht bedeutendes gesundheitsförderndes Potential; dieses wurde gegenwärtig jedoch kaum untersucht. Carobballaststoff ist ein polyphenolreicher und vorwiegend unlöslicher Extrakt der Frucht des Johannisbrotbaumes (Ceratonia siliqua L). Bislang publizierte Studien zur physiologischen Wirksamkeit dieses Ballaststoffpräparates weisen sowohl beim Tier als auch beim Menschen bemerkenswerte hypocholesterinämische Eigenschaften nach. Inwiefern sich der Verzehr des Carobballaststoffes ebenso auf die Entwicklung von Übergewicht sowie anderen Messgrößen des Metabolischen Syndroms auswirkt, ist allerdings nicht bekannt. Die Zielstellung der Promotionsarbeit bestand darin, die postprandialen Wirkungen des Carobballaststoffverzehrs mit Hilfe einer Humanstudie aufzuzeigen. In die randomisierten, einfach verblindeten Untersuchungen im cross-over-Design wurden 20 gesunde Erwachsene im Alter zwischen 22 und 62 Jahren eingeschlossen. Unter Verwendung variierender Begleitmahlzeiten wurden die postprandialen Effekte verschiedener Mengen des Carobballaststoffes untersucht. Hierbei standen die Veränderungen der Plasmakonzentrationen von Glukose, Triglyceriden (TG), totalem und acyliertem Ghrelin sowie der Serumkonzentrationen von Insulin und nicht-veresterten Fettsäuren (NEFA) im Mittelpunkt der Betrachtungen. Der Verzehr des Carobballaststoffes in Kombination mit 200 ml Wasser und 50 g Glukose erhöhte die postprandialen Glukose- und Insulinkonzentrationen gegenüber der Glukoselösung ohne Ballaststoffzusatz. In Kombination mit 400 ml einer Flüssigmahlzeit verzehrt, senkte Carobballaststoff die postprandialen TG-, NEFA- und Ghrelin- (acyliert) Antworten. Die Untersuchung des respiratorischen Quotienten nach Zusatz von Carobballaststoff zur Flüssigmahlzeit mittels indirekter Respirationskalorimetrie bekräftigte die bereits bekannten Effekte auf den Lipidmetabolismus und wies zudem eine Steigerung der Fettverwertung unter Verminderung der Glukoseoxidation nach. Wurde Carobballaststoff schließlich in Lebensmittel eingebracht, sanken nach dem Verzehr dieser Lebensmittel erneut die postprandialen Konzentrationen an TG und NEFA. Gleichzeitig erhöhten sich die Glukose-, Insulin- sowie Ghrelin- (acyliert) Antworten. Carobballaststoff löst in Abhängigkeit von der jeweils verzehrten Begleitmatrix unterschiedliche Effekte aus. Das Präparat weist beachtliche Wirkungen auf die Blutlipide sowie den Energieverbrauch auf, hat indes ungünstige Wirkungen auf die Blutglukose, sofern er in Kombination mit einer veränderten Nährstoffmatrix aufgenommen wird. Carobballaststoff besitzt starkes gesundheitsförderndes Potential; jedoch sind weitere Studien notwendig, um seine Wirkungen sowie deren Voraussetzungen besser zu verstehen. Ferner sollten Untersuchungen über einen längeren Zeitraum vorgenommen werden, um die langfristige Relevanz der gewonnenen Ergebnisse darzulegen. Danach stellt die Anreicherung spezieller Lebensmittel mit Carobballaststoff einen geeigneten Weg dar, um von den viel versprechenden protektiven Wirkungen des Präparates zu profitieren.
Algorithmic Trading
(2011)
Die Elektronisierung der Finanzmärkte ist in den letzten Jahren weit vorangeschritten. Praktisch jede Börse verfügt über ein elektronisches Handelssystem. In diesem Kontext beschreibt der Begriff Algorithmic Trading ein Phänomen, bei dem Computerprogramme den Menschen im Wertpapierhandel ersetzen. Sie helfen dabei Investmententscheidungen zu treffen oder Transaktionen durchzuführen. Algorithmic Trading selbst ist dabei nur eine unter vielen Innovationen, welche die Entwicklung des Börsenhandels geprägt haben. Hier sind z.B. die Erfindung der Telegraphie, des Telefons, des FAX oder der elektronische Wertpapierabwicklung zu nennen. Die Frage ist heute nicht mehr, ob Computerprogramme im Börsenhandel eingesetzt werden. Sondern die Frage ist, wo die Grenze zwischen vollautomatischem Börsenhandel (durch Computer) und manuellem Börsenhandel (von Menschen) verläuft. Bei der Erforschung von Algorithmic Trading wird die Wissenschaft mit dem Problem konfrontiert, dass keinerlei Informationen über diese Computerprogramme zugänglich sind. Die Idee dieser Dissertation bestand darin, dieses Problem zu umgehen und Informationen über Algorithmic Trading indirekt aus der Analyse von (Fonds-)Renditen zu extrahieren. Johannes Gomolka untersucht daher die Forschungsfrage, ob sich Aussagen über computergesteuerten Wertpapierhandel (kurz: Algorithmic Trading) aus der Analyse von (Fonds-)Renditen ziehen lassen. Zur Beantwortung dieser Forschungsfrage formuliert der Autor eine neue Definition von Algorithmic Trading und unterscheidet mit Buy-Side und Sell-Side Algorithmic Trading zwei grundlegende Funktionen der Computerprogramme (die Entscheidungs- und die Transaktionsunterstützung). Für seine empirische Untersuchung greift Gomolka auf das Multifaktorenmodell zur Style-Analyse von Fung und Hsieh (1997) zurück. Mit Hilfe dieses Modells ist es möglich, die Zeitreihen von Fondsrenditen in interpretierbare Grundbestandteile zu zerlegen und den einzelnen Regressionsfaktoren eine inhaltliche Bedeutung zuzuordnen. Die Ergebnisse dieser Dissertation zeigen, dass man mit Hilfe der Style-Analyse Aussagen über Algorithmic Trading aus der Analyse von (Fonds-)Renditen machen kann. Die Aussagen sind jedoch keiner technischen Natur, sondern auf die Analyse von Handelsstrategien (Investment-Styles) begrenzt.
Allianzfähigkeit
(2008)
Ein empirisch belegtes Phänomen ist die steigende Anzahl strategischer Allianzen von Unternehmen, speziell in dynamischen Wettbewerbsumgebungen. Über strategische Allianzen versuchen Unternehmen, auch in einer dynamischen Wettbewerbsumwelt unter hoher Unsicherheit Wettbewerbsvorteile aufzubauen. Dabei belegen verschiedene Forschungsarbeiten, dass strategische Allianzen häufig scheitern und weisen übereinstimmend relativ niedrige Erfolgsquoten von 50% nach. Harbison und Pekár belegen zwischen Unternehmen eine hohe Varianz und identifizieren, dass einige Unternehmen bei 87% ihrer strategischen Allianzen erfolgreich sind, während andere Unternehmen nur eine Erfolgsrate von 37% aufweisen. Die Fragestellung, warum Unternehmen in dieser Hinsicht so signifikant differieren, bildet die grundlegende Motivation für die vorliegende Arbeit. Die Ursache für die hohe Varianz der Erfolgsrate von strategischen Allianzen zwischen Unternehmen, ist in den internen Prozessen und Strukturen der Unternehmen zu vermuten. Diese unternehmensinternen Prozesse und Strukturen werden mit dem Begriff Allianzfähigkeit bezeichnet. 1. Forschungsfrage Aus welchen Prozessen und Strukturen besteht Allianzfähigkeit in Unternehmen? 2. Forschungsfrage Wie entwickelt sich Allianzfähigkeit in Unternehmen? Die vermutete Kausalität zwischen Allianzfähigkeit und der Erfolgsrate bei strategischen Allianzen verweist auf einen post-positivistischen Charakter der Untersuchung. Es wird auf wissenschaftliche Literatur, aber auch auf Beiträge von Unternehmensberatungen, Nichtregierungsorganisationen und andere Quellen zurückgegriffen, wie es als Forschungsansatz im Kontext strategischer Allianzen vorgeschlagen wird. Zunächst werden im zweiten Kapitel die beiden beobachtbaren Phänomene, eine steigende Dynamik der Wettbewerbsumwelt vieler Unternehmen und die zunehmende Anzahl strategischer Allianzen, die Interdependenzen aufweisen, unter Einbeziehung der Literatur, charakterisiert. Insbesondere die Motive von Unternehmen und deren Strategien zum Eingehen strategischer Allianzen werden erläutert. Im folgenden dritten Kapitel werden die traditionellen Erklärungsansätze des strategischen Managements anhand einer empirischen Literaturanalyse skizziert. Das Ergebnis der empirischen Literaturanalyse ist die Notwendigkeit eines neuen theoretischen Zugangs, der die gestiegene Dynamik der Wettbewerbsumwelt stärker reflektiert und interne Prozesse von Unternehmen intensiver betrachtet. Mit den Beiträgen von Teece et al., Eisenhardt und Martin, scheint sich der fähigkeitsorientierte Ansatz als neue Erklärungsperspektive zu etablieren. Der junge fähigkeitsorientierte Ansatz wird als geeignet identifiziert und im vierten Kapitel ausführlich dargestellt sowie in seinen aktuellen Entwicklungen erläutert. Das vierte Kapitel bildet den theoretischen Rahmen für das folgende fünfte Kapitel, das die Charakterisierung von Allianzfähigkeit auf der Grundlage eines Literaturreviews umfasst und direkt die Forschungsfragen anhand einer Modellentwicklung adressiert. Erkennt¬nisse aus anderen theoretischen Perspektiven werden in den fähigkeitsorientierten Ansatz übertragen und in das Modell integriert. Ein Vorgehen, das in der Tradition des strategischen Managements, insbesondere der Beiträge zum fähigkeitsorientierten Ansatz, steht. Im sechsten Kapitel wird das skizzierte Modell als Grundlage verwendet, um die Entwicklung von Allianzfähigkeit empirisch anhand einer Longitudinal-Fallstudie zu untersuchen. Die Analyse von Allianzfähigkeit sollte vor dem Hintergrund einer hohen Wettbewerbsdynamik unter der Bedingung von Hyperwettbewerb (Kriterium 1) in einer Branche erfolgen, bei der strategische Allianzen eine hohe Rolle spielen (Kriterium 2). Darüber hinaus soll die Möglichkeit bestehen, Zugang zu Dokumenten, Interviewpartnern sowie Datenbanken zu erhalten (Kriterium 3). Aufgrund dieser Kriterien wurde die Börsenindustrie als Industrie und die Deutsche Börse als Unternehmen ausgewählt. Das Ziel der Fallstudie ist die Darstellung der Entwicklung der strategischen Allianzen der Deutschen Börse von 1997 bis 2007, um Rückschlüsse auf die Allianzfähigkeit des Unternehmens ziehen zu können. Da die Entwicklung der Allianzfähigkeit im Vordergrund der Fallstudie steht, wird eine Längsschnittfallstudie mit chronologischem Aufbau verwendet. Dabei wurden drei verschiedene Quellen, Experteninterviews, Datenbanken sowie Dokumente, ausgewertet.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
Gasausströmungen, oft in der Form hoch kollimierter Jets, sind ein allgegenwärtiges Phänomen bei der Geburt neuer Sterne. Emission von stossangeregtem molekularem Wasserstoff bei Wellenlängen im nahen Infrarotbereich ist ein Merkmal ihrer Existenz und auch in eingebetteten, im Optischen obskurierten Ausströmungen generell gut zu beobachten. In dieser Arbeit werden die Resultate einer von Auswahleffekten freien, empfindlichen, grossflächigen Suche nach solchen Ausströmungen von Protosternen in der v=1-0 S(1) Linie molekularen Wasserstoffs bei einer Wellenlänge von 2.12 µm vorgestellt. Die Durchmusterung umfasst eine Fläche von etwa einem Quadratgrad in der Orion A Riesenmolekülwolke. Weitere Daten aus einem grossen Wellenlängenbereich werden benutzt, um die Quellen der Ausströmungen zu identifizieren. Das Ziel dieser Arbeit ist es, eine Stichprobe von Ausströmungen zu bekommen, die so weit wie möglich frei von Auswahleffekten ist, um die typischen Eigenschaften protostellarer Ausströmungen und deren Entwicklung festzustellen, sowie um die Rückwirkung der Ausströmungen auf die umgebende Wolke zu untersuchen. Das erste Ergebnis ist, dass Ausströmungen in Sternentstehungsgebieten tatsächlich sehr häufig sind: mehr als 70 Jet-Kandidaten werden identifiziert. Die meisten zeigen eine sehr irreguläre Morphologie anstelle regulärer oder symmetrischer Strukturen. Dies ist auf das turbulente, klumpige Medium zurückzuführen, in das sich die Jets hineinbewegen. Die Ausrichtung der Jets ist zufällig verteilt. Insbesondere gibt es keine bevorzugte Ausrichtung der Jets parallel zum grossräumigen Magnetfeld in der Wolke. Das legt nahe, dass die Rotations- und Symmetrieachse in einem protostellaren System durch zufällige, turbulente Bewegung in der Wolke bestimmt wird. Mögliche Ausströmungsquellen werden für 49 Jets identifiziert; für diese wird der Entwicklungsstand und die bolometrische Leuchtkraft abgeschätzt. Die Jetlänge und die H2 Leuchtkraft entwickeln sich gemeinsam mit der Ausströmungsquelle. Von null startend, dehnen sich die Jets schnell bis auf eine Länge von einigen Parsec aus und werden dann langsam wieder kürzer. Sie sind zuerst sehr leuchtkräftig, die H2 Helligkeit nimmt aber im Lauf der protostellaren Entwicklung ab. Die Längen- und H2 Leuchtkraftentwicklung lässt sich im Wesentlichen durch eine zuerst sehr hohe, dann niedriger werdende Massenausflussrate erklären, die auf eine zuerst sehr hohe, dann niedriger werdende Gasakkretionsrate auf den Protostern schliessen lässt (Akkretion und Ejektion sind eng verknüpft!). Die Längenabnahme der Jets erfordert eine ständig wirkende Abbremsung der Jets. Ein einfaches Modell einer simultanen Entwicklung eines Protosterns, seiner zirkumstellaren Umgebung und seiner Ausströmung (Smith 2000) kann die gemessenen H2- und bolometrischen Leuchtkräfte der Jets und ihrer Quellen reproduzieren, unter der Annahme, dass die starke Akkretionsaktivität zu Beginn der protostellaren Entwicklung mit einer überproportional hohen Massenausflussrate verbunden ist. Im Durchmusterungsgebiet sind 125 dichte Molekülwolkenkerne bekannt (Tatematsu et al. 1993). Jets (bzw. Sterne) entstehen in ruhigen Wolkenkernen, d.h. solchen mit einem niedrigen Verhältnis von interner kinetischer Energie zu gravitativer potentieller Energie; dies sind die Wolkenkerne höherer Masse. Die Wolkenkerne mit Jets haben im Mittel grössere Linienbreiten als die ohne Jets. Dies ist darauf zurückzuführen, dass sie bevorzugt in den massereicheren Wolkenkernen zu finden sind, welche generell eine grössere Linienbreite haben. Es gibt keinen Hinweis auf stärkere interne Bewegungen in Wolkenkernen mit Jets, die durch eine Wechselwirkung der Jets mit den Wolkenkernen erzeugt sein könnte. Es gibt, wie von der Theorie vorausgesagt, eine Beziehung zwischen der Linienbreite der Wolkenkerne und der H2 Leuchtkraft der Jets, wenn Jets von Klasse 0 und Klasse I Protosternen separat betrachtet werden; dabei sind Klasse 0 Jets leuchtkräftiger als Klasse I Jets, was ebenfalls auf eine zeitabhängige Akkretionsrate mit einer frühzeitigen Spitze und einem darauffolgenden Abklingen hinweist. Schliesslich wird die Rückwirkung der Jetpopulation auf eine Molekülwolke unter der Annahme strikter Vorwärtsimpulserhaltung betrachtet. Die Jets können auf der Skala einer ganzen Riesenmolekülwolke und auf den Skalen von Molekülwolkenkernen nicht genügend Impuls liefern, um die abklingende Turbulenz wieder anzuregen. Auf der mittleren Skala von molekularen Klumpen, mit einer Grösse von einigen parsec und Massen von einigen hundert Sonnenmassen liefern die Jets jedoch genügend Impuls in hinreichend kurzer Zeit, um die Turbulenz “am Leben zu erhalten” und können damit helfen, einen Klumpen gegen seinen Kollaps zu stabilisieren.
Analphabetismus und Teilhabe
(2015)
Aus bildungstheoretisch-gesellschaftskritischer Perspektive stellt sich Lernen als soziales Handeln in gesellschaftlich-vermittelten Verhältnissen – Möglichkeiten wie auch Begrenzungen – dar. Funktionaler Analphabetismus ist mit einem bundesweiten Anteil von 14% der erwerbsfähigen Bevölkerung oder 7,5 Millionen Analphabeten in Deutschland nicht nur ein bildungspolitisches und -praktisches, sondern auch ein wissenschaftlich zu untersuchendes Phänomen. Es gibt zahlreiche Untersuchungen, die sich mit dieser Thematik auseinandersetzen und Anknüpfungspunkte für die vorliegende Studie bieten. Aus der Zielgruppenforschung beispielsweise ist bekannt, dass die Hauptadressaten der Männer, der Älteren und der Bildungsfernen nicht adäquat erreicht bzw. als Teilnehmende gewonnen werden. Aus der Teilnehmendenforschung sind Abbrüche und Drop-Outs bekannt.
Warum Analphabeten im Erwachsenenalter, also nach der Aneignung vielfältigster Bewältigungsstrategien, durch das sich das Phänomen einer direkten Sichtbarkeit entzieht, dennoch beginnen das Lesen und Schreiben (wieder) zu lernen, wird bislang weder bildungs- noch lerntheoretisch untersucht. Im Rahmen der vorliegenden Erwachsenenbildungsstudie werden genau diese Lernanlässe empirisch herausgearbeitet.
Als Heuristik wird auf eine subjekttheoretische Theoriefolie rekurriert, die sich in besonderer Weise eignet Lernbegründungen im Kontext gesellschaftlich verhafteter Biografien sichtbar zu machen. Lernforschung im Begründungsmodell muss dabei auf eine Methodik zurückgreifen, die die Perspektive des Subjekts, Bedeutungszusammenhänge und typische Sinnstrukturen hervorbringen kann. Daher wird ein auf Einzelfallstudien basierendes, qualitatives Forschungsdesign gewählt, das Daten aus der Erhebung mittels problemzentrierter Interviews bereitstellt, die eine Auswertung innerhalb der Forschungsstrategie der Grounded Theory erfahren und in einer empirisch begründeten Typenbildung münden. Dieses Design ermöglicht die Rekonstruktion typischer Lernanlässe und im Ergebnis die Entwicklung einer gegenstandsbezogene Theorie mittlerer Reichweite.
Aus der vorliegenden Bedeutungs-Begründungsanalyse konnten empirisch fünf Lernbegründungstypen ausdifferenziert werden, die sich im Spannungsverhältnis von Teilhabeausrichtung und Widersprüchlichkeit bewegen und in ihrer Komplexität mittels der drei Schlüsselkategorien Bedeutungsraum, Reflexion der sozialen Eingebundenheit und Kompetenzen sowie Lernen bzw. dem Erleben der Diskrepanzerfahrung zwischen Lesen-Wollen und Lesen-Können dargestellt werden. Das Spektrum der Lernbegründungstypen reicht von teilhabesicherndem resignierten Lernen, bei dem die Sicherung des bedrohten Status quo im Vordergrund steht und die Welt als nicht gestaltbar erlebt wird, bis hin zu vielschichtigem teilhabeerweiternden Lernen, das auf die Erweiterung der eigenen Handlungsmöglichkeiten zielt und die umfangreichste Reflexion der sozialen Eingebundenheit und Kompetenzen aufweist. Funktionale Analphabeten begründen ihr Lernen und Nicht-Lernen vor dem Hintergrund ihrer sozialen Situation, ihrer Begrenzungen und Möglichkeiten: Schriftsprachlernen erhält erst im Kontext gesellschaftlicher Teilhabe und dessen Reflexion eine Bedeutung.
Mit der Einordnung der Lernbegründungen funktionaler Analphabeten in: erstens, Diskurse der Bildungsbenachteiligung durch Exklusionsprozesse; zweitens, die lerntheoretische Bedeutung von Inklusionsprozessen und drittens, den internationalen Theorieansatz transformativen Lernens durch die Integration der Reflexionskategorie, erfolgt eine Erweiterung bildungs- und lerntheoretischer Ansätze. In dieser Arbeit werden Alphabetisierungs- und Erwachsenen-bildungsforschung verbunden und in den jeweiligen Diskurs integriert. Weitere Anschluss- und Verwertungsmöglichkeiten in der Bildungsforschung wären denkbar. Die Untersuchung von Lernbegründungen im Längsschnitt beispielsweise kann Transformationsprozesse rekonstruierbar machen und somit Erträge für eine Bildungsprozessforschung liefern. Bildungspraktisch können die Lernbegründungstypen einerseits der Teilnehmergewinnung dienen, andererseits Ausgangspunkt für reflexive Lernbegleitungskonzepte sein, die Lernbegründungen zur Sprache bringen und die soziale Eingebundenheit thematisieren und damit Lernprozesse unterstützen.
Für ein tiefergehendes Verständnis von Entwicklung und Funktion der quergestreiften Muskulatur ist eine Betrachtung der am Aufbau der Myofibrillen, den kontraktilen Organellen, beteiligten Proteine essentiell. Die vorliegende Arbeit beschäftigt sich mit Myomesin, einem Protein der sarkomeren M-Bande. Zunächst wurde die cDNA des humanen Myomesins vollständig kloniert, sequenziert und nachfolgend die komplette Größe der aminoterminalen Kopfdomäne bestimmt. Es konnte gezeigt werden, daß Myomesin in vitro mit den Domänen 1 und 12 an Myosin bindet. Die muskelspezifische Isoform der Kreatinkinase bindet an die Domänen 7 und 8. Stimulations- und Inhibitionsexperimente belegen, daß Myomesin an Serin 618 in vivo durch die Proteinkinase A phosphoryliert wird und daß diese Phosphorylierung durch Aktivierung beta2-adrenerger Rezeptoren stimulierbar ist. In Muskelgewebeproben von Patienten, die an der Hypertrophen Kardiomyopathie, einer genetisch bedingten Herzmuskelkrankheit, erkrankt sind, konnte mit einem neu hergestellten phosphorylierungsabhängigen Antikörper eine Verminderung der Menge phosphorylierten Myomesins nachgewiesen werden. Mögliche Ursachen werden diskutiert. Myomesin bildet Dimere, wie durch hefegenetische und biochemische Experimente gezeigt werden konnte. Die Dimerisierung von Myomesin könnte eine zentrale Rolle für den Einbau der Myosinfilamente in die naszierende Myofibrille haben. Anhand der gewonnenen Daten wurde ein verbessertes Modell der zentralen M-Bande erstellt.
Ziel der vorliegenden Arbeit war die Entwicklung einer SNP-Genotypisierungsmethode mit auf Mikroarrays immobilisierten PCR-Produkten. Für die Analyse wurde ein faseroptischer Affinitätssensor bzw. ein Durchfluss-Biochip-Scanner mit integrierter Fluoreszenzdetektion verwendet. An den immobilisierten Analyten (PCR-Produkten) wurde eine Fluoreszenzoligonukleotidsonde hybridisiert und anschließend die Dissoziation der Sonde im Fluss verfolgt. Die Diskriminierung von Wildtyp- und Mutanten-DNA erfolgte durch die kinetische Auswertung der Dissoziationskurven sowie durch die Analyse der Fluoreszenzintensität. Die Versuche am faseroptischen Affinitätssensor zeigten, dass DNA-DNA-Hybride sowohl von Oligonukleotiden als auch von PCR-Produkten ein typisches Dissoziationsverhalten aufweisen, wobei fehlgepaarte Hybride eine signifikant schnellere Dissoziation zeigen als perfekt passende Hybride. Dieser Geschwindigkeitsunterschied lässt sich durch den Vergleich der jeweiligen kinetischen Geschwindigkeitskonstanten kD quantitativ erfassen. Da die Kopplung des Analyten an der Chipoberfläche sowie die Hybridisierungs- und Dissoziationsparameter essentiell für die Methodenentwicklung war, wurden die Parameter für ein optimales Spotting und die Immobilisierung von PCR-Produkten ermittelt. Getestet wurden die affine Kopplung von biotinylierten PCR-Produkten an Streptavidin-, Avidin- und NeutrAvidin-Oberflächen sowie die kovalente Bindung von phosphorylierten Amplifikaten mit der EDC/Methylimidazol-Methode. Die besten Ergebnisse sowohl in Spotform und -homogenität als auch im Signal/Rausch-Verhältnis wurden an NeutrAvidin-Oberflächen erreicht. Für die Etablierung der Mikroarray-Genotypisierungsmethode durch kinetische Analyse nach einem Hybridisierungsexperiment wurden Sondenlänge, Puffersystem, Spotting-Konzentration des Analyten sowie Temperatur optimiert. Das Analysensystem erlaubte es, PCR-Produkte mit einer Konzentration von 250 ng/µl in einem HEPES-EDTA-NaCl-Puffer auf mit NeutrAvidin beschichtete Glasträger zu spotten. In den anschließenden Hybridisierungs- und Dissoziationsexperimenten bei 30 °C konnte die Diskriminierung von homocygoter Wildtyp- und homocygoter Mutanten- sowie heterocygoter DNA am Beispiel von Oligonukleotid-Hybriden erreicht werden. In einer Gruppe von 24 homocygoten Patienten wurde ein Polymorphismus im SULT1A1-Gen analysiert. Sowohl durch kinetische Auswertung als auch mit der Analyse der Fluoreszenzintensität wurde der Genotyp der Proben identifiziert. Die Ergebnisse wurden mit dem Referenzverfahren, der Restriktionschnittstellenanalyse (PCR-RFLP) validiert. Lediglich ein Genotyp wurde falsch bestimmt, die Genauigkeit lag bei 96%. In einer Gruppe von 44 Patienten wurde der Genotyp eines SNP in der Adiponectin-Promotor-Region untersucht. Nach Vergleich der Analysenergebnisse mit denen eines Referenzverfahrens konnten lediglich 14 der untersuchten Genotypen bestätigt werden. Ursache für die unzureichende Genauigkeit der Methode war vor allem das schlechte Signal/Rausch-Verhältnis. Zusammenfassend kann gesagt werden, dass das in dieser Arbeit entwickelte Analysesystem für die Genotypisierung von Einzelpunktmutationen geeignet ist, homocygote Patientenproben zuverlässig zu analysieren. Prinzipiell ist das auch bei heterocygoter DNA möglich. Da nach aktuellem Kenntnisstand eine SNP-Analysemethode an immobilisierten PCR-Produkten noch nicht veröffentlicht wurde, stellt das hier entwickelte Verfahren eine Alternative zu bisher bekannten Mikroarray-Verfahren dar. Als besonders vorteilhaft erweist sich der reverse Ansatz der Methode. Der hier vorgestellte Ansatz ist eine kostengünstigere und weniger hoch dimensionierte Lösung für Fragestellungen beispielsweise in der Ernährungswissenschaft, bei denen meist eine mittlere Anzahl Patienten auf nur einige wenige SNPs zu untersuchen ist. Wenn es gelingt, durch die Weiterentwicklung der Hardware bzw. weiterer Optimierung, eine Verbesserung des Signal/Rausch-Verhältnisses und damit die Diskriminierung von heterocygoter DNA zu erreichen, kann diese Methode zukünftig bei der Analyse von mittelgroßen Patientengruppen alternativ zu anderen Genotypisierungsmethoden verwendet werden.
Der Porenraum eines Karbonatgesteins ist zumeist aus einer spezifischen Vergesellschaftung verschiedenster Porentypen aufgebaut, die eine unterschiedliche Herkunft aufweisen und zusätzlich in ihrer Form und Größe stark variieren können (e.g., Melim et al., 2001; Lee et al., 2009; He et al., 2014; Dernaika & Sinclair, 2017; Zhang et al., 2017). Diese für Karbonate typischen multimodalen Porensysteme entstehen sowohl durch primäre Ablagerungsprozesse, als auch durch mehrmalige Modifikation des Porenraumes nach Ablagerung des Sediments. Dies führt zu einer ungleichen Verteilung der Porenraumeigenschaften auf engstem Raum und das zeitgleiche Auftreten von effektiven und ineffektiven Poren. Diese immanenten Unterschiede in der Effektivität einzelner Porentypen sind der Hauptgrund für die häufig sehr niedrige Korellation zwischen Porosität und Permeabilität in Karbonaten (e.g., Mazzullo 2004; Ehrenberg & Nadeau, 2005; Hollis et al., 2010; He et al., 2014; Rashid et al., 2015; Dernaika & Sinclair, 2017). Durch die Extraktion von miteinander verbundenen und somit effektiven Porentypen jedoch kann das Verständnis und die Vorhersage der Permeabilität für einen gegeben Porositätswert stark verbessert werden (e.g., Melim et al., 2001; Zhang et al., 2017). Dazu wird in dieser Arbeit eine auf der digitalen Bildanalyse (DIA) beruhende Methode vorgestellt, mit der schrittweise die Effektivität von Poren aus den analysierten mittelmiozänen lakustrinen Karbonaten des Nördlinger Ries Kratersees (Süddeutschland) berechnet werden kann. Mithilfe des Porenformfaktors (sensu Anselmetti et al., 1998), der als Parameter zur Quantifizierung der Interkonnektivität zwischen Poren dient, wird der potentiellen Beitrag an Permeabilität jedes Porentyps zur Gesamtpermeabilität bestimmt. Somit können die effektivsten Porentypen innerhalb der analysierten Karbonate identifiziert werden. Desweiteren wird die digitale Bildanalyse dazu benutzt, zementierte Porenräume zu extrahieren, um den Einfluss der Zementation auf die Porenraumeigenschaften zu quantifizieren. Durch eine unabhängige Methode (Fluid-Flow-Simulation), deren Ergebnisse wiederum mit der digitalen Bildanalyse ausgewertet werden, können die vorherigen Erkentnisse bestätigt werden: Interpeloidale Poren und Lösungsporen sind die beiden effektivsten Porentypen im Porenraum der Riesseekarbonate. Die Extraktion des miteinander verbundenen (d.h. effektiven) Porennetzwerkes führt schließlich zu einer erheblich verbesserten Korrelation zwischen Porosität und Permeabilität in den analysierten Karbonaten. Die in dieser Arbeit beschriebene Methode bietet ein quantitatives petrographisches Werkzeug, mit dessen Hilfe die effektive Porosität eines Porenraumes extrahiert werden kann. Dies führt zu einem besseren Verständnis darüber, wie Porensysteme von Karbonaten Permeabilität erzeugen. Diese Dissertation zeigt auch, dass die Formkomplexität von Poren einer der wichtigsten Parameter ist, der die Interkonnektivität zwischen einzelnen Poren und somit die Entstehung von effektiver Porosität steuert. Außerdem erweist sich die digitale Bildanalyse als ausgezeichnetes Werkzeug um die Porosität und Permeabilität direkt an ihren gemeinsamen Ursprung zu knüpfen: die Gesteinstextur und die damit assoziierte Porenstruktur.
Anerkennung und Macht
(2021)
In der vorliegenden Untersuchung habe ich das Ziel verfolgt, einen sachlich-eigenständigen Beitrag für eine Debatte gegen Honneths kritische Gesellschaftstheorie zu leisten. In dieser Debatte wird Honneth dahingehend kritisiert, dass es ihm mit seiner kritischen Gesellschaftstheorie entgegen seiner eigenen systematischen Zielsetzung nicht gelingt, in modernen liberaldemokratischen Gesellschaften sämtliche Phänomene von sozialer Herrschaft kritisch zu hinterfragen. Denn soziale Anerkennung, die Honneth als Schlüsselbegriff für diese kritische Hinterfragung behandelt, bei der soziale Herrschaft in Verbindung mit sozialer Missachtung (als mangelnde soziale Anerkennung) steht, kann laut der Kritik faktisch selbst ein Medium für die Stiftung von sozialer Unterwerfung sein. Dies geschieht in Prozessen von Identitätsentwicklung, in denen soziale Anerkennung für Individuen als Anerkannte bestimmte Identitätsmöglichkeiten einräumt und auf diese Weise gleichzeitig andere Identitätsmöglichkeiten ausschließt, womit sie auf diese Identität einschränkend und insofern herrschend wirkt. Es handelt sich um eine Form von sozialer Herrschaft, die durch soziale Anerkennung gestiftet wird. Honneth zieht dem Vorwurf zufolge nicht in Erwägung, dass soziale Anerkennung bei Individuen als Anerkannte einen solchen negativen Effekt erzielen kann. Hieraus ergeben sich die Fragen, ob soziale Anerkennung in Prozessen von Identitätsentwicklung jeweils mit sozialer Herrschaft einhergeht und wie dieser Typus von sozialer Herrschaft kritisiert werden kann. Diese Fragen hat Honneth zuletzt in einem persönlichen Gespräch mit Allen und Cooke (als zwei Teilnehmerinnen der Debatte gegen Honneth) beantwortet. An dieser Stelle vertritt er mit beiden Gesprächsteilnehmerinnen die Auffassung, dass die Operation der Einschränkung von Identitätsmöglichkeiten an sich keine Operation darstellt, welche, wie sonst in der Debatte gegen seine kritische Gesellschaftstheorie behauptet wird, auf soziale Herrschaft zurückführt. Diese Auffassung beruht auf der Idee, wonach soziale Anerkennung sich in jenem praktischen Kontext nur unter der Bedingung als herrschaftsstiftend erweist, dass sie immanente Prinzipien verletzt, die substanziell kritische Maßstäbe definieren.
Mein Beitrag zu dieser Debatte gegen Honneth besteht auf der einen Seite in der Erklärung, dass sowohl jene Auffassung als auch jene Idee argumentativ mangelhaft sind, und auf der anderen Seite in der Ausführung des Vorhabens, diesen argumentativen Mangel selbst zu beheben. Gegen jene Auffassung behaupte ich, dass die drei Autoren in ihrem Gespräch nicht erläutern, inwiefern soziale Anerkennung nicht herrschend wirkt, wenn sie die Identitätsmöglichkeiten von Individuen als Anerkannte einschränkt, denn mit dieser Einschränkung wird vielmehr faktisch über diese Individuen geherrscht – die Debatte gegen Honneth, so zur Unterstützung dieser Ansicht, baut hauptsächlich auf ebendiesem Faktum auf. Gegen jene Idee habe ich fünf problematische Fragen gestellt und beantwortet, die Bezug eigentlich nicht allein auf diese Idee selbst, sondern überdies auf weitere, naheliegende Ideen nehmen, welche die drei Autoren angesprochen haben.
Die Expansion des renalen Tubulointerstitiums aufgrund einer Akkumulation zellulärer Bestandteile und extrazellulärer Matrix ist eine charakteristische Eigenschaft der chronischen Nierenerkrankung (CKD) und führt zu einer Progression der Erkrankung in Richtung eines terminalen Nierenversagens. Die Fibroblasten Proliferation und ihre Transformation hin zum sekretorischen Myofibroblasten-Phänotyp stellen hierbei Schlüsselereignisse dar. Signalprozesse, die zur Induktion der Myofibroblasten führen, werden aktiv beforscht um anti-fibrotische Therapieansätze zu identifizieren. Das anti-inflammatorische Protein Annexin A1 und sein Rezeptor Formyl-Peptid Rezeptor 2 (FPR2) wurden in verschiedenen Organsystemen mit der Regulation von Fibroblastenaktivität in Verbindung gebracht, jedoch wurden ihre Expression und Funktion bei renalen fibrotischen Erkrankungen bisher nicht untersucht. Ziel der aktuellen Studie war daher die Untersuchung der renalen Annexin A1- und FPR2-Expression in einem Tiermodell des chronischen Nierenversagens, sowie die Charakterisierung der funktionellen Rolle von Annexin A1 in der Regulation des Fibroblasten Phänotyps und ihrer Syntheseleistung. Dazu wurden neugeborene Sprague-Dawley Ratten in den ersten zwei Wochen ihres Lebens entweder mit Vehikel oder mit einem Angiotensin II Typ I Rezeptor Antagonisten behandelt und ohne weitere Intervention bis zu einem Alter von 11 Monaten (CKD Ratten) gehalten. Die Regulation und Lokalisation von Annexin A1 und FPR2 wurden mit Hilfe von Real-Time PCR und Immunhistochemie erfasst. Annexin A1- und FPR2-exprimierende Zellen wurden weiter durch Doppelimmunfluoreszenzfärbungen charakterisiert. Gefärbt wurde mit Antikörpern gegen endotheliale Zellen (rat endothelial cell antigen), Makrophagen (CD 68), Fibroblasten (CD73) und Myofibroblasten (alpha-smooth muscle actin (α-sma)). Zellkulturstudien wurden an immortalisierten renalen kortikalen Fibroblasten aus Wildtyp- und Annexin A1-defizienten Mäusen, sowie an etablierten humanen und murinen renalen Fibrolasten durchgeführt. Eine Überexpression von Annexin A1 wurde durch eine stabile Transfektion erreicht. Die Expression von Annexin A1, α-sma und Kollagen 1α1 wurde durch Real-Time PCR, Western Blot und Immuhistochemie erfasst. Die Sekretion des Annexin A1 Proteins wurde nach TCA-Fällung des Zellkulturüberstandes im Western Blot untersucht. Wie zu erwarten zeigten die CKD Ratten eine geringere Anzahl an Nephronen mit deutlicher glomerulären Hypertrophie. Der tubulointerstitielle Raum war durch fibrilläres Kollagen, aktivierte Fibroblasten und inflammatorische Zellen expandiert. Parallel dazu war die mRNA Expression von Annexin A1 und Transforming growth factor beta (TGF-β) signifikant erhöht. Die Annexin A1-Lokalisation mittels Doppelimmunfluorsezenz identifizierte eine große Anzahl von CD73-positiven kortikalen Fibroblasten und eine Subpopulation von Makrophagen als Annexin A1-positiv. Die Annexin A1-Menge in Myofibroblasten und renalen Endothelien war gering. FPR2 konnte in der Mehrzahl der renalen Fibroblasten, in Myofibroblasten, in einer Subpopulation von Makrophagen und in renalen Epithelzellen nachgewiesen werden. Eine Behandlung der murinen Fibroblasten mit dem pro-fibrotischen Zytokin TGF-β führte zu einem parallelen Anstieg der α-sma-, Kollagen 1α1- und Annexin A1-Biosynthese und zu einer gesteigerten Sekretion von Annexin A1. Eine Überexpression von Annexin A1 in murinen Fibroblasten reduzierte das Ausmaß der TGF-β induzierten α-sma- und Kollagen 1α1-Biosynthese. Fibroblasten aus Annexin A1-defizienten Mäusen zeigten einen starken Myofibroblasten-Phänotyp mit einer gesteigerten Expression an α-sma und Kollagen 1α1. Der Einsatz eines Peptidantagonisten des FPR2 (WRW4) resultierte in einer Stimulation der α-sma-Biosynthese, was die Vermutung nahe legte, dass Annexin A1 FPR2-vermittelt anti-fibrotische Effekte hat. Zusammenfassend zeigen diese Ergebnisse, dass renale kortikale Fibroblasten eine Hauptquelle des Annexin A1 im renalen Interstitium und einen Ansatzpunkt für Annexin A1-Signalwege in der Niere darstellen. Das Annexin A1/FPR2-System könnte daher eine wichtige Rolle in der Kontrolle des Fibroblasten Phänotyp und der Fibroblasten Aktivität spielen und daher einen neuen Ansatz für die anti-fibrotischen pharmakologischen Strategien in der Behandlung des CKD darstellen.
Anschaulichkeiten herstellen
(2023)
Die Handschrift D der Driu liet von der maget entstand um 1220 und ist die älteste vollständige erhaltene Fassung des Textes. Priester Wernher gilt als Verfasser der geistlichen Dichtung und erstellt sie im Jahr 1172 auf der Grundlage apokrypher und biblischer Quellen. Die Handschrift D wird in der mediävistischen Germanistik gerne zu jenen Werken gezählt, die den Auftakt einer zunehmenden Verschriftlichung in der Volkssprache markieren. Gemäß ihrem Erscheinungsbild erweist sich die Handschrift und der Zeitpunkt ihrer Entstehung aber vor allem als ein Wendepunkt, an dem der Einfluss der lateinischen Schriftkultur auf die Produktion volkssprachlicher Literatur besonders deutlich wird. Während insgesamt der Anteil der geistlichen Dichtung kontinuierlich abnimmt, erfolgt von literaturwissenschaftlicher Seite zurecht auch die Einordnung der Handschrift in die weltlich-laikale Hofliteratur. In diesem Kontext steht die Handschrift D aber nicht am Beginn einer Blütezeit, sondern weist vor allem in das blühende Spannungsfeld zwischen der lateinisch geprägten Buchproduktion und der geistlichen Dichtung auf der einen und dem Anspruch einer laikalen Rezeptionsgemeinschaft auf der anderen Seite. In diesem Feld bewegt sich meine medienanthropologische Untersuchung. Die Schwerpunkte liegen hierbei auf der Rekonstruktion der Handschriftenherstellung sowie auf der Analyse der Darstellungsprinzipien im Bildprogramm.
Die Untersuchung mikrogelinster astronomischer Objekte ermöglicht es, Informationen über die Größe und Struktur dieser Objekte zu erhalten. Im ersten Teil dieser Arbeit werden die Spektren von drei gelinsten Quasare, die mit dem Potsdamer Multi Aperture Spectrophotometer (PMAS) erhalten wurden, auf Anzeichen für Mikrolensing untersucht. In den Spektren des Vierfachquasares HE 0435-1223 und des Doppelquasares HE 0047-1756 konnten Hinweise für Mikrolensing gefunden werden, während der Doppelquasar UM 673 (Q 0142--100) keine Anzeichen für Mikrolensing zeigt. Die Invertierung der Lichtkurve eines Mikrolensing-Kausik-Crossing-Ereignisses ermöglicht es, das eindimensionale Helligkeitsprofil der gelinsten Quelle zu rekonstruieren. Dies wird im zweiten Teil dieser Arbeit untersucht. Die mathematische Beschreibung dieser Aufgabe führt zu einer Volterra'schen Integralgleichung der ersten Art, deren Lösung ein schlecht gestelltes Problem ist. Zu ihrer Lösung wird in dieser Arbeit ein lokales Regularisierungsverfahren angewendet, das an die kausale Strukture der Volterra'schen Gleichung besser angepasst ist als die bisher verwendete Tikhonov-Phillips-Regularisierung. Es zeigt sich, dass mit dieser Methode eine bessere Rekonstruktion kleinerer Strukturen in der Quelle möglich ist. Weiterhin wird die Anwendbarkeit der Regularisierungsmethode auf realistische Lichtkurven mit irregulärem Sampling bzw. größeren Lücken in den Datenpunkten untersucht.
Diese Arbeit besteht aus drei Aufsätzen. Der erste Aufsatz („Die Arbeitsmarktpolitik in Südosteuropa: Von der Transformation bis zur EU-Integration“) erörtert die wirtschaftlichen und politischen Rahmenbedingungen in Südosteuropa und die damit einhergehenden Entwicklungen auf den jeweiligen Arbeitsmärkten seit 1991. Im Fokus steht dabei der Einfluss der Arbeitslosigkeit (als systemunabhängiges Problem) auf den EU-Integrationsprozess in den jugoslawischen Nachfolgestaaten und Albanien.
Welchen Einfluss haben der qualifikatorische und regionale Mismatch auf die Arbeitslosigkeit in Kroatien? Um diese Frage zu beantworten, wird im zweiten Kapitel dieser Arbeit („Arbeitslosigkeit im Transformationsprozess: Qualifikatorischer und regionaler Mismatch in Kroatien“) der Mismatch sowohl statisch mit Mismatch-Indikatoren als auch dynamisch im Rahmen der Matching-Funktion erörtert. Unter Anwendung von Paneldaten für neun Berufsgruppen und 21 Regionen im Zeitraum zwischen Januar 2004 und Juni 2015 wird in diesem Kapitel mithilfe von Fixed-Effects-Modellen dieser Einfluss geschätzt.
Führt die Anpassung der Arbeitslosenversicherungsgesetze an die EU-Standards zu einer Verbesserung der Arbeitsmarktergebnisse in den Staaten Südosteuropas? Mit Hilfe von Paneldaten für den Zeitraum 1996–2014 wird für fünf südosteuropäische Staaten (Albanien, Kroatien, Mazedonien, Montenegro und Serbien) dieser Einfluss im Rahmen eines Differenz-in-Differenzen-Modells im dritten Aufsatz („Unvollständige Integration: Eine Differenz-in-Differenzen-Analyse der südosteuropäischen Arbeitsmärkte“) geschätzt.
Bobrowski hatte nach dem Abitur die Absicht geäußert, Kunstgeschichte zu studieren, doch Krieg und Kriegsgefangenschaft vereitelten seinen Plan: Der Wehrmachtsangehörige wurde einzig im Winter 1941/1942 für ein Studiensemester an der Universität Berlin vom Kriegsdienst freigestellt. Nachhaltig beeindruckt war Bobrowski insbesondere von der Vorlesung „Deutsche Kunst der Goethezeit“ des Lehrstuhlinhabers Wilhelm Pinder. Trotz eines grundlegenden Einflusses ist indessen zu keinem Zeitpunkt Pinders ideologischer Hintergrund in Bobrowskis Gedichten manifest geworden. Nach der Rückkehr aus sowjetischer Gefangenschaft an Weihnachten 1949 war für den mittlerweile Zweiunddreißigjährigen an ein Studium nicht mehr zu denken. Die lebenslange intermediale Auseinandersetzung mit Werken der bildenden Kunst in seinem Œuvre kann indessen als Ausdruck seiner vielfältigen kulturgeschichtlichen Interessen und Neigungen interpretiert werden. Die Lebensphasen des Dichters korrelieren mit einer motivischen Entwicklung seiner Bildgedichte: Insbesondere half ihm die unantastbare Ästhetik bedeutender Kunstwerke, das Grauen der letzten Kriegsjahre und die Entbehrungen in sowjetischer Kriegsgefangenschaft zu überwinden. Didaktisch-moralische Zielsetzungen prägten zunächst die in den Jahren nach seiner Heimkehr entstandenen Gedichte, bevor sich Bobrowski inhaltlich und formal von diesem Gedichttypus zu lösen vermochte und vermehrt Gedichte zu schreiben begann, die kulturgeschichtliche Dimensionen annahmen und historische, mythologische, biblische und religionsphilosophische Themen in epochenübergreifende Zusammenhänge stellten. Die Gedichte über die Künstler Jawlensky und Calder berühren gleichzeitig kulturlandschaftliche Aspekte. Im letzten Lebensjahrzehnt interessierte sich Bobrowski zunehmend für die Kunst des 20. Jahrhunderts, während die moderne Architektur aus seinem Werk ausgeklammert blieb.
Architektur bildet eine Leitmotivik in Bobrowskis lyrischem Werk. Die übertragene Bedeutungsebene der in den Gedichten benannten sakralen und profanen Einzelbauten, aber auch der städtischen und dörflichen Ensembles sowie einzelner Gebäudeteile, verändert sich mehrfach im Laufe der Jahre. Ausgehend von traditionellen, paargereimten Jugendgedichten in jambischem Versmaß, in denen architektonische Elemente Teil einer Wahrnehmung bilden, die alles Außerästhetische ausblendet, wandelt sich der Sinngehalt der Sakral- und Profanbauten in Bobrowskis lyrischem Werk ein erstes Mal während den Kriegsjahren in Russland, die der Wehrmachtsangehörige am Ilmensee verbracht hat. In den damals entstandenen Oden zeugen die architektonischen Relikte von Leid, Tod und Zerstörung. Noch fehlt indessen der später so zentrale Gedanke der Schuld, der erst im Rückblick auf jene Zeit in den Gedichten, die nach der Rückkehr aus der Kriegsgefangenschaft bis zu Bobrowskis frühem Tod entstanden sind, thematisiert worden ist.
Gegen Ende des Kriegs und in den Jahren der Kriegsgefangenschaft besinnt sich Bobrowski erneut auf Heimatthemen, und die Architektur in seinen Gedichten wird zu einem ästhetisch überhöhten Fluchtpunkt seiner Sehnsucht nach Ostpreußen und dem Memelgebiet. In Kriegsgefangenschaft tritt erstmals der Aspekt des Sublimen in seinen Gedichten auf, und zwar sowohl bezogen auf die Malerei als auch auf die Architektur. Dieser Gedanke wird einerseits nach der Rückkehr nach Berlin in den Gedichten über die Architektur gotischer Kathedralen und das bauliche Erbe des Klassizismus weitergesponnen, doch steht in den damals entstandenen Gedichten das Kulturerbe Europas auch für historisches Unrecht und eine schwere, weit zurückreichende Schuld.
Von dieser auf den ganzen Kontinent bezogenen Kritik wendet sich Bobrowski in den nachfolgenden Jahren ab und konzentriert sich auf die Schuld der Deutschen gegenüber den Völkern Osteuropas. Damit erhält auch die Architektur in seinen Gedichten eine neue Bedeutung. Die Relikte der Ritterburgen des deutschen Ordens zeugen von der Herrschaft der mittelalterlichen Eroberer und verschmelzen dabei mit der Natur: Das Zeichenhafte der Architektur wird Teil der Landschaft. Im letzten Lebensjahrzehnt entstehen vermehrt Gedichte, die sich auf Parkanlagen und städtische Grünräume beziehen.
Der Dichter hat sich nicht nur auf persönliche Erfahrungen, sondern mitunter auch auf Bildquellen abstützt, ohne dass er das Original je gesehen hätte. Nur schwer zugänglich sind die Gedichte über Chagall und Gauguin ohne die Erkenntnis, dass sie sich auf Bildvorlagen in schmalen, populärwissenschaftlichen Büchern beziehen, die Bobrowski jeweils kurz vor der Niederschrift der entsprechenden Gedichte erworben hat. Anders verhält es sich mit jenen russischen Kirchen, die Eingang in sein lyrisches Werk gefunden haben. Bobrowski hat sie alle selbst im Krieg gesehen, und die meisten scheinen noch heute zu bestehen und können mit einiger Sicherheit identifiziert werden, wozu auch die Briefe des Dichters aus jener Zeit beitragen.
Arthur Ewert (1890-1959)
(2015)
Arthur Ewert (1890-1959) war in den zwanziger und frühen dreißiger Jahren ein wichtiger Funktionär der Kommunistischen Partei Deutschlands und der Kommunistischen Internationale.
Er wurde in der Familie eines armen Bauern in Ostpreußen geboren. Nach dem Abschluß der Schule ging er nach Berlin, um hier eine Lehre als Sattler zu absolvieren. Über die Berliner Arbeiterjugendbewegung fand er Kontakt zur Sozialdemokratischen Partei Deutschlands, deren Mitglied er 1908 wurde.
Im Mai 1914 emigrierte er gemeinsam mit seiner langjährigen Lebensgefährtin und späteren Ehefrau Elise Saborowski (1886-1939) nach Nordamerika, wo er sich sofort der sozialistischen Bewegung anschloß. Anfang 1919 gehörte er zu den Mitbegründern der ersten Kommunistischen Partei Kanadas.
Im Sommer 1919 kehrte er nach Deutschland zurück und wurde Mitglied der wenige Monate zuvor gegründeten KPD.
Auf dem Leipziger Parteitag der KPD im Februar 1923 wurde er in die zwanzigköpfige Zentrale seiner Partei gewählt und stieg damit in den engeren Führungszirkel auf.
Nach der gescheiterten »Deutschen Oktoberrevolution« im Herbst 1923 kämpfte er gemeinsam mit Ernst Meyer, Hugo Eberlein, Wilhelm Pieck und anderen um das Überleben der KPD, doch gelang es seiner Gruppe nicht, den Sieg der Linken und Ultralinken im parteiinternen Machtkampf zu verhindern. Ewert wurde politisch »kaltgestellt« und schied für mehr als ein Jahr aus der Parteiführung aus.
In dieser Zeit erfüllte er verschiedene Aufgaben für die Kommunistische Internationale. Bereits im Juni 1923 war er Berichterstatter zur Lage in der Norwegischen Arbeiterpartei gewesen, ab Ende 1924 war er Abgesandter bei der KP Großbritanniens. Im Sommer und Frühherbst 1927 hielt er sich mehrere Monate in den USA auf.
Im Sommer 1925 wurde er auf Veranlassung der Kommunistischen Internationale in die Führung der KPD zurückgeholt. Er trug wesentlich dazu bei, die Parteiführung unter Ernst Thälmann zu stabilisieren und sie – zumindest zeitweise – auf einen realpolitischen Kurs zu orientieren.
Mit dem erneuten »Links«-Schwenk der KPD ab Anfang 1928 wurde er als »Versöhnler« stigmatisiert und zunehmend zur Zielscheibe innerparteilicher Attacken. Der Versuch eines »Befreiungsschlages« unter Ausnutzung der sogenannten Wittorf-Affäre im Herbst 1928 scheiterte, bis zum Sommer 1929 wurde Arthur Ewert auf Drängen Stalins und mit ausdrücklicher Zustimmung Thälmanns aus allen Funktionen in der KPD entfernt.
Nach der Auflösung des Reichstags und dem damit verbundenen Verlust seines Reichstagsmandats im Juli 1930 schied Ewert endgültig aus der deutschen Parteiarbeit aus.
Ende 1930 wurde er zum Leiter des Südamerikanischen Büros der Kommunistischen Internationale in Montevideo, der Hauptstadt Uruguays, ernannt. Er trug damit Verantwortung für die unmittelbare Anleitung der Kommunistischen Parteien im sogenannten Südkegel Südamerikas. In diese Zeit fielen seine ersten Kontakte zu Luiz Carlos Prestes, dem legendären »Ritter der Hoffnung«, mit dem er ab Anfang 1935 in Brasilien zusammenarbeitete.
Von 1932 bis 1934 leitete Arthur Ewert das Büro der Kommunistischen Internationale in Shanghai und spielte dabei eine entscheidende Rolle zugunsten Mao Tse-tungs, dessen politisches Überleben er in einem innerparteilichen Machtkampf der KP Chinas sicherte.
Als Vertreter der Kommunistischen Internationale war Arthur Ewert im Verlaufe des Jahres 1935 an den Versuchen beteiligt, in Brasilien – gestützt auf ein breites Bündnis, die »Nationale Befreiungsallianz« - einen politischen Machtwechsel herbeizuführen. Nach dem Scheitern des von Prestes geführten Aufstandsversuches wurde er Ende 1935 verhaftet. Arthur Ewert verlor in Folge der barbarischen Folterungen in brasilianischer Haft den Verstand.
Er kam im Mai 1945 im Ergebnis einer Amnestie frei. 1947 gelang es seiner Schwester, ihn in die sowjetische Besatzungszone zurückzuholen. Die Ärzte dort konnten nur noch feststellen, daß eine Heilung unmöglich war. Arthur Ewert verbrachte den Rest seines Lebens in einem Pflegeheim in Eberswalde, wo er 1959 starb.
Proteine sind an praktisch allen Prozessen in lebenden Zellen maßgeblich beteiligt. Auch in der Biotechnologie werden Proteine in vielfältiger Weise eingesetzt.
Ein Protein besteht aus einer Kette von Aminosäuren. Häufig lagern sich mehrere dieser Ketten zu größeren Strukturen und Funktionseinheiten, sogenannten Proteinkomplexen,
zusammen. Kürzlich wurde gezeigt, dass eine Proteinkomplexbildung bereits während der Biosynthese der Proteine (co-translational) stattfinden kann
und nicht stets erst danach (post-translational) erfolgt. Da Fehlassemblierungen von Proteinen zu Funktionsverlusten und adversen Effekten führen, ist eine präzise und verlässliche Proteinkomplexbildung sowohl für zelluläre Prozesse als auch für biotechnologische Anwendungen essenziell. Mit experimentellen Methoden lassen sich zwar u.a. die Stöchiometrie und die Struktur von Proteinkomplexen bestimmen,
jedoch bisher nicht die Dynamik der Komplexbildung auf unterschiedlichen Zeitskalen. Daher sind grundlegende Mechanismen der Proteinkomplexbildung noch nicht vollständig verstanden. Die hier vorgestellte, auf experimentellen Erkenntnissen aufbauende, computergestützte Modellierung der Proteinkomplexbildung erlaubt eine umfassende Analyse des Einflusses physikalisch-chemischer Parameter
auf den Assemblierungsprozess. Die Modelle bilden möglichst realistisch die experimentellen Systeme der Kooperationspartner (Bar-Ziv, Weizmann-Institut, Israel; Bukau und Kramer, Universität Heidelberg) ab, um damit die Assemblierung von Proteinkomplexen einerseits in einem quasi-zweidimensionalen synthetischen Expressionssystem (in vitro) und andererseits im Bakterium Escherichia coli (in vivo) untersuchen zu können. Mit Hilfe eines vereinfachten Expressionssystems, in dem die Proteine nur an die Chip-Oberfläche, aber nicht aneinander binden können, wird das theoretische Modell parametrisiert. In diesem vereinfachten in-vitro-System durchläuft die Effizienz der Komplexbildung drei Regime – ein bindedominiertes Regime, ein Mischregime und ein produktionsdominiertes Regime. Ihr Maximum erreicht die Effizienz dabei kurz nach dem Übergang vom bindedominierten ins Mischregime und fällt anschließend monoton ab. Sowohl im nicht-vereinfachten in-vitro- als auch im in-vivo-System koexistieren je zwei konkurrierende Assemblierungspfade: Im in-vitro-System erfolgt die Komplexbildung entweder spontan in wässriger Lösung (Lösungsassemblierung) oder aber in einer definierten Schrittfolge an der Chip-Oberfläche (Oberflächenassemblierung); Im in-vivo-System konkurrieren hingegen die co- und die post-translationale Komplexbildung. Es zeigt sich, dass die Dominanz der Assemblierungspfade im in-vitro-System zeitabhängig ist und u.a. durch die Limitierung und Stärke der Bindestellen auf der Chip-Oberfläche beeinflusst werden kann. Im in-vivo-System hat der räumliche Abstand zwischen den Syntheseorten der beiden Proteinkomponenten nur dann einen Einfluss auf die Komplexbildung, wenn die Untereinheiten schnell degradieren. In diesem Fall dominiert die co-translationale Assemblierung auch auf kurzen Zeitskalen deutlich, wohingegen es bei stabilen Untereinheiten zu einem Wechsel von der Dominanz der post- hin zu einer geringen Dominanz der co-translationalen Assemblierung kommt. Mit den in-silico-Modellen lässt sich neben der Dynamik u.a. auch die Lokalisierung der Komplexbildung und -bindung darstellen, was einen Vergleich der theoretischen Vorhersagen mit experimentellen Daten und somit eine Validierung der Modelle ermöglicht. Der hier präsentierte in-silico Ansatz ergänzt die experimentellen Methoden, und erlaubt so, deren Ergebnisse zu interpretieren und neue Erkenntnisse davon abzuleiten.
Die Neue Ökonomische Geographie (NEG) erklärt Agglomerationen aus einem mikroökonomischen Totalmodell heraus. Zur Vereinfachung werden verschiedene Symmetrieannahmen getätigt. So wird davon ausgegangen, dass die betrachteten Regionen die gleiche Größe haben, die Ausgabenanteile für verschiedene Gütergruppen identisch sind und die Transportkosten für alle Industrieprodukte die selben sind. Eine Folge dieser Annahmen ist es, dass zwar erklärt werden kann, unter welchen Bedingungen es zur Agglomerationsbildung kommt, nicht aber wo dies geschieht. In dieser Arbeit werden drei Standardmodelle der NEG um verschiedene Asymmetrien erweitert und die Veränderung der Ergebnisse im Vergleich zum jeweiligen Basismodell dargestellt. Dabei wird neben der Theorie auf die Methoden der Simulation eingegangen, die sich grundsätzlich auf andere Modelle übertragen lassen. Darauf aufbauend wird eine asymmetrische Modellvariante auf die wirtschaftliche Entwicklung Deutschlands angewandt. So lässt sich das Ausbleiben eines flächendeckenden Aufschwungs in den neuen Ländern, die starken Wanderungsbewegungen in die alten Länder und das dauerhafte Lohnsatzgefälle in einem Totalmodell erklären.
Auf den Spuren der griechischen Mythen bei Anton Čechov in den Werken der frühen Schaffensperiode
(2012)
Die Poetik des Alltags des russischen Schriftstellers Anton Čechov fasziniert bereits über ein Jahrhundert die Leser weltweit. Dieser Faszination liegt nicht zuletzt der griechische Mythos zugrunde, ein Kulturerbe, das die Denkweise unserer Gesellschaft tief greifend beeinflusst hat. Die antiken Gottheiten und Helden wie Apollo, Dionysos, Pythia, Narziss werden in Čechovs wenig untersuchtem Frühwerk zu Menschen des Alltags. Diese Projektion ist eine parodie- und travestiehafte Modifikation der mythischen Elementarstrukturen. In dieser Verschmelzung des Mythischen mit dem Alltäglichen wird Čechov zum Nachfolger insbesondere des antiken Dramatikers Epicharm. Methodisch basiert meine Analyse auf dem Begriffspaar von „Wiedergebrauchs-Rede“ und „Verbrauchs-Rede“ des Rhetorikers Heinrich Lausberg: Čechov erzählt die prominenten Mythen so wieder, dass sie zwar ihre Erhabenheit verlieren, ihre untergründige Kraft jedoch beibehalten und so das Selbstbild des modernen Menschen bereichern.
Aufstiege aus der Mittelschicht : soziale Aufstiegsmobilität von Haushalten zwischen 1984 und 2010
(2012)
Die Dissertation widmet sich den intragenerationalen Aufstiegsprozessen von Haushalten aus der Mittelschicht zu den Wohlhabenden. Intragenerationale Mobilitätsforschung wird bislang vor allem als arbeitsmarktbezogene Inidivualmobilität angesehen. Diese Dissertation erweitert den Ansatz auf die Ebene des Haushaltes. Dem liegt der Gedanke zugrunde, dass die soziale Position eines Individuums nicht allein durch sein Erwerbseinkommen determiniert wird. Ebenso entscheidend ist der Kontext des Haushaltes. Dieser bestimmt darüber, wie viele Personen zum Einkommen beitragen können und wie viele daran partizipieren. Weiterhin kommt der Haushaltsebene in Paar-Haushalten die Rolle des Aushandlungsortes zu. Hier wird über Familienplanung, Kinderwunsch und damit in Zusammenhang stehend auch über die Erwerbsbeteiligung der Partner entscheiden. Die vorliegende Dissertation untersucht diese Annahmen mithilfe von Daten des Sozioökonomischen Panels (SOEP) der Jahre 1984 bis 2010. Der Fokus liegt auf der Erwerbsbeteiligung und dem Bildungsniveau des Haushaltes, seiner Struktur, sowie dem Beruf des Haushaltsvorstandes. Es wird davon ausgegangen, dass dies die Hauptfaktoren sind, die über die finanziellen Möglichkeiten eines Haushaltes entscheiden. Ein weiterer Schwerpunkt der Arbeit liegt in der Berücksichtigung des historischen Kontextes, da anzunehmen ist, dass die oben benannten Faktoren sich und ihren Einfluss auf die Aufstiegsmöglichkeiten von Haushalten im historischen Verlauf verändert haben.
Die folgenden Fragen standen im Mittelpunkt der Dissertation: Wie handeln Grundschulkinder aus, wenn sie von ihren Peers ungerecht behandelt werden? Welche unmittelbaren Wirkungen hat ihr Vorgehen? In welchem Zusammenhang steht das Vorgehen in der Konfliktsituation mit der Stellung unter den Peers? Theoretische Grundlage waren die Entwicklungsmodelle zum Aushandeln von Yeates und Selman (1989) sowie Hawley (1999). Es nahmen 213 Dritt- und Fünftklässler an der Untersuchung teil. Eine Kombination qualitativer und quantitativer Methoden wurde verwendet. In einem individuellen Interview wurde erhoben, welche Taktiken (eine Handlungseinheit) sowie welche Strategien (Abfolge von Taktiken) die Kinder in einer hypothetischen Normbruchsituation einsetzen würden. Die Kinder wurden auch gefragt, welche unmittelbaren Wirkungen sie erwarten, wenn sie die vorgeschlagene Taktik einsetzen. Die Stellung der Kinder wurde sowohl bezüglich ihres Einflusses (Peerrating) als auch bezüglich ihrer Akzeptanz (Soziometrie) unter den Klassenkameraden erhoben. Die von den Kindern genannten Taktiken wurden vier übergeordneten Kategorien zugeordnet: Verhandeln, Erzwingen, Ausweichen und Aufgeben. Nach den Erwartungen der Kinder führen sowohl Verhandlungstaktiken als auch erzwingende Taktiken in um die Hälfte der Fälle zur Durchsetzung. Erzwingende Taktiken gehen jedoch häufig mit unfreundlichen Reaktionen einher. Einfluss und Akzeptanz der Kinder waren davon abhängig, welche Kombination und Sequenz von Taktiken (Strategie) sie wählten. Beispielsweise waren Kinder einflussreich und beliebt, die eine Reihe von Verhandlungstaktiken generierten oder die zunächst Verhandlungstaktiken vorschlugen und danach erzwingende Taktiken. Kinder, die sofort Zwang einsetzen würden, hatten wenig Einfluss und wurden abgelehnt. Außerdem fanden sich Geschlechts- und Altersunterschiede hinsichtlich des Vorgehens in der hypothetischen Normbruchsituation sowie der Zusammenhänge zwischen Taktiken und Stellung unter Peers.
Ausprägungen räumlicher Identität in ehemaligen sudetendeutschen Gebieten der Tschechischen Republik
(2014)
Das tschechische Grenzgebiet ist eine der Regionen in Europa, die in der Folge des Zweiten Weltkrieges am gravierendsten von Umbrüchen in der zuvor bestehenden Bevölkerungsstruktur betroffen waren. Der erzwungenen Aussiedlung eines Großteils der ansässigen Bevölkerung folgten die Neubesiedlung durch verschiedenste Zuwanderergruppen sowie teilweise langanhaltende Fluktuationen der Einwohnerschaft. Die Stabilisierung der Bevölkerung stand sodann unter dem Zeichen der sozialistischen Gesellschafts- und Wirtschaftsordnung, die die Lebensweise und Raumwahrnehmung der neuen Einwohner nachhaltig prägte. Die Grenzöffnung von 1989, die politische Transformation sowie die Integration der Tschechischen Republik in die Europäische Union brachten neue demographische und sozioökonomische Entwicklungen mit sich. Sie schufen aber auch die Bedingungen dafür, sich neu und offen auch mit der spezifischen Geschichte des ehemaligen Sudetenlandes sowie mit dem Zustand der gegenwärtigen Gesellschaft in diesem Gebiet auseinanderzusetzen.
Im Rahmen der vorliegenden Arbeit wird anhand zweier Beispielregionen untersucht, welche Raumvorstellungen und Raumbindungen bei der heute in den ehemaligen sudetendeutschen Gebieten ansässigen Bevölkerung vorhanden sind und welche Einflüsse die unterschiedlichen raumstrukturellen Bedingungen darauf ausüben. Besonderes Augenmerk wird auf die soziale Komponente der Ausprägung räumlicher Identität gelegt, das heißt auf die Rolle von Bedeutungszuweisungen gegenüber Raumelementen im Rahmen sozialer Kommunikation und Interaktion. Dies erscheint von besonderer Relevanz in einem Raum, der sich durch eine gewisse Heterogenität seiner Einwohnerschaft hinsichtlich ihres ethnischen, kulturellen beziehungsweise biographischen Hintergrundes auszeichnet. Schließlich wird ermittelt, welche Impulse unter Umständen von einer ausgeprägten räumlichen Identität für die Entwicklung des Raumes ausgehen.
Die stetige Weiterentwicklung von VR-Systemen bietet neue Möglichkeiten der Interaktion mit virtuellen Objekten im dreidimensionalen Raum, stellt Entwickelnde von VRAnwendungen aber auch vor neue Herausforderungen. Selektions- und Manipulationstechniken müssen unter Berücksichtigung des Anwendungsszenarios, der Zielgruppe und der zur Verfügung stehenden Ein- und Ausgabegeräte ausgewählt werden. Diese Arbeit leistet einen Beitrag dazu, die Auswahl von passenden Interaktionstechniken zu unterstützen. Hierfür wurde eine repräsentative Menge von Selektions- und Manipulationstechniken untersucht und, unter Berücksichtigung existierender Klassifikationssysteme, eine Taxonomie entwickelt, die die Analyse der Techniken hinsichtlich interaktionsrelevanter Eigenschaften ermöglicht. Auf Basis dieser Taxonomie wurden Techniken ausgewählt, die in einer explorativen Studie verglichen wurden, um Rückschlüsse auf die Dimensionen der Taxonomie zu ziehen und neue Indizien für Vor- und Nachteile der Techniken in spezifischen Anwendungsszenarien zu generieren. Die Ergebnisse der Arbeit münden in eine Webanwendung, die Entwickelnde von VR-Anwendungen gezielt dabei unterstützt, passende Selektions- und Manipulationstechniken für ein Anwendungsszenario auszuwählen, indem Techniken auf Basis der Taxonomie gefiltert und unter Verwendung der Resultate aus der Studie sortiert werden können.
Hohe Leistungsansprüche im Wettkampfsport erfordern von den Athleten eine hohe sportliche Belastbarkeit. Möglichkeiten die Trainingsumfänge und -intensitäten zu erhöhen, sind z.T. ausgeschöpft. So bestehen nach wie vor Bestrebungen neue Wege zu finden, um mögliche Leistungsreserven zu erschließen. Elektrotherapieverfahren haben sich im klinischen Alltag, u.a. zur Behandlung von Traumata, bewährt und werden häufig zum Zweck der Analgesierung, Verbesserung der Gewebedurchblutung und zur Muskelstimulation angewandt. Deren Einsatz im adjuvanten Bereich der Trainingsbegleitung wurde bislang nur vereinzelt beschrieben. In der vorliegenden Studie wurden die Auswirkungen einer elektromagnetischen Anwendungsform auf ausgewählte psycho-physische Parameter untersucht (Kontrollgruppenvergleich mit placebokontrolliertem Design), um Aussagen über praxisrelevante Ansätze zur trainingsunterstützenden Betreuung abzuleiten. Es stellte sich die Frage, ob eine Intervention (15 x / 4 Wo.) mit frequenzmodulierten Wechselströmen im vorwiegend niederfrequenten Wirkungsspektrum (0-10000Hz, 5 μA / cm², CellVAS®) zu einer Beeinflussung der untersuchten Parameter führen und dahingehend nachhaltige leistungsfördernde oder -reduzierende Effekte erzielt werden könnten. Des Weiteren sollte geprüft werden, inwiefen die erhobenen Parameter (PWC170, Squat-Jump, Lateralflexion der Wirbelsäule und SF36®) aussagekräftig genug sind. Die Wirksamkeit des Applikationsform wurde im Prä-Post-Vergleich vor (T1), nach (T2) und 4 Wo. nach Abschluss (T3, Nachhaltigkeit) der Intervention analysiert. Die Teilnehmer der Kontrollgruppe erhielten vergleichbare Applikationen im Placebomodus. Das Probandenkollektiv bestand aus gesunden Leistungssportlern, deren Sportarten einen hohen Kraftausdaueranteil enthielten (n=127). Die Gruppenzuteilung erfolgte teilrandomisiert in Haupt- (HG) und Kontrollgruppe (KG). Zudem wurden die Gruppen zusätzlich geschlechtsspezifisch getrennt. Im Untersuchungsverlauf ließen sich Veränderungen für die Leistungsparameter PWC170 und Squat Jump erkennen. Inwiefern diese Abweichungen auf den Einfluss der Intervention mit frequenzmodulierten Wechselströmen im niederfrequenten Wirkungsspektrum zurückzuführen sind, konnte in dieser Untersuchung nicht eindeutig geklärt werden. Die nachgewiesenen Effekte ließen sich nach den zu Grunde liegenden wissenschaftlichen Standards nicht statistisch valide belegen. Der wissenschaftliche Nachweis einer mögliche Leistungsveränderung konnte nicht abschließend erbracht werden. Im therapeutischen Bereich hat die untersuchte Applikationsform, auf Basis der bestehen Studienlage, ihre Anwendung gefunden und kann bedenkenlos verwendet werden. Für den Einsatz als unterstützendes Verfahren in der sportlichen Praxis besteht nach wie vor Bedarf an validen, randomisierten Studien, die die Wirksamkeit der Applikationsform auf psycho-physische Parameter von Athleten nachhaltig belegen, bevor sie in der sportlichen Praxis Anwendung finden sollten.
Die automatisierte Objektidentifikation stellt ein modernes Werkzeug in den Geoinformationswissenschaften dar (BLASCHKE et al., 2012). Um bei thematischen Kartierungen untereinander vergleichbare Ergebnisse zu erzielen, sollen aus Sicht der Geoinformatik Mittel für die Objektidentifikation eingesetzt werden. Anstelle von Feldarbeit werden deshalb in der vorliegenden Arbeit multispektrale Fernerkundungsdaten als Primärdaten verwendet. Konkrete natürliche Objekte werden GIS-gestützt und automatisiert über große Flächen und Objektdichten aus Primärdaten identifiziert und charakterisiert. Im Rahmen der vorliegenden Arbeit wird eine automatisierte Prozesskette zur Objektidentifikation konzipiert. Es werden neue Ansätze und Konzepte der objektbasierten Identifikation von natürlichen isolierten terrestrischen Oberflächenformen entwickelt und implementiert. Die Prozesskette basiert auf einem Konzept, das auf einem generischen Ansatz für automatisierte Objektidentifikation aufgebaut ist. Die Prozesskette kann anhand charakteristischer quantitativer Parameter angepasst und so umgesetzt werden, womit das Konzept der Objektidentifikation modular und skalierbar wird. Die modulbasierte Architektur ermöglicht den Einsatz sowohl einzelner Module als auch ihrer Kombination und möglicher Erweiterungen. Die eingesetzte Methodik der Objektidentifikation und die daran anschließende Charakteristik der (geo)morphometrischen und morphologischen Parameter wird durch statistische Verfahren gestützt. Diese ermöglichen die Vergleichbarkeit von Objektparametern aus unterschiedlichen Stichproben. Mit Hilfe der Regressionsund Varianzanalyse werden Verhältnisse zwischen Objektparametern untersucht. Es werden funktionale Abhängigkeiten der Parameter analysiert, um die Objekte qualitativ zu beschreiben. Damit ist es möglich, automatisiert berechnete Maße und Indizes der Objekte als quantitative Daten und Informationen zu erfassen und unterschiedliche Stichproben anzuwenden. Im Rahmen dieser Arbeit bilden Thermokarstseen die Grundlage für die Entwicklungen und als Beispiel sowie Datengrundlage für den Aufbau des Algorithmus und die Analyse. Die Geovisualisierung der multivariaten natürlichen Objekte wird für die Entwicklung eines besseren Verständnisses der räumlichen Relationen der Objekte eingesetzt. Kern der Geovisualisierung ist das Verknüpfen von Visualisierungsmethoden mit kartenähnlichen Darstellungen.
BCH Codes mit kombinierter Korrektur und Erkennung In dieser Arbeit wird auf Grundlage des BCH Codes untersucht, wie eine Fehlerkorrektur mit einer Erkennung höherer Fehleranzahlen kombiniert werden kann. Mit dem Verfahren der 1-Bit Korrektur mit zusätzlicher Erkennung höherer Fehler wurde ein Ansatz entwickelt, welcher die Erkennung zusätzlicher Fehler durch das parallele Lösen einfacher Gleichungen der Form s_x = s_1^x durchführt. Die Anzahl dieser Gleichungen ist linear zu der Anzahl der zu überprüfenden höheren Fehler.
In dieser Arbeit wurde zusätzlich für bis zu 4-Bit Korrekturen mit zusätzlicher Erkennung höherer Fehler ein weiterer allgemeiner Ansatz vorgestellt. Dabei werden parallel für alle korrigierbaren Fehleranzahlen spekulative Fehlerkorrekturen durchgeführt. Aus den bestimmten Fehlerstellen werden spekulative Syndromkomponenten erzeugt, durch welche die Fehlerstellen bestätigt und höhere erkennbare Fehleranzahlen ausgeschlossen werden können. Die vorgestellten Ansätze unterscheiden sich von dem in entwickelten Ansatz, bei welchem die Anzahl der Fehlerstellen durch die Berechnung von Determinanten in absteigender Reihenfolge berechnet wird, bis die erste Determinante 0 bildet. Bei dem bekannten Verfahren ist durch die Berechnung der Determinanten eine faktorielle Anzahl an Berechnungen in Relation zu der Anzahl zu überprüfender Fehler durchzuführen. Im Vergleich zu dem bekannten sequentiellen Verfahrens nach Berlekamp Massey besitzen die Berechnungen im vorgestellten Ansatz simple Gleichungen und können parallel durchgeführt werden.Bei dem bekannten Verfahren zur parallelen Korrektur von 4-Bit Fehlern ist eine Gleichung vierten Grades im GF(2^m) zu lösen. Dies erfolgt, indem eine Hilfsgleichung dritten Grades und vier Gleichungen zweiten Grades parallel gelöst werden. In der vorliegenden Arbeit wurde gezeigt, dass sich eine Gleichung zweiten Grades einsparen lässt, wodurch sich eine Vereinfachung der Hardware bei einer parallelen Realisierung der 4-Bit Korrektur ergibt. Die erzielten Ergebnisse wurden durch umfangreiche Simulationen in Software und Hardwareimplementierungen überprüft.
Gegenstand der Arbeit ist die Beanspruchungssituation des Pflegepersonals im Krankenhausbereich. Es wird der Frage nachgegangen, mit welchem Verhaltens- und Erlebensmuster Pflegepersonen ihren Anforderungen gegenübertreten und wie sie über die Art und Weise der persönlichen Auseinandersetzung mit den Anforderungen ihre Beanspruchungsverhältnisse mitgestalten.Den theoretischen Ausgangspunkt der Arbeit bilden salutogenetisch orientierte Ressourcenmodelle, insbesondere Beckers Modell der seelischen Gesundheit (Becker, 1982, 1986). Nach ihm hängt der Gesundheitszustand einer Person davon ab, wie gut es ihr gelingt, externe und interne Anforderungen mithilfe externer und interner Ressourcen zu bewältigen. Hier knüpft das in der Arbeit im Mittelpunkt stehende diagnostische Instrument AVEM (Arbeitsbezogenes Verhaltens- und Erlebensmuster; Schaarschmidt & Fischer, 1996, 2001) an, das die Erfassung interner Anforderungen und Ressourcen der Person sowie deren Zuordnung zu 4 Verhaltens- und Erlebensmustern gegenüber der Arbeit unter Gesundheits- und Motivationsbezug ermöglicht.Mit den Hypothesen wird angenommen, dass in Anbetracht der problematischen Arbeitsbedingungen in der Pflege eine Zurücknahme im Engagement bzw. eine Schutzhaltung vor nicht gewollten und als unangemessen empfundenen Anforderungen sowie wenig beeinflussbaren Bedingungen im Vordergrund stehen. Dort, wo zumindest partiell gesundheitsförderliche und als herausfordernd erlebte Arbeitsbedingungen anzutreffen sind, sollten günstigere Musterkonstellationen auftreten. Wir vermuteten, dass sich die ungünstigen Tendenzen bereits in der Berufsausbildung und in frühen Berufsjahren zeigen. Musterveränderungen in gesundheits- und persönlichkeitsförderlicher Hinsicht sollten durch gezielte Intervention herbeigeführt werden können. Schließlich nahmen wir an, dass die Tätigkeit und die mit ihr verbundenen Anforderungen und Ausführungsbedingungen musterspezifisch wahrgenommen werden.Zur Beantwortung der Fragen werden Ergebnisse aus verschiedenen Quer- und Längsschnittuntersuchungen herangezogen, die in Wiener Spitälern und Krankenpflegeschulen, aber auch in deutschen Krankenhäusern durchgeführt wurden. Zu Vergleichszwecken werden Befunde anderer Berufsgruppen dargestellt. Neben dem AVEM wurden weitere Fragebögen zu folgenden Inhalten eingesetzt: Arbeitsbezogene Werte, Erleben von Ressourcen in der Pflegetätigkeit, Belastungserleben und Objektive Merkmale der Arbeitstätigkeit.Die Ergebnisse bestätigen die Hypothesen in allen wesentlichen Punkten. Im Vergleich mit anderen Berufsgruppen fallen für die Pflegekräfte deutliche Einschränkungen im Arbeitsengagement auf. In Bezug auf die gesundheitlichen Risikomuster nimmt das Pflegepersonal eine Mittelstellung ein. Die Musterdifferenzierung in der Pflegepopulation lässt die stärksten Unterschiede in Abhängigkeit von der Position erkennen: Je höher die Position, desto größer ist der Anteil des Gesundheitsmusters und desto geringer ist die Resignationstendenz. Die meisten Risikomuster zeigen sich bei den Pflegekräften mit der niedrigsten Qualifikation. Für Pflegeschüler ist ein zeitweiliges starkes Auftreten von resignativen Verhaltens- und Erlebensweisen sowie eine kontinuierliche Abnahme des Engagements kennzeichnend. Dieser Trend setzt sich nach Aufnahme der Berufstätigkeit fort. Nur gezielte intensive personenorientierte Interventionen erwiesen sich als geeignet, Musterveränderungen in gesundheits- und persönlichkeitsförderlicher Hinsicht zu erreichen. Die Tätigkeit und die mit ihr verbundenen Anforderungen und Ausführungsbedingungen werden musterspezifisch wahrgenommen, wobei Personen mit eingeschränktem Engagement bzw. mit einer Resignationstendenz wesentliche Tätigkeitsmerkmale, denen persönlichkeits- und gesundheitsförderliche Wirkung zugesprochen wird, für sich als wenig wichtig beurteilen und sich mehr Defizite im Verhalten gegenüber Patienten bescheinigen.Die Ergebnisse verweisen darauf, dass im Pflegeberuf vor allem die Zurückhaltung im Engagement Anlass für eine kritische Betrachtung sein muss. Das Problem "Burnout" stellt sich in seiner Bedeutung relativiert dar. Günstigere Voraussetzungen für die Aufrechterhaltung und Förderung der Gesundheit bestehen dort, wo im konkreten Arbeitsfeld ein erweiterter Tätigkeits- und Handlungsspielraum sowie mehr Verantwortung vorliegen. Diese Befunde stehen in Einklang mit arbeitspsychologischen Ressourcenmodellen. Die Befunde zu den Pflegeschülern verweisen auf teilweise ungünstige Eignungsvoraussetzungen der Auszubildenden und legen nahe, die Angemessenheit der Anforderungen in den Krankenpflegeschulen zu hinterfragen. Hinsichtlich der Möglichkeiten der Veränderung der Muster in gesundheits- und motivationsdienlicher Weise brachten die Ergebnisse zum Ausdruck, dass verhaltensbezogenen Maßnahmen ohne gleichzeitige bedingungsbezogene Interventionen wenig Erfolg beschieden ist. Mit Blick auf die musterspezifische Wahrnehmung der Tätigkeit und der mit ihr verbundenen Anforderungen und Ausführungsbedingungen ist schließlich grundsätzlich festzuhalten, dass arbeitspsychologische Konzepte, die hohen bzw. komplexen Anforderungen und umfangreichen Freiheitsgraden in der Arbeit grundsätzlich persönlichkeits- und gesundheitsförderliche Wirkungen zuschreiben, einer Relativierung durch eine differentielle Perspektive bedürfen. Die vorgefundene Interaktion von Persönlichkeit und Arbeitsbedingungen hat zur Konsequenz, dass Verhaltens- und Verhältnisprävention in untrennbarem Zusammenhang gesehen werden sollten.
Der Na⁺-K⁺-2Cl⁻-Kotransporter (NKCC2) wird im distalen Nephron der Niere exprimiert. Seine Verteilung umfasst die Epithelien der medullären und kortikalen Teile der dicken aufsteigenden Henle-Schleife (Thick ascending limb, TAL) und die Macula densa. Resorptiver NaCl-Transport über den NKCC2 dient dem renalen Konzentrierungsmechanismus und reguliert systemisch auch Volumenstatus und Blutdruck. Die Aktivität des NKCC2 ist mit der Phosphorylierung seiner N-terminalen Aminosäurereste Serin 126 und Threonin 96/101 verbunden. Vermittelt wird diese durch die homologen Kinasen SPAK (SPS-related proline/alanine-rich kinase) und OSR1 (Oxidative stress responsive kinase 1), die hierzu ihrerseits phosphoryliert werden müssen. Der regulatorische Kontext dieser Kinasen ist mittlerweile gut charakterisiert. Über Mechanismen und Produkte, die den NKCC2 deaktivieren, war hingegen weniger bekannt. Ziel der Arbeit war daher zu untersuchen, welche Wege zur Deaktivierung des Transporters führen. Der intrazelluläre Sortierungsrezeptor SORLA (Sorting-protein-related receptor with A-type repeats) war zuvor in seiner Bedeutung für das Nephron charakterisiert worden. Ein SORLA-defizientes Mausmodell weist unter anderem eine stark verringerte NKCC2-Phosphorylierung auf. Unter osmotischem Stress können SORLA-defiziente Mäuse ihren Urin weniger effizient konzentrieren. Meine Resultate zeigen mit hochauflösender Technik, dass SORLA apikal im TAL lokalisiert ist und dass mit NKCC2 eine anteilige Kolokalisation besteht. Unter SORLA Defizienz war die für die NKCC2 Aktivität maßgebliche SPAK/OSR1-Phosphorylierung gegenüber dem Wildtyp nicht verändert. Jedoch war die ebenfalls im TAL exprimierte Phosphatase Calcineurin Aβ (CnAβ) per Western blot um das zweifache gesteigert. Parallel hierzu wurde immunhistochemisch die Kolokalisation von verstärktem CnAβ-Signal und NKCC2 bestätigt. Beide Befunde geben zusammen den Hinweis auf einen Bezug zwischen der reduzierten NKCC2-Phosphorylierung und der gesteigerten Präsenz von CnAβ bei SORLA Defizienz. Die parallel induzierte Überexpression von SORLA in HEK-Zellen zeigte entsprechend eine Halbierung der CnAβ Proteinmenge. SORLA steuert demzufolge sowohl die Abundanz als auch die zelluläre Verteilung der Phosphatase. Weiterhin ließ sich die Interaktion zwischen CnAβ und SORLA (intrazelluläre Domäne) mittels Co-Immunpräzipitation bzw. GST-pulldown assay nachweisen. Auch die Interaktion zwischen CnAβ und NKCC2 wurde auf diesem Weg belegt. Da allerdings weder SORLA noch NKCC2 ein spezifisches Bindungsmuster für CnAβ aufweisen, sind vermutlich intermediäre Adapterproteine bei ihrer Bindung involviert. Die pharmakologische Inhibition von CnAβ mittels Cyclosporin A (CsA; 1 h) führte bei SORLA Defizienz zur Normalisierung der NKCC2-Phosphorylierung. Entsprechend führte in vitro die Gabe von CsA bei TAL Zellen zu einer 7-fach gesteigerten NKCC2-Phosphorylierung. Zusammenfassend zeigen die Ergebnisse, dass die Phosphatase CnAβ über ihre Assoziation mit NKCC2 diesen im adluminalen Zellkompartiment deaktivieren kann. Gesteuert wird dieser Vorgang durch die Eigenschaft von SORLA, CnAβ apikal zu reduzieren und damit die adluminale Phosphorylierung und Aktivität von NKCC2 zu unterstützen. Da Calcineurin-Inhibitoren derzeit die Grundlage der immunsupprimierenden Therapie darstellen, haben die Ergebnisse eine klinische Relevanz. Angesichts der Co-Expression von SORLA und CnAβ in verschiedenen anderen Organen können die Ergebnisse auch über die Niere hinaus Bedeutung erlangen.
Das homotrimere Tailspikeadhäsin des Bakteriophagen P22 ist ein etabliertes Modellsystem, dessen Faltung, Assemblierung und Stabilität in vivo und in vitro umfassend charakterisiert ist. Das zentrale Strukturmotiv des Proteins ist eine parallele beta-Helix mit 13 Windungen, die von einer N‑terminalen Kapsidbindedomäne und einer C‑terminalen Trimerisierungsdomäne flankiert wird. Jede Windung beinhaltet drei kurze beta-Stränge, die durch turns und loops unterschiedlicher Länge verbunden sind. Durch den sich strukturell wiederholenden, spulenförmigen Aufbau formen beta-Stränge benachbarter Windungen elongierte beta-Faltblätter. Das Lumen der beta-Helix beinhaltet größtenteils hydrophobe Seitenketten, welche linear und sehr regelmäßig entlang der Längsachse gestapelt sind. Eine hoch repetitive Struktur, ausgedehnte beta-Faltblätter und die regelmäßige Anordnung von ähnlichen oder identischen Seitenketten entlang der beta-Faltblattachse sind ebenfalls typische Kennzeichen von Amyloidfibrillen, die bei Proteinfaltungskrankheiten wie Alzheimer, der Creutzfeld-Jakob-Krankheit, Chorea Huntington und Typ-II-Diabetes gebildet werden. Es wird vermutet, dass die hohe Stabilität des Tailspikeproteins und auch die der Amyloidfibrille durch Seitenkettenstapelung, einem geordneten Netzwerk von Wasserstoffbrückenbindungen und den rigiden, oligomeren Verbund bedingt ist. Um den Einfluss der Seitenkettenstapelung auf die Stabilität, Faltung und Struktur des P22 Tailspikeproteins zu untersuchen, wurden sieben Valine in einem im Lumen der beta-Helix begrabenen Seitenkettenstapel gegen das kleinere und weniger hydrophobe Alanin und das voluminösere Leucin substituiert. Der Einfluss der Mutationen wurde anhand zweier Tailspikevarianten, dem trimeren, N‑terminal verkürzten TSPdeltaN‑Konstrukt und der monomeren, isolierten beta-Helix Domäne analysiert. Generell wurde in den Experimenten deutlich, dass Mutationen zu Alanin stärkere Effekte auslösen als Mutationen zu Leucin. Die dichte und hydrophobe Packung im Kern der beta-Helix bildet somit die Basis für Stabilität und Faltung des Proteins. Anhand hoch aufgelöster Kristallstrukturen jeweils zweier Alanin‑ und Leucin‑Mutanten konnte verdeutlicht werden, dass das Strukturmotiv der parallelen beta-Helix stark formbar ist und mutationsbedingte Änderungen des Seitenkettenvolumens durch kleine und lokale Verschiebung der Haupt‑ und Seitenketten ausgeglichen werden, sodass mögliche Kavitäten gefüllt und sterische Spannung abgebaut werden können. Viele Mutanten zeigten in vivo und in vitro einen temperatursensitiven Faltungsphänotyp (temperature sensitive for folding, tsf), d.h. bei Temperaturerhöhung waren die Ausbeuten des N‑terminal verkürzten Trimers im Vergleich zum Wildtyp deutlich verringert. Weiterführende Experimente zeigten, dass der tsf‑Phänotyp durch die Beeinflussung unterschiedlicher Stadien des Reifungsprozesses oder auch durch die Verminderung der kinetischen Stabilität des nativen Trimers ausgelöst wurde. Durch Untersuchungen am vollständigen und am N‑terminal verkürzten Wildtypprotein wurde gezeigt, dass die Entfaltungsreaktion des Tailspiketrimers komplex ist. Die Verläufe der Kinetiken folgen zwar einem apparenten Zweizustandsverhalten, jedoch sind bei Darstellung der Entfaltungsäste im Chevronplot die Abhängigkeiten der Geschwindigkeitskonstanten vom Denaturierungsmittel nicht linear, sondern in unterschiedliche Richtungen gewölbt. Dieses Verhalten könnte durch ein hoch energetisches Entfaltungsintermediat, einen breiten Übergangsbereich oder parallele Entfaltungswege hervorgerufen sein. Mit Hilfe der monomeren, isolierten beta-Helix Domäne, bei der die N‑terminale Capsidbindedomäne und die C‑terminale Trimerisierungsdomäne deletiert sind und welche als unabhängige Faltungseinheit fungiert, wurde gezeigt, dass alle Mutanten im Harnstoff‑induzierten Gleichgewicht analog zum Wildtypprotein einem Zweizustandsverhalten mit vergleichbaren Kooperativitäten folgen. Die konformationellen Stabilitäten von in der beta-Helix zentral gelegenen Alanin‑ und Leucin‑Mutanten sind stark vermindert, während Mutationen in äußeren Bereichen der Domäne keinen Einfluss auf die Stabilität der beta-Helix haben. Bei Verlängerung der Inkubationszeiten der Gleichgewichtsexperimente konnte die langsame Bildung von Aggregaten im Übergangsbereich der destabilisierten Mutanten detektiert werden. Die in der Arbeit erlangten Erkenntnisse lassen vermuten, dass die isolierte beta-Helix einem für die Reifung des Tailspikeproteins entscheidenden thermolabilen Faltungsintermediat auf Monomerebene sehr ähnlich ist. Im Intermediat ist ein zentraler Kern, der die Windungen 4 bis 7 und die „Rückenflosse“ beinhaltet, stabilitätsbestimmend. Dieser Kern könnte als Faltungsnukleus dienen, an den sich sequenziell weitere Helixwindungen anlagern und im Zuge der „Monomerreifung“ kompaktieren.
Die Untersuchung widmet sich der aktuellen Bedeutung von Ethnizität im ländlichen Raum der rumänischen Dobrudscha unter dem Einfluss der politischen und ökonomischen Dimension von Globalisierung. Im Mittelpunkt der Betrachtung von Ethnizität stehen die Aspekte von Inklusion und Exklusion sowie Selbst- und Fremdbeschreibung, die dem sozialen Wandel unterliegen. Mit einem Überblick über die Geschichte der räumlich, wirtschaftlich und sozial peripheren Untersuchungsregion Dobrudscha und der ausgewählten Minderheitengruppen wird die Entwicklung der ethnischen Zusammensetzung der Bevölkerung in der Region dargestellt. Als Fallbeispiele werden sechs Minderheitengruppen gewählt: Aromunen, Roma, russische Lipowaner, Tataren, Türken und Ukrainer. Zentrales Element der Studie bilden qualitative Interviews mit professionellen Beobachtern und Akteuren einerseits, die selbst Einfluss auf die soziale Bedeutung von Ethnizität nehmen, und andererseits mit Einwohnern in 15 ausgewählten Untersuchungsorten in der Dobrudscha. Die erhobenen Daten werden mit Blick auf die soziale Rolle von Ethnizität anhand von drei Faktorengruppen ausgewertet: Globalisierung der Ökonomie, Minderheiten- und Kulturpolitik sowie internationale Beziehungen. Auf dieser Grundlage wird die regionale und lokale Bedeutung ethnischer Kategorisierungen analysiert, um die Wahrnehmung und Bewertung ethnischer Zuordnungen im örtlichen Lebensumfeld zu erfassen.
Risiken für Cyberressourcen können durch unbeabsichtigte oder absichtliche Bedrohungen entstehen. Dazu gehören Insider-Bedrohungen von unzufriedenen oder nachlässigen Mitarbeitern und Partnern, eskalierende und aufkommende Bedrohungen aus aller Welt, die stetige Weiterentwicklung der Angriffstechnologien und die Entstehung neuer und zerstörerischer Angriffe. Informationstechnik spielt mittlerweile in allen Bereichen des Lebens eine entscheidende Rolle, u. a. auch im Bereich des Militärs. Ein ineffektiver Schutz von Cyberressourcen kann hier Sicherheitsvorfälle und Cyberattacken erleichtern, welche die kritischen Vorgänge stören, zu unangemessenem Zugriff, Offenlegung, Änderung oder Zerstörung sensibler Informationen führen und somit die nationale Sicherheit, das wirtschaftliche Wohlergehen sowie die öffentliche Gesundheit und Sicherheit gefährden. Oftmals ist allerdings nicht klar, welche Bedrohungen konkret vorhanden sind und welche der kritischen Systemressourcen besonders gefährdet ist.
In dieser Dissertation werden verschiedene Analyseverfahren für Bedrohungen in militärischer Informationstechnik vorgeschlagen und in realen Umgebungen getestet. Dies bezieht sich auf Infrastrukturen, IT-Systeme, Netze und Anwendungen, welche Verschlusssachen (VS)/Staatsgeheimnisse verarbeiten, wie zum Beispiel bei militärischen oder Regierungsorganisationen. Die Besonderheit an diesen Organisationen ist das Konzept der Informationsräume, in denen verschiedene Datenelemente, wie z. B. Papierdokumente und Computerdateien, entsprechend ihrer Sicherheitsempfindlichkeit eingestuft werden, z. B. „STRENG GEHEIM“, „GEHEIM“, „VS-VERTRAULICH“, „VS-NUR-FÜR-DEN-DIENSTGEBRAUCH“ oder „OFFEN“.
Die Besonderheit dieser Arbeit ist der Zugang zu eingestuften Informationen aus verschiedenen Informationsräumen und der Prozess der Freigabe dieser. Jede in der Arbeit entstandene Veröffentlichung wurde mit Angehörigen in der Organisation besprochen, gegengelesen und freigegeben, so dass keine eingestuften Informationen an die Öffentlichkeit gelangen.
Die Dissertation beschreibt zunächst Bedrohungsklassifikationsschemen und Angreiferstrategien, um daraus ein ganzheitliches, strategiebasiertes Bedrohungsmodell für Organisationen abzuleiten. Im weiteren Verlauf wird die Erstellung und Analyse eines Sicherheitsdatenflussdiagramms definiert, welches genutzt wird, um in eingestuften Informationsräumen operationelle Netzknoten zu identifizieren, die aufgrund der Bedrohungen besonders gefährdet sind. Die spezielle, neuartige Darstellung ermöglicht es, erlaubte und verbotene Informationsflüsse innerhalb und zwischen diesen Informationsräumen zu verstehen.
Aufbauend auf der Bedrohungsanalyse werden im weiteren Verlauf die Nachrichtenflüsse der operationellen Netzknoten auf Verstöße gegen Sicherheitsrichtlinien analysiert und die Ergebnisse mit Hilfe des Sicherheitsdatenflussdiagramms anonymisiert dargestellt. Durch Anonymisierung der Sicherheitsdatenflussdiagramme ist ein Austausch mit externen Experten zur Diskussion von Sicherheitsproblematiken möglich.
Der dritte Teil der Arbeit zeigt, wie umfangreiche Protokolldaten der Nachrichtenflüsse dahingehend untersucht werden können, ob eine Reduzierung der Menge an Daten möglich ist. Dazu wird die Theorie der groben Mengen aus der Unsicherheitstheorie genutzt. Dieser Ansatz wird in einer Fallstudie, auch unter Berücksichtigung von möglichen auftretenden Anomalien getestet und ermittelt, welche Attribute in Protokolldaten am ehesten redundant sind.
Moderne Technologien befähigen die beteiligten Akteure eines Produktionsprozesses die Informationsaufnahme, Entscheidungsfindung und -ausführung selbstständig auszuführen. Hierarchische Kontrollbeziehungen werden aufgelöst und die Entscheidungsfindung auf eine Vielzahl von Akteuren verteilt. Positive Folgen sind unter anderem die Nutzung lokaler Kompetenzen und ein schnelles Handeln vor Ort ohne (zeit-)aufwändige prozessübergreifende Planungsläufe durch eine zentrale Steuerungsinstanz. Die Bewertung der Dezentralität des Prozesses hilft beim Vergleich verschiedener Steuerungsstrategien und trägt so zur Beherrschung komplexerer Produktionsprozesse bei.
Obwohl die Kommunikationsstruktur der an der Entscheidungsfindung beteiligten Akteure zunehmend an Bedeutung gewinnt, existiert keine Methode, welche diese als Grundlage für die Operationalisierung der Dezentralität verwendet. Hier setzt diese Arbeit an. Es wird ein dreistufiges Bewertungsmodell entwickelt, dass die Dezentralität eines Produktionsprozesses auf Basis der Kommunikations- und Entscheidungsstruktur der am Prozess beteiligten, autonomen Akteure ermittelt.
Aufbauend auf einer Definition von Dezentralität von Produktionsprozessen werden Anforderungen an eine Kennzahl erhoben und - auf Basis der Kommunikationsstruktur - eine die strukturelle Autonomie der Akteure bestimmenden Kenngröße der sozialen Netzwerkanalyse ermittelt. Die Notwendigkeit der zusätzlichen Berücksichtigung der Entscheidungsstruktur wird basierend auf der Möglichkeit der Integration von Entscheidungsfindung und -ausführung begründet.
Die Differenzierung beider Faktoren bildet die Grundlage für die Klassifikation der Akteure; die Multiplikation beider Werte resultiert in dem die Autonomie eines Akteurs beschreibenden Kennwert tatsächliche Autonomie, welcher das Ergebnis der ersten Stufe des Modells darstellt. Homogene Akteurswerte charakterisieren eine hohe Dezentralität des Prozessschrittes, welcher Betrachtungsobjekt der zweiten Stufe ist. Durch einen Vergleich der vorhandenen mit der maximal möglichen Dezentralität der Prozessschritte wird auf der dritten Stufe der Autonomie Index ermittelt, welcher die Dezentralität des Prozesses operationalisiert.
Das erstellte Bewertungsmodell wird anhand einer Simulationsstudie im Zentrum Industrie 4.0 validiert. Dafür wird das Modell auf zwei Simulationsexperimente - einmal mit einer zentralen und einmal mit einer dezentralen Steuerung - angewendet und die Ergebnisse verglichen. Zusätzlich wird es auf einen umfangreichen Produktionsprozess aus der Praxis angewendet.
Die Arbeit leistet einen Beitrag zum Transformationsprozess von der schulischen beruflichen Bildung der DDR hin zu den Oberstufenzentren im Land Brandenburg in den 1990er Jahren. Es wird die Triade der Faktoren Institutionentransfer, Personen- und Knowhow-Transfer und Finanztransfer analysiert. Die vollständige Umstrukturierung ist das berufsschulpädagogisch herausragende Ergebnis der Transformation. Es wird herausgearbeitet welche Folgerungen aus dem Transformationsprozess für berufsschulpolitische Reformprozesse zu ziehen sind. Dabei wird der Frage nachgegangen, ob die Übernahme des bundesrepublikanischen beruflichen Schulsystems zwangsläufig der Nutzung einer Blaupause gleichkam oder ob es auch abweichende Wege gegeben hat bzw. generell hätte geben können. Der Transformationsprozess wird nicht auf der Ebene der Einzelschulen, der curricularen und konkreten Ausgestaltung der verschiedenen Bildungsgänge und des Lehrkräfteeinsatzes untersucht, sondern auf der Ebene der Entwicklung der Rahmenbedingungen und der Strukturen der Oberstufenzentren, also auf der Metaebene der Policy als inhaltlicher Dimension von Politik. Damit liegt der Fokus auf dem System „Oberstufenzentrum“. Die Untersuchung dieses Systems klammert die Untersuchung der Handelnden aus: Die untere Schulaufsicht, die OSZ-Leitungen, die Lehrkräfte und nicht zuletzt die Schülerinnen und Schüler. Die Analyse dient dem Verständnis und der Interpretation dessen, was sich sowohl durch die bundesstaatlichen Vorgaben – Einigungsvertrag u.a. – als auch durch das berufsbildungs- und berufsschulpolitische Handeln beteiligter Akteure herausbilden konnte. Die inhaltliche Dimension des berufsbildungs- und berufsschulpolitischen Feldes innerhalb des politisch-administrativen Systems im engeren Sinn wird überwiegend bezogen auf die KMK untersucht; ebenso die externen Akteure und ihre Rolle. Es wird herausgearbeitet welche Folgerungen aus dem Transformationsprozess für berufsbildungs- und berufsschulpolitische Reformprozesse gezogen werden können. Gegenstand der Untersuchung sind ausgewählte Beiträge zu verschiedenen Aspekten der Entwicklung der Oberstufenzentren im Land Brandenburg. Gegenstand sind deshalb ausgewählte Rechtsgrundlagen, Fachaufsätze etc. sowie durch Arbeitspapiere dokumentierte Aspekte der berufsschul- und berufsbildungspolitischen Diskussion in der Wendezeit und nachfolgenden nach der Gründung des Landes Brandenburg. Anhand von Vergleichen der rechtlichen Ausgangslagen in den fünf ostdeutschen Ländern wird analysiert, ob es verfassungs- respektive schulrechtliche Besonderheiten gab, die zu unterschiedlichem ministeriellen Handeln führten bzw. führen mussten. Die wiedergegebenen Beiträge zur Entwicklung der Oberstufenzentren werden bezüglich der Relevanz von KMK-Beschlüssen bzw. -Rahmenvereinbarungen untersucht und kommentiert. Der Institutionentransfer besteht aus dem Beitritt der ostdeutschen Länder zur Geschäftsordnung der KMK, der daraus resultierenden Übernahme der Schulformen und Bildungsgänge einschließlich der rechtlichen Folgen durch Schaffung des Schulrechts in den Ländern. Der Personen- und Knowhow-Transfer fand auf der Ebene der entsandten Verwaltungsmitarbeiterinnen und -mitarbeiter der Kultusministerien und der Mittelbehörden statt. Für den Transformationsprozess während des hier interessierenden Untersuchungszeitraums werden Berufsschul- und berufsbildungspolitische Aspekte, bzw. im umfassenderen Sinne die der Berufsbildungswissenschaft erstmalig mit der vorliegenden Untersuchung reflektiert. Insofern kann diese als Beitrag zur historisch-berufsbildungswissenschaftlichen Forschung betrachtet werden.