Refine
Year of publication
- 2010 (134) (remove)
Document Type
- Doctoral Thesis (134) (remove)
Language
- German (134) (remove)
Is part of the Bibliography
- yes (134)
Keywords
- Neue Ökonomische Geographie (2)
- 126a StPO (1)
- 2D city model (1)
- 2D-Stadtmodell (1)
- 3D visualization (1)
- 3D-Visualisierung (1)
- ANP (1)
- Aerosol (1)
- Africa (1)
- Afrika (1)
Institute
- Wirtschaftswissenschaften (19)
- Institut für Biochemie und Biologie (15)
- Öffentliches Recht (15)
- Institut für Chemie (12)
- Institut für Ernährungswissenschaft (9)
- Historisches Institut (8)
- Bürgerliches Recht (7)
- Institut für Physik und Astronomie (7)
- Sozialwissenschaften (6)
- Department Sport- und Gesundheitswissenschaften (4)
Die Neue Ökonomische Geographie (NEG) erklärt Agglomerationen aus einem mikroökonomischen Totalmodell heraus. Zur Vereinfachung werden verschiedene Symmetrieannahmen getätigt. So wird davon ausgegangen, dass die betrachteten Regionen die gleiche Größe haben, die Ausgabenanteile für verschiedene Gütergruppen identisch sind und die Transportkosten für alle Industrieprodukte die selben sind. Eine Folge dieser Annahmen ist es, dass zwar erklärt werden kann, unter welchen Bedingungen es zur Agglomerationsbildung kommt, nicht aber wo dies geschieht. In dieser Arbeit werden drei Standardmodelle der NEG um verschiedene Asymmetrien erweitert und die Veränderung der Ergebnisse im Vergleich zum jeweiligen Basismodell dargestellt. Dabei wird neben der Theorie auf die Methoden der Simulation eingegangen, die sich grundsätzlich auf andere Modelle übertragen lassen. Darauf aufbauend wird eine asymmetrische Modellvariante auf die wirtschaftliche Entwicklung Deutschlands angewandt. So lässt sich das Ausbleiben eines flächendeckenden Aufschwungs in den neuen Ländern, die starken Wanderungsbewegungen in die alten Länder und das dauerhafte Lohnsatzgefälle in einem Totalmodell erklären.
Die Analyse vergleicht Installationen von Bruce Nauman und Olafur Eliasson ausgehend von der Fragestellung, wie sich die künstlerischen Performativitätsstrategien der 1960er/70er Jahren und die der zeitgenössischen Kunst in ihren Wirkungen und Effekten unterscheiden lassen. Dabei werden die Positionen der beiden Künstler als paradigmatisch für eine Ästhetik des Performativen angesehen. Neben dem Vergleich der Künstler steht die theoretische Auseinandersetzung mit der Diskursfigur der Performativität sowie deren methodischen Anwendbarkeit in der Kunstwissenschaft im Vordergrund. Während sich Installationen der 1960er/70er Jahre besonders durch die psycho-physische Einwirkung auf die Sinneswahrnehmung des Betrachters auszeichnen und durchaus Schockeffekte beim Betrachter hervorrufen, befasst sich die zeitgenössische Kunstpraxis vornehmlich mit visuellen und poetischen Effekten, die eine kontemplative Rezeptionshaltung des Betrachters einfordern. Bruce Nauman war es ein Anliegen, den tradierten Status des Kunstwerks als ein zu Betrachtendes, das sich durch Begriffe wie Form, Ursprung und Originalität fassen ließ, in Frage zu stellen und stattdessen eine reale leibliche Erfahrung für den Betrachter nachvollziehbar werden zu lassen. Künstlern wie Olafur Eliasson geht es in den künstlerischen Produktionen vor allem um die Wahrnehmung der Wahrnehmung sowie der Erzeugung von Präsenzeffekten. Mit dem Aufkommen solcher Verfahren wurde deutlich, dass performative Installationen nach anderen Beschreibungsformen verlangten und, dass diese durch eine Ästhetik des Performativen gefasst werden können. Wie genau vollzieht sich der Wandel von den performativen Strategien der 1960er/70er Jahre zu denen der zeitgenössischen Installationskünstlern? Verläuft dieser vom Schock zur Poesie?
Chanson und Volkslied : Repression und Konkurrenzen einer Gattung im Frankreich des 19. Jahrhunderts
(2010)
Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden.
Um Prozesse in biologischen Systemen auf molekularer Ebene zu untersuchen, haben sich vor allem fluoreszenzspektroskopische Methoden bewährt. Die Möglichkeit, einzelne Moleküle zu beobachten, hat zu einem deutlichen Fortschritt im Verständnis von elementaren biochemischen Prozessen geführt. Zu einer der bekanntesten Methoden der Einzelmolekülspektroskopie zählt die Fluoreszenz-Korrelations-Spektroskopie (FCS), mit deren Hilfe intramolekulare und diffusionsgesteuerte Prozesse in einem Zeitbereich von µs bis ms untersucht werden können. Durch die Verwendung von sog. Fluoreszenzsonden können Informationen über deren molekulare Mikroumgebung erhalten werden. Insbesondere für die konfokale Mikroskopie und die Einzelmolekülspektroskopie werden Fluoreszenzfarbstoffe mit einer hohen Photostabilität und hohen Fluoreszenzquantenausbeute benötigt. Aufgrund ihrer hohen Fluoreszenzquantenausbeute und der Möglichkeit, maßgeschneiderte“ Farbstoffe in einem breiten Spektralbereich für die Absorption und Fluoreszenz zu entwickeln, sind Cyaninfarbstoffe von besonderem Interesse für bioanalytische Anwendungen. Als Fluoreszenzmarker finden diese Farbstoffe insbesondere in der klinischen Diagnostik und den Lebenswissenschaften Verwendung. Die in dieser Arbeit verwendeten Farbstoffe DY-635 und DY-647 sind zwei typische Vertreter dieser Farbstoffklasse. Durch Modifizierung können die Farbstoffe kovalent an biologisch relevante Moleküle gebunden werden. Aufgrund ihres Absorptionsmaximums oberhalb von 630nm werden sie insbesondere in der Bioanalytik eingesetzt. In der vorliegenden Arbeit wurden die spektroskopischen Eigenschaften der Cyaninfarbstoffe DY-635 und DY-647 in biomimetischen und biologischen Modellsystemen untersucht. Zur Charakterisierung wurden dabei neben der Absorptionsspektroskopie insbesondere fluoreszenzspektroskopische Methoden verwendet. Dazu zählen die zeitkorrelierte Einzelphotonenzählung zur Ermittlung des Fluoreszenzabklingverhaltens, Fluoreszenz-Korrelations-Spektroskopie (FCS) zur Beobachtung von Diffusions- und photophysikalischen Desaktivierungsprozessen und die zeitaufgelöste Fluoreszenzanisotropie zur Untersuchung der Rotationsdynamik und Beweglichkeit der Farbstoffe im jeweiligen Modellsystem. Das Biotin-Streptavidin-System wurde als Modellsystem für die Untersuchung von Protein-Ligand-Wechselwirkungen verwendet, da der Bindungsmechanismus weitgehend aufgeklärt ist. Nach Bindung der Farbstoffe an Streptavidin wurde eine erhebliche Veränderung in den Absorptions- und Fluoreszenzeigenschaften beobachtet. Es wird angenommen, dass diese spektralen Veränderungen durch Wechselwirkung von benachbarten, an ein Streptavidintetramer gebundenen Farbstoffmolekülen und Bildung von H-Dimeren verursacht wird. Für das System Biotin-Streptavidin ist bekannt, dass während der Bindung des Liganden (Biotin) an das Protein eine Konformationsänderung auftritt. Anhand von zeitaufgelösten Fluoreszenzanisotropieuntersuchungen konnte in dieser Arbeit gezeigt werden, dass diese strukturellen Veränderungen zu einer starken Einschränkung der Beweglichkeit des Farbstoffes DY-635B führen. Liegt eine Mischung von ungebundenem und Streptavidin-gebundenem Farbstoff vor, können die Anisotropieabklingkurven nicht nach einem exponentiellen Verlauf angepasst werden. Es konnte im Rahmen dieser Arbeit gezeigt werden, dass in diesem Fall die Auswertung mit Hilfe des Assoziativen Anisotropiemodells möglich ist, welches eine Unterscheidung der Beiträge aus den zwei verschiedenen Mikroumgebungen ermöglicht. Als zweites Modellsystem dieser Arbeit wurden Mizellen des nichtionischen Tensids Tween-20 eingesetzt. Mizellen bilden eines der einfachsten Systeme, um die Mikroumgebung einer biologischen Membran nachzuahmen. Sind die Farbstoffe in den Mizellen eingelagert, so kommt es zu keiner Veränderung der Mizellgröße. Die ermittelten Werte des Diffusionskoeffizienten der mizellar eingelagerten Farbstoffe spiegeln demzufolge die Translationsbewegung der Tween-20-Mizellen wider. Die Beweglichkeit der Farbstoffe innerhalb der Tween-20-Mizellen wurde durch zeitaufgelöste Fluoreszenzanisotropiemessungen untersucht. Neben der „Wackelbewegung“, entsprechend dem wobble-in-a-cone-Modell, wird zusätzlich noch die laterale Diffusion der Farbstoffe entlang der Mizelloberfläche beschrieben.
Der Anstieg der Energiepreise kann zu einer länger anhaltenden Verteuerung von Gütertransporten führen. Welche Auswirkungen haben steigende Transportkosten auf die Entwicklung von Städtesystemen? Ein solcher Transportkostenanstieg hat in der Russischen Föderation nach der Preisliberalisierung 1992 real, d.h. in Relation zu den Preisen anderer Gütergruppen stattgefunden. Gleichzeitig stellt die Bevölkerungsstatistik der Russischen Föderation Daten bereit, mit deren Hilfe Hypothesen zur Entwicklung von Städtesystemen unter dem Einfluss steigender Transportkosten geprüft werden können. Diese Daten werden in der vorliegenden Arbeit umfassend ausgewertet. Den theoretischen Hintergrund liefert die Modellierung eines Städtesystems mit linearer Raumstruktur im Rahmen der Neuen Ökonomischen Geographie. Damit wird ein Werkzeug geschaffen, das auch auf weiträumige Städtesysteme mit ausgeprägter Bandstruktur angewendet werden kann. Die hier erstmals erfolgte ausführliche Erläuterung des zu Grunde liegenden Theorieansatzes versteht sich als Ergänzung der Standardlehrbücher der Raumwirtschaftstheorie. Die Ergebnisse der empirischen Untersuchung bestätigen die Prognose des Modells, dass in großflächigen Ländern bzw. Regionen mit Ähnlichkeit zur unterstellten Raumstruktur ein Anstieg der Transportkosten Konzentrationstendenzen in den Zentren befördert, während die peripheren Regionen zunehmend abgekoppelt werden.
Der Einfluss der Dynamik auf die stratosphärische Ozonvariabilität über der Arktis im Frühwinter
(2010)
Der frühwinterliche Ozongehalt ist ein Indikator für den Ozongehalt im Spätwinter/Frühjahr. Jedoch weist dieser aufgrund von Absinkprozessen, chemisch bedingten Ozonabbau und Wellenaktivität von Jahr zu Jahr starke Schwankungen auf. Die vorliegende Arbeit zeigt, dass diese Variabilität weitestgehend auf dynamische Prozesse während der Wirbelbildungsphase des arktischen Polarwirbels zurückgeht. Ferner wird der bisher noch ausstehende Zusammenhang zwischen dem früh- und spätwinterlichen Ozongehalt bezüglich Dynamik und Chemie aufgezeigt. Für die Untersuchung des Zusammenhangs zwischen der im Polarwirbel eingeschlossenen Luftmassenzusammensetzung und Ozonmenge wurden Beobachtungsdaten von Satellitenmessinstrumenten und Ozonsonden sowie Modellsimulationen des Lagrangschen Chemie/Transportmodells ATLAS verwandt. Die über die Fläche (45–75°N) und Zeit (August-November) gemittelte Vertikalkomponente des Eliassen-Palm-Flussvektors durch die 100hPa-Fläche zeigt eine Verbindung zwischen der frühwinterlichen wirbelinneren Luftmassenzusammensetzung und der Wirbelbildungsphase auf. Diese ist jedoch nur für die untere Stratosphäre gültig, da die Vertikalkomponente die sich innerhalb der Stratosphäre ändernden Wellenausbreitungsbedingungen nicht erfasst. Für eine verbesserte Höhendarstellung des Signals wurde eine neue integrale auf der Wellenamplitude und dem Charney-Drazin-Kriterium basierende Größe definiert. Diese neue Größe verbindet die Wellenaktivität während der Wirbelbildungsphase sowohl mit der Luftmassenzusammensetzung im Polarwirbel als auch mit der Ozonverteilung über die Breite. Eine verstärkte Wellenaktivität führt zu mehr Luft aus niedrigeren ozonreichen Breiten im Polarwirbel. Aber im Herbst und Frühwinter zerstören chemische Prozesse, die das Ozon ins Gleichgewicht bringen, die interannuale wirbelinnere Ozonvariablität, die durch dynamische Prozesse während der arktischen Polarwirbelbildungsphase hervorgerufen wird. Eine Analyse in Hinblick auf den Fortbestand einer dynamisch induzierten Ozonanomalie bis in den Mittwinter ermöglicht eine Abschätzung des Einflusses dieser dynamischen Prozesse auf den arktischen Ozongehalt. Zu diesem Zweck wurden für den Winter 1999–2000 Modellläufe mit dem Lagrangesche Chemie/Transportmodell ATLAS gerechnet, die detaillierte Informationen über den Erhalt der künstlichen Ozonvariabilität hinsichtlich Zeit, Höhe und Breite liefern. Zusammengefasst, besteht die dynamisch induzierte Ozonvariabilität während der Wirbelbildungsphase länger im Inneren als im Äußeren des Polarwirbels und verliert oberhalb von 750K potentieller Temperatur ihre signifikante Wirkung auf die mittwinterliche Ozonvariabilität. In darunterliegenden Höhenbereichen ist der Anteil an der ursprünglichen Störung groß, bis zu 90% auf der 450K. Innerhalb dieses Höhenbereiches üben die dynamischen Prozesse während der Wirbelbildungsphase einen entscheidenden Einfluss auf den Ozongehalt im Mittwinter aus.
Die Aufsichtspflicht öffentlicher Einrichtungen nach § 832 BGB - im Spannungsfeld zur Amtshaftung
(2010)
Der SC Motor/FC Carl Zeiss Jena war seit Ende der 50-er Jahre bis in die 80-er Jahre hinein ein vom DFV der DDR und vom DTSB immer wieder benannter und bestätigter Schwerpunktclub innerhalb der sogenannten zivilen Clubs. Der SC Turbine/FC Rot-Weiß Erfurt konnte diesen Status innerhalb des Fußballverbands dagegen nie erreichen. Die zentrale Frage dieser Dissertation nach den spezifischen Bedingungsgefügen des zivilen Schwerpunktclubs FC Carl Zeiss Jena (und Vorgänger) und des zivilen Nichtschwerpunktclubs FC Rot-Weiß Erfurt (und Vorgänger) im DDR-Fußballsystem ergab sich aus dieser unterschiedlichen Privilegierung und den ungleichen Erfolgsbilanzen dieser beiden Clubs. Die Hypothese der komparativ angelegten Fallstudie vermutete einen unmittelbaren Zusammenhang zwischen diesen deutlich sichtbaren Erfolgsunterschieden der beiden Mannschaften in der DDR und den erfolgten Schwerpunktfestlegungen. Zusätzlich konnte vermutet werden, dass ein beträchtlicher Anteil an den Jenaer Erfolgen auf die besonders starke Unterstützung des wirtschaftlich mächtigen VEB Carl Zeiss Jena zurückzuführen war. Um diesen Zusammenhängen nachzugehen, fragte der Autor nach den konkreten Bevorzugungen des Jenaer Schwerpunktclubs und den Benachteiligungen des Erfurter Nichtschwerpunktclubs und nach den spezifischen Bedingungen und Handlungsspielräumen der beiden Thüringer Mannschaften in der DDR. Daraus ergaben sich eine Reihe von detaillierten, auf einen Vergleich der verschiedenen Bedingungen in Erfurt und in Jena hin orientierte, Fragen, welche in der vorliegenden Untersuchung detailliert beantwortet werden: Wie sah die besondere Förderung des DFV bzw. des DTSB für einen Schwerpunktclub wie Jena überhaupt aus? Wer nahm Einfluss auf die Clubs, von wem waren diese abhängig, wer förderte sie durch welche Leistungen? Wie wurden diese Beschlüsse vor Ort umgesetzt? Wer waren die Trägerbetriebe und in welchem Maße und wodurch engagierten sich diese für den Fußball in Erfurt und Jena? Wie kamen die häufigen Wechsel der besten Spieler Erfurts nach Jena zustande? Warum war die Richtung dieser Wechsel insgesamt einseitig in Richtung Jena? Welche finanziellen, materiellen und sozialen Bedingungen konnten den Spielern in Jena und Erfurt geboten werden? Die vorliegenden Ergebnisse dieser erstmals für die zivilen Clubs auf der Mikroperspektive angelegten systematischen Untersuchung bestätigen das bereits von Hans Joachim Teichler als grundlegend für den DDR-Fußball beschriebene Konfliktmuster des „Fußball-Lokalpatriotismus versus Parteiräson“. Eigenmächtige Handlungen vieler Betriebsleiter und zahlreicher Partei- und Gewerkschaftsfunktionäre in den Trägerbetrieben konnten beispielsweise in Erfurt bei der eigenmächtigen Erhöhung der Aufnahmezahlen von Fußballern an die KJS Erfurt oder in Jena bei der Anstellung der Fußballer im Zeisswerk nachgewiesen werden. Das am sowjetischen Vorbild orientierte Sportsystem der DDR mit seinen engen Bindungen an die Trägerbetriebe provozierte geradezu verdeckte Zuwendungen der Betriebe, die über die Clubs an die Spieler weitergereicht wurden. Für die zentralen Instanzen des DDR-Fußballs war das ein Dauerproblem, weil sich damit ein Großteil der Vorgänge vor Ort der Steuerung entzog. Wie in der vorliegenden Arbeit beschrieben wird, war genau dies jedoch der Schlüssel für den Erfolg des SC Motor/FC Carl Zeiss Jena vom Ende der 50-er bis in den Anfang der 80-er Jahre bzw. für den vergleichsweisen Misserfolg des SC Turbine/FC Rot-Weiß Erfurt im gleichen Zeitraum. Dass letztlich die finanziellen, materiellen und sozialen Möglichkeiten die entscheidende Gründe für die Spieler waren, zu einem anderen Club oder einer BSG zu wechseln, mithin demnach Marktmechanismen, und hier in erster Linie der Grund für die Stärke des SC Motor/FC Carl Zeiss Jena zu suchen ist, ist eine zentrale Erkenntnis dieser Arbeit.
Am 22. Oktober 1565 beauftragte der Herzog Julius von Braunschweig-Wolfenbüttel seinen Prediger Martin Chemnitz, das literarische Oeuvre des Magisters Cyriacus Spangenberg auf dem Buchmarkt ausfindig zu machen, prunkvoll binden zu lassen und in den herzöglichen Bibliotheksbestand aufzunehmen. 64 Werke mit gut 6000 Seiten hatte der Mansfelder Generaldekan Spangenberg zu diesem Zeitpunkt bereits verfasst, seine Amtskollegen in der sächsischen Grafschaft hatten ihrerseits 64 Bücher veröffentlicht. Bis zum Abgang Spangenbergs aus Mansfeld 1574 verdoppelte sich die Anzahl geistlicher Veröffentlichungen Mansfelder Provenienz. Obwohl zu Lebzeiten breit rezipiert, hat die Publizistik der geistlichen "Druckmetropole" Mansfeld in der Geschichte und Kirchengeschichte wenig Beachtung gefunden. Die vorliegende Dissertation will diese Forschungslücke schließen. Die Mansfelder Prediger verfassten Lehrpredigten, Festpredigten, Trostpredigten, Katechismen, theologische Disputationen, historische Abhandlungen und geistliche Spiele in hoher Zahl und publizierten diese unter geschickter Ausnutzung der Mechanismen der frühneuzeitlichen Buchmarktes reichsweit. Ihre Veröffentlichungen richteten sich an Theologen, "Weltkinder" und "Einfältige". Sie generierten Verbindungen zu den Kirchen und Potentaten Nord- und Süddeutschlands, Frankreichs und der Niederlande und führten zu Kontroversen mit den großen Bildungszentren Mitteldeutschlands Wittenberg, Leipzig und Jena und deren Landesherren. Die Frage nach der Motivation für das Engagement der Mansfelder Prediger auf dem Buchmarkt steht im Zentrum der Untersuchung, die in einem synoptischen Verfahren den Wunsch nach Teilhaberschaft an der Ausbildung der kirchlichen, herrschaftlichen, sozialen und kommunikativen Strukturen als zentrales Motiv der schreibenden Theologen herausarbeitet, aber auch die Absicht der Autoren beweist, der Grafschaft Mansfeld über das Medium Buch als lutherischem Bildungszentrum in Europa Geltung zu verschaffen.
Ziel dieser Arbeit ist die Überwindung einer Differenz, die zwischen der Theorie der Phase bzw. der Phasendynamik und ihrer Anwendung in der Zeitreihenanalyse besteht: Während die theoretische Phase eindeutig bestimmt und invariant unter Koordinatentransformationen bzw. gegenüber der jeweils gewählten Observable ist, führen die Standardmethoden zur Abschätzung der Phase aus gegebenen Zeitreihen zu Resultaten, die einerseits von den gewählten Observablen abhängen und so andererseits das jeweilige System keineswegs in eindeutiger und invarianter Weise beschreiben. Um diese Differenz deutlich zu machen, wird die terminologische Unterscheidung von Phase und Protophase eingeführt: Der Terminus Phase wird nur für Variablen verwendet, die dem theoretischen Konzept der Phase entsprechen und daher das jeweilige System in invarianter Weise charakterisieren, während die observablen-abhängigen Abschätzungen der Phase aus Zeitreihen als Protophasen bezeichnet werden. Der zentrale Gegenstand dieser Arbeit ist die Entwicklung einer deterministischen Transformation, die von jeder Protophase eines selbsterhaltenden Oszillators zur eindeutig bestimmten Phase führt. Dies ermöglicht dann die invariante Beschreibung gekoppelter Oszillatoren und ihrer Wechselwirkung. Die Anwendung der Transformation bzw. ihr Effekt wird sowohl an numerischen Beispielen demonstriert - insbesondere wird die Phasentransformation in einem Beispiel auf den Fall von drei gekoppelten Oszillatoren erweitert - als auch an multivariaten Messungen des EKGs, des Pulses und der Atmung, aus denen Phasenmodelle der kardiorespiratorischen Wechselwirkung rekonstruiert werden. Abschließend wird die Phasentransformation für autonome Oszillatoren auf den Fall einer nicht vernachlässigbaren Amplitudenabhängigkeit der Protophase erweitert, was beispielsweise die numerischen Bestimmung der Isochronen des chaotischen Rössler Systems ermöglicht.
Pektatlyase (Pel-15) aus dem alkalophilen Bodenbakterium Bacillus spec. KSM-P15 ist mit 197 Aminosäuren eines der kleinsten, bekannten β-3-Solenoidproteine. Sie spaltet Polygalakturonsäurederivate in einem Ca2+-abhängigen β-Eliminierungsprozess. Wie bei allen Proteinen dieser Enzymfamilie ist auch die Polypeptidkette von Pel-15 zu einer einsträngigen, rechtsgängigen, parallelen β-Helix aufgewunden. In diesem Strukturmotiv enthält jede Windung drei β-Stränge, die jeweils durch flexible Schleifenbereiche miteinander verbunden sind. Insgesamt acht Windungen stapeln sich in Pel-15 übereinander und bilden entlang der Helixachse flächige, parallele β-Faltblätter aus. Im Bereich dieser β-Faltblätter existiert ein ausgedehntes Netzwerk von Wasserstoffbrückenbindungen, durch das der hydrophobe Kern, der sich im Inneren der β-Helix befindet, vom umgebenden Lösungsmittel abgeschirmt wird. Besondere Abschlussstrukturen an beiden Enden der β-Helix, wie sie typischerweise bei anderen Ver-tretern dieser Strukturklasse ausgeprägt werden, sind in Pel-15 nicht zu beobachten. Stattdessen sind die terminalen Bereiche der β-Helix über Salzbrücken und hydrophobe Seitenkettenkontakte stabilisiert. In der vorliegenden Dissertation wurde die Pektatlyase Pel-15 hinsichtlich ihres Faltungsgleichgewichtes, ihrer enzymatischen Aktivität und der Kinetik ihrer Strukturbildung charakterisiert. In eine evolutionär konservierte Helixwindung wurden destabilisierende Mutationen eingeführt, und deren Auswirkungen mittels spektroskopischer Methoden analysiert. Die Ergebnisse zeigen, dass Pel-15 in Gegenwart des Denaturierungsmittels Guanidiniumhydrochlorid einen hyperfluoreszenten Gleichgewichtsustand (HF) populiert, der nach Messungen von Faltungs- und Entfaltungskinetiken ein konformationelles Ensemble aus den Zuständen HFslow und HFfast darstellt. Diese HF-Zustände sind durch eine hohe Aktivierungsbarriere voneinander getrennt. In Rückfaltungsexperimenten populieren nur etwa 80 % der faltenden Moleküle den Zwischenzustand HFslow, der mit einer Zeitkonstante von ca. 100 s zu HFfast weiterreagiert. Die Denaturierungsmittelabhängigkeit dieser Reaktion ist sehr gering, was eine trans-/cis-Prolylisomerisierung als geschwindigkeitslimitierenden Schritt nahelegt. Die Existenz eines cis-Peptides in der nativen Struktur macht es erforderlich, den denaturierten Zustand als ein Ensemble kinetisch separierter Konformationen, kurz: DSE, zu betrachten, das durch die Spezies Ufast und Uslow populiert wird. Nach dem in dieser Arbeit aufgestellten „Minimalmodell der Pel-15 Faltung“ stehen die HF-Spezies (HFslow, HFfast) mit den Konformationen des DSE in einem thermodynamischen Kreisprozess. Das Modell positioniert HFfast und die native Konformation N auf die „native Seite“ der Aktivierungsbarriere und trägt damit der Tatsache Rechnung, dass die Gleichgewichtseinstellung zwischen diesen Spezies zu schnell ist, um mit manuellen Techniken erfasst zu werden. Die hochaffine Bindung von Ca2+ (Kd = 10 μM) verschiebt sich das Faltungsgleichgewicht bereits in Gegenwart von 1 mM CaCl2 soweit auf die Seite des nativen Zustandes, das HFfast nicht länger nachweisbar ist. Entgegen anfänglicher Vermutungen kommt einer lokalen, evolutionär konservierten Disulfidbrücke im Zentrum der β-Helix eine wichtige Stabilisierungsfunktion zu. Die Disulfidbrücke befindet sich in einem kurzen Schleifenbereich der β-Helix nahe dem aktiven Zentrum. Obwohl ihr Austausch gegen die Reste Val und Ala die freie Stabilisierungsenthalpie des Proteins um ca. 10 kJ/mol reduziert, lässt die Struktur im Bereich der Mutationsstelle keine gravierende Veränderung erkennen. Auch die katalytisch relevante Ca2+-Bindungsaffinität bleibt unbeeinflusst; dennoch zeigen Enzymaktivitätstests für VA-Mutanten eine Reduktion der enzymatischen Aktivität um fast 50 % an. Die evolutionär konservierte Helixwindung im Allgemeinen und die in ihr enthaltene Disulfidbrücke im Besonderen müssen nach den vorliegenden Ergebnissen also eine zentrale Funktion sowohl für die Struktur des katalytischen Zentrums als auch für die Strukturbildung der β-Helix während der Faltungsreaktion besitzen. Die Ergebnisse dieser Arbeit finden in mehreren Punkten Anklang an Faltungseigenschaften, die für andere β -Helixproteine beschrieben wurden. Vor allem aber prädestinieren sie Pel-15 als ein neues, β-helikales Modellprotein. Aufgrund seiner einfachen Topologie, seiner niedrigen Windungszahl und seiner hohen thermodynamischen Stabilität ist Pel-15 sehr gut geeignet, die Determinanten von Stabilität und Strukturbildung des parallelen β-Helix-Motivs in einer Auflösung zu studieren, die aufgrund der Komplexität bestehender β-helikaler Modellsysteme bislang nicht zur Verfügung stand.
Die Zerbrechlichkeit des Wahren : Richard Rortys Neopragmatismus und Adornos Negative Dialektik
(2010)
Als Schnittstelle zwischen der Lokal- und der Staatsebene konnten die Landkreise ihre Stellung im politischen System Deutschlands bewahren und ausbauen. Optimierungsbedarf hat sich aufgrund des sozioökonomischen, technischen und demographischen Wandel sowie der öffentlichen Finanzkrise ergeben. Kreisgebietsreformmodelle und die Ausweitung der Aufgabenkooperation dominieren die Reformdebatte. Neben den verfassungsrechtlichen Anforderungen und der Akzeptanz der Reform bei den Betroffenen ist der Reformerfolg wesentlich von der Qualität der Umsetzungsstrategie abhängig. Der aktivierenden Einbeziehung der Mitarbeiter in den Reformprozess kommt dabei eine besondere Bedeutung zu.
Personalauswahlentscheidungen zeichnen sich durch eine hohe Komplexität aus. Die damit verbundene Unsicherheit lässt Entscheider vielfach die Verantwortung an teure Personalauswahlverfahren oder an Personalberater abgeben. Diese Arbeit gibt einen Überblick über die bestehende Personalauswahlforschung und zeigt dabei auf, wie das rationale Paradigma in der Personalauswahl Emotionen als Entscheidungshilfe bisher systematisch ausgegrenzt. Denn Personalverantwortliche stoßen im Rahmen der Auswahlentscheidung immer wieder auf die Frage nach dem „richtigen“ Verhältnis von Emotionen und Verstand: Kann oder soll ich sogar meinen Gefühlen vertrauen? Um eine Antwort auf diese Frage zu finden, wurden mehrere Entscheider vom Top-Management bis zum Kleinunternehmer befragt. Das Ergebnis ist eine Studie, welche die vielfältigen Strategien im Umgang mit Emotionen in Entscheidungsprozessen analysiert und darstellt. Es wird aufgezeigt, wie Emotionen einerseits Entscheider behindern, stören und Kosten verursachen und wie man anderseits mit einer gewinnbringenden Integration von Emotionen zu besseren Personalentscheidungen gelangen kann. Dabei verknüpft die vorliegende Untersuchung die neuesten Erkenntnisse der Hirnforschung mit der praxisorientierten Welt von Personalentscheidern. Emotionen sind Teil von Entscheidungen. Dies für sich zu erkennen und richtig zu nutzen, führt nach Ansicht des Autors zu besseren und zufriedenstellenderen Entscheidungen.
Öffentlich Private Partnerschaften (ÖPPs) haben in den letzten zehn bis fünfzehn Jahren in Deutschland einen beachtlichen Stellenwert erreicht. Auch zukünftig ist aufgrund der Finanzkrise der Kommunen mit einem weiteren Bedeutungszuwachs zu rechnen. Damit ÖPPs die von der öffentlichen Hand gewünschten Vorteile mit sich bringen können, wie zum Beispiel die Entlastung des öffentlichen Haushalts oder Effizienzsteigerungen, sollten sie im Vorfeld und im Tagesgeschäft aktiv und umsichtig begleitet werden. In diesem Zusammenhang ergibt sich der Ansatzpunkt für die Themenstellung der Dissertation sowie angesichts der Erkenntnis, dass bisher noch keine umfassend fundierten und systematischen Untersuchungen vorliegen, welche die bestehenden Praxiserfahrungen mit ÖPPs mit anwendbaren Theorien in Verbindung setzen und Entscheidungshilfen für öffentliche Akteure ableiten. Aufgrund der verschiedenen möglichen Ausprägungsformen wurde eine Eingrenzung des Themas auf institutionelle ÖPPs auf kommunaler Ebene vorgenommen. Die Untersuchung beginnt mit der Auseinandersetzung der Grundlagen zu ÖPPs, um ein generelles Verständnis für dieses Themengebiet zu schaffen. Nachdem der Begriff erläutert und Merkmale von ÖPPs herausgearbeitet wurden, erfolgt eine Abgrenzung zwischen vertraglichen und institutionellen ÖPPs. Daraufhin werden mögliche Motive der öffentlichen und privaten Seite beim Eingehen einer solchen Partnerschaft aufgeführt sowie erste mögliche Chancen und Risiken skizziert. Im Anschluss erfolgt mit Hilfe der wissenschaftlichen Theorie des Neuen Institutionalismus eine vertiefende Analyse zu institutionellen ÖPPs. Dabei schließt sich die Dissertation an die von Mayntz und Scharpf vorgenommene Einteilung in einen ökonomischen, (organisations-) soziologischen und politikwissenschaftlichen Neo-Institutionalismus an. Der Neue Ökonomische Institutionalismus wurde anhand der drei Teillehren Transaktionskostentheorie, Prinzipal-Agent-Theorie und Theorie der Verfügungsrechte untersucht. Zunächst werden theoretische Erkenntnisse zu den einzelnen Theorien herausgearbeitet und erste Schlussfolgerungen für institutionelle ÖPPs gezogen. Daraus werden nachfolgend Untersuchungskriterien in Form von Fragestellungen für den späteren Fallstudienvergleich entwickelt. Nach Abschluss des Theorieteils erfolgt eine Betrachtung institutioneller ÖPPs aus realer empirischer Sicht. Hierzu werden Fallstudien vorgestellt und an den Untersuchungskriterien, welche aus den einzelnen Theorien abgeleitet wurden, gespiegelt. Zuerst werden recherchierte Fallstudien analysiert, beginnend mit den Teilprivatisierungen der Stadtentwässerung Dresden GmbH und der Stadtwerke Görlitz AG, bei denen sich die Zusammenarbeit wohl positiv entwickelt. Als Negativbeispiel wird dann auf die Privatisierung der Wasserversorgung von Grenoble und ihre spätere Rekommunalisierung eingegangen. Im folgenden Schritt werden Fallstudien aus den realen Erfahrungen des Verfassers diskutiert. Hierbei bildet die Teilprivatisierung und anschließende Rekommunalisierung des Wasserbetriebes in Potsdam den Schwerpunkt. Ergänzt wird dies durch die Darstellung der positiven Zusammenarbeit mit dem privaten Gesellschafter bei der Energie und Wasser Potsdam GmbH. Abschließend werden die anfänglichen Probleme zwischen Kommune und Privat bei der teilprivatisierten STEP Stadtentsorgung Potsdam untersucht und aufgezeigt, wie die Partnerschaft zum Vorteil der öffentlichen Seite verändert wurde. Aus dem Vergleich von Theorie und Praxis konnten wissenschaftlich fundierte Schlussfolgerungen für institutionelle ÖPPs gezogen und Erfolgsfaktoren für das Gelingen einer solchen Kooperation abgeleitet werden. Die gewonnenen Erkenntnisse werden in Form von Thesen zusammengefasst und dienen als Basis für die Ableitung von Handlungsempfehlungen für kommunale Akteure beim Eingehen einer institutionellen ÖPP. Zu Beginn erfolgt eine Darstellung der Empfehlungen, die sich aus den Untersuchungskriterien der jeweiligen Theorien ergeben haben. Nachfolgend wird diese Betrachtung erweitert, indem näher auf die wesentlichen Phasen des Entscheidungsfindungsprozesses eingegangen und eine Untersetzung dieser Phasen mit den erarbeiteten Handlungsempfehlungen vorgenommen wird. Auf diese Weise kann den kommunalen Entscheidungsträgern eine sehr praxisnahe Hilfestellung gegeben werden. Insgesamt betrachtet, geht aus der Dissertation ein umfangreicher, fundierter und sehr praxisrelevanter Leitfaden hervor, der wichtige Anhaltspunkte für das Eingehen einer institutionellen ÖPP im kommunalen Bereich gibt. Aus der Spiegelung von Theorie und Praxis werden wertvolle Hinweise abgeleitet, wodurch insbesondere deutlich wird, an welchen Stellen sich die öffentliche Seite absichern sollte. Darüber hinaus können die kommunalen Entscheidungsträger durch die gewonnenen Erkenntnisse sensibilisiert und ihr Blick für den individuellen Fall geschärft werden. Letztendlich werden dadurch wichtige Voraussetzungen geschaffen, um ein solches Vorhaben zum Erfolg zu führen.
Das Geschlechtsrollenselbstkonzept, das sich im Laufe der Sozialisation in Auseinandersetzung mit den vorherrschenden Vorstellungen der umgebenden Kultur entwickelt, steht in Beziehung zu Affekten, Kognitionen und Verhaltensweisen in einer Vielzahl von Bereichen. Bisherige GSK-Instrumente messen jedoch nahezu ausschließlich den positiven Aspekt von Maskulinität und Femininität. Die Definition des allgemeinen Selbstkonzepts gibt diese Limitierung auf positive Valenz nicht vor, und aus gesundheitspsychologischer Sicht sowie der Gruppenforschung ist die Bedeutung negativer Eigenschaften zur Selbstbeschreibung bekannt. Vor diesem Hintergrund wurden sieben aufeinander aufbauende Studien durchgeführt mit dem Ziel ein neues Instrument zu entwickeln, deren Items zum einen kulturell aktuellen Eigenschaften zur Selbstbeschreibung entsprechen und zum anderen die Valenzunterschiede dieser Merkmalsbeschreibungen berücksichtigen. Nach einer kritischen empirischen Überprüfung des deutschen BSRI, um Schwächen der Items ausschließlich positiver Valenz aufzudecken, wurde eine neue Skala entwickelt, die von Beginn an auch negative Selbstbeschreibungen berücksichtigte um der Komplexität des geschlechtlichen Selbst gerecht zu werden. Aufgrund der Einschätzungen zur Typizität und sozialen Erwünschtheit sowie mit ersten Resultaten aus der Selbstbeschreibung wurde die Auswahl der Items für die Teilskalen vorgenommen. In zwei weiteren Studien wurden schließlich die vier neu entwickelten Teilskalen des neuen GSK-Inventars einer Validierung unterzogen. Jeder der Teilskalen wurden theoriegeleitet spezifische Konstrukte zugeordnet und es konnte nachgewiesen werden, dass alle Teilskalen ihren eigenen Beitrag zur Vorhersage psychologischer Konzepte leisten können. So standen beispielsweise die negativen maskulinen Eigenschaften in engerer Beziehung zu Aggressivität und machtbezogenen Werten als die positiven Aspekte der Maskulinität. Als Ergebnis dieser Entwicklung stehen am Ende vier kurze, unabhängige, reliable Teilskalen, die positive als auch negative Aspekte von Maskulinität und Femininität abbilden und mittels sehr unterschiedlicher psychologischer Erlebens- und Verhaltenskonstrukte validiert wurden, die die Unabhängigkeit der Skalen belegen und diese für einen Einsatz in der Forschung empfehlen. Die Einführung einer individuellen Wertkomponente im Zuge der Selbstbeschreibung, angelehnt an das bekannte Erwartungs-mal-Wert Modell der Motivations- und Einstellungsforschung, und die daraus mögliche multiplikative Verknüpfung von Selbsteinschätzung und persönlicher Wichtigkeit der Eigenschaften konnten den Aufklärungswert in Bezug auf unterschiedliche Validierungskonstrukte dagegen nicht verbessern und wurden daher nicht ins das Instrument integriert.
Gegenstand der Studie ist die Evaluation eines kommunalen Sportprojekts. Die Forschungsarbeit entstand aus der wachsenden Erkenntnis heraus, dass es nicht mehr nur um die Entwicklung und Durchführung kommunaler oder sozialer Projekte geht, sondern zunehmend darauf ankommt, die Projektarbeit zu evaluieren, um ihren Einfluss auf die kommunale, soziale und personale Entwicklung zu prüfen und in der Folge die Implementierung zu optimieren. Die unterschiedlichen Schritte in der Definition des theoretischen Rahmens, der Datenanalyse sowie der Erarbeitung der evaluativen Empfehlungen wurden unternommen mit dem Anspruch auf Modellcharakter, um für zukünftige Evaluationsvorhaben entsprechende Standards zu setzen. Die Grundidee des kommunalen Sportprojekts „Straßenfußball für Toleranz“ ist innovativ: Mädchen und Jungen erobern durch gemeinsames Fußballspielen den öffentlichen Raum. Sie spielen ohne Schiedsrichter und nach speziellen Regeln. Das Projekt richtet sich ausdrücklich an sozial benachteiligte Jugendliche und bezieht gleichermaßen Jungen wie Mädchen ein.
Die automatische Informationsextraktion (IE) aus unstrukturierten Texten ermöglicht völlig neue Wege, auf relevante Informationen zuzugreifen und deren Inhalte zu analysieren, die weit über bisherige Verfahren zur Stichwort-basierten Dokumentsuche hinausgehen. Die Entwicklung von Programmen zur Extraktion von maschinenlesbaren Daten aus Texten erfordert jedoch nach wie vor die Entwicklung von domänenspezifischen Extraktionsprogrammen. Insbesondere im Bereich der Enterprise Search (der Informationssuche im Unternehmensumfeld), in dem eine große Menge von heterogenen Dokumenttypen existiert, ist es oft notwendig ad-hoc Programm-module zur Extraktion von geschäftsrelevanten Entitäten zu entwickeln, die mit generischen Modulen in monolithischen IE-Systemen kombiniert werden. Dieser Umstand ist insbesondere kritisch, da potentiell für jeden einzelnen Anwendungsfall ein von Grund auf neues IE-System entwickelt werden muss. Die vorliegende Dissertation untersucht die effiziente Entwicklung und Ausführung von IE-Systemen im Kontext der Enterprise Search und effektive Methoden zur Ausnutzung bekannter strukturierter Daten im Unternehmenskontext für die Extraktion und Identifikation von geschäftsrelevanten Entitäten in Doku-menten. Grundlage der Arbeit ist eine neuartige Plattform zur Komposition von IE-Systemen auf Basis der Beschreibung des Datenflusses zwischen generischen und anwendungsspezifischen IE-Modulen. Die Plattform unterstützt insbesondere die Entwicklung und Wiederverwendung von generischen IE-Modulen und zeichnet sich durch eine höhere Flexibilität und Ausdrucksmächtigkeit im Vergleich zu vorherigen Methoden aus. Ein in der Dissertation entwickeltes Verfahren zur Dokumentverarbeitung interpretiert den Daten-austausch zwischen IE-Modulen als Datenströme und ermöglicht damit eine weitgehende Parallelisierung von einzelnen Modulen. Die autonome Ausführung der Module führt zu einer wesentlichen Beschleu-nigung der Verarbeitung von Einzeldokumenten und verbesserten Antwortzeiten, z. B. für Extraktions-dienste. Bisherige Ansätze untersuchen lediglich die Steigerung des durchschnittlichen Dokumenten-durchsatzes durch verteilte Ausführung von Instanzen eines IE-Systems. Die Informationsextraktion im Kontext der Enterprise Search unterscheidet sich z. B. von der Extraktion aus dem World Wide Web dadurch, dass in der Regel strukturierte Referenzdaten z. B. in Form von Unternehmensdatenbanken oder Terminologien zur Verfügung stehen, die oft auch die Beziehungen von Entitäten beschreiben. Entitäten im Unternehmensumfeld haben weiterhin bestimmte Charakteristiken: Eine Klasse von relevanten Entitäten folgt bestimmten Bildungsvorschriften, die nicht immer bekannt sind, auf die aber mit Hilfe von bekannten Beispielentitäten geschlossen werden kann, so dass unbekannte Entitäten extrahiert werden können. Die Bezeichner der anderen Klasse von Entitäten haben eher umschreibenden Charakter. Die korrespondierenden Umschreibungen in Texten können variieren, wodurch eine Identifikation derartiger Entitäten oft erschwert wird. Zur effizienteren Entwicklung von IE-Systemen wird in der Dissertation ein Verfahren untersucht, das alleine anhand von Beispielentitäten effektive Reguläre Ausdrücke zur Extraktion von unbekannten Entitäten erlernt und damit den manuellen Aufwand in derartigen Anwendungsfällen minimiert. Verschiedene Generalisierungs- und Spezialisierungsheuristiken erkennen Muster auf verschiedenen Abstraktionsebenen und schaffen dadurch einen Ausgleich zwischen Genauigkeit und Vollständigkeit bei der Extraktion. Bekannte Regellernverfahren im Bereich der Informationsextraktion unterstützen die beschriebenen Problemstellungen nicht, sondern benötigen einen (annotierten) Dokumentenkorpus. Eine Methode zur Identifikation von Entitäten, die durch Graph-strukturierte Referenzdaten vordefiniert sind, wird als dritter Schwerpunkt untersucht. Es werden Verfahren konzipiert, welche über einen exakten Zeichenkettenvergleich zwischen Text und Referenzdatensatz hinausgehen und Teilübereinstimmungen und Beziehungen zwischen Entitäten zur Identifikation und Disambiguierung heranziehen. Das in der Arbeit vorgestellte Verfahren ist bisherigen Ansätzen hinsichtlich der Genauigkeit und Vollständigkeit bei der Identifikation überlegen.
Gegenstand dieser Arbeit ist die Konzeption, Entwicklung und exemplarische Implementierung eines generischen Verfahrens zur Erfassung, Verarbeitung, Auswertung und kartographischen Visualisierung urbaner Strukturen im altweltlichen Trockengürtel mittels hochauflösender operationeller Fernerkundungsdaten. Das Verfahren wird am Beispiel der jemenitischen Hauptstadt Sanaa einer Vertreterin des Typus der Orientalischen Stadt angewandt und evaluiert. Das zu entwickelnde Verfahren soll auf Standardverfahren und Systemen der raumbezogenen Informationsverarbeitung basieren und in seinen wesentlichen Prozessschritten automatisiert werden können. Daten von hochauflösenden operationellen Fernerkundungssystemen (wie z.B. QuickBird, Ikonos u. a.) erlauben die Erkennung und Kartierung urbaner Objekte, wie Gebäude, Straßen und sogar Autos. Die mit ihnen erstellten Karten und den daraus gewonnenen Informationen können zur Erfassung von Urbanisierungsprozessen (Stadt- und Bevölkerungswachstum) herangezogen werden. Sie werden auch zur Generierung von 3D-Stadtmodellen genutzt. Diese dienen z.B. der Visualisierung für touristische Anwendungen, für die Stadtplanung, für Lärmanalysen oder für die Standortplanung von Mobilfunkantennen. Bei dem in dieser Arbeit erzeugten 3D-Visualisierung wurden jedoch keine Gebäudedetails erfasst. Entscheidend war vielmehr die Wiedergabe der Siedlungsstruktur, die im Vorhandensein und in der Anordnung der Gebäude liegt. In dieser Arbeit wurden Daten des Satellitensensors Quickbird von 2005 verwendet. Sie zeigen einen Ausschnitt der Stadt Sanaa in Jemen. Die Fernerkundungsdaten wurden durch andere Daten, u.a. auch Geländedaten, ergänzt und verifiziert. Das ausgearbeitete Verfahren besteht aus der Klassifikation der Satellitenbild-aufnahme, die u.a. pixelbezogen und für jede Klasse einzeln (pixelbezogene Klassifikation auf Klassenebene) durchgeführt wurde. Zusätzlich fand eine visuelle Interpretation der Satellitenbildaufnahme statt, bei der einzelne Flächen und die Straßen digitalisiert und die Objekte mit Symbolen gekennzeichnet wurden. Die aus beiden Verfahren erstellten Stadtkarten wurden zu einer fusioniert. Durch die Kombination der Ergebnisse werden die Vorteile beider Karten in einer vereint und ihre jeweiligen Schwächen beseitigt bzw. minimiert. Die digitale Erfassung der Konturlinien auf der Orthophotomap von Sanaa erlaubte die Erstellung eines Digitalen Geländemodells, das der dreidimensionalen Darstellung des Altstadtbereichs von Sanaa diente. Die 3D-Visualisierung wurde sowohl von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene als auch von der digitalen Erfassung der Objekte erstellt. Die Ergebnisse beider Visualisierungen wurden im Anschluss in einer Stadtkarte vereint. Bei allen Klassifikationsverfahren wurden die asphaltierten Straßen, die Vegetation und einzeln stehende Gebäude sehr gut erfasst. Die Klassifikation der Altstadt gestaltete sich aufgrund der dort für die Klassifikation herrschenden ungünstigen Bedingungen am problematischsten. Die insgesamt besten Ergebnisse mit den höchsten Genauigkeitswerten wurden bei der pixelbezogenen Klassifikation auf Klassenebene erzielt. Dadurch, dass jede Klasse einzeln klassifiziert wurde, konnte die zu einer Klasse gehörende Fläche besser erfasst und nachbearbeitet werden. Die Datenmenge wurde reduziert, die Bearbeitungszeit somit kürzer und die Speicherkapazität geringer. Die Auswertung bzw. visuelle Validierung der pixel-bezogenen Klassifikationsergebnisse auf Klassenebene mit dem Originalsatelliten-bild gestaltete sich einfacher und erfolgte genauer als bei den anderen durch-geführten Klassifikationsverfahren. Außerdem war es durch die alleinige Erfassung der Klasse Gebäude möglich, eine 3D-Visualisierung zu erzeugen. Bei einem Vergleich der erstellten Stadtkarten ergibt sich, dass die durch die visuelle Interpretation erstellte Karte mehr Informationen enthält. Die von den pixelbezogenen Klassifikationsergebnissen auf Klassenebene erstellte Karte ist aber weniger arbeits- und zeitaufwendig zu erzeugen. Zudem arbeitet sie die Struktur einer orientalischen Stadt mit den wesentlichen Merkmalen besser heraus. Durch die auf Basis der 2D-Stadtkarten erstellte 3D-Visualisierung wird ein anderer räumlicher Eindruck vermittelt und bestimmte Elemente einer orientalischen Stadt deutlich gemacht. Dazu zählen die sich in der Altstadt befindenden Sackgassen und die ehemalige Stadtmauer. Auch die für Sanaa typischen Hochhäuser werden in der 3D-Visualisierung erkannt. Insgesamt wurde in der Arbeit ein generisches Verfahren entwickelt, dass mit geringen Modifikationen auch auf andere städtische Räume des Typus orientalische Stadt angewendet werden kann.
Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde.
Genexpression in Plastiden: Funktionen plastidärer Introns und Produktion Zellwand-abbauender Enzyme
(2010)
Das Ziel dieser Arbeit ist die Untersuchung der aktiven Komponenten und ihrer Wechselwirkungen in teilorganischen Hybrid-Solarzellen. Diese bestehen aus einer dünnen Titandioxidschicht, kombiniert mit einer dünnen Polymerschicht. Die Effizienz der Hybrid-Solarzellen wird durch die Lichtabsorption im Polymer, die Dissoziation der gebildeten Exzitonen an der aktiven Grenzfläche zwischen TiO2 und Polymer, sowie durch Generation und Extraktion freier Ladungsträger bestimmt. Zur Optimierung der Solarzellen wurden grundlegende physikalische Wechselwirkungen zwischen den verwendeten Materialen sowie der Einfluss verschiedener Herstellungsparameter untersucht. Unter anderem wurden Fragen zum optimalen Materialeinsatz und Präparationsbedingungen beantwortet sowie grundlegende Einflüsse wie Schichtmorphologie und Polymerinfiltration näher betrachtet. Zunächst wurde aus unterschiedlich hergestelltem Titandioxid (Akzeptor-Schicht) eine Auswahl für den Einsatz in Hybrid-Solarzellen getroffen. Kriterium war hierbei die unterschiedliche Morphologie aufgrund der Oberflächenbeschaffenheit, der Film-Struktur, der Kristallinität und die daraus resultierenden Solarzelleneigenschaften. Für die anschließenden Untersuchungen wurden mesoporöse TiO2–Filme aus einer neuen Nanopartikel-Synthese, welche es erlaubt, kristalline Partikel schon während der Synthese herzustellen, als Elektronenakzeptor und konjugierte Polymere auf Poly(p-Phenylen-Vinylen) (PPV)- bzw. Thiophenbasis als Donatormaterial verwendet. Bei der thermischen Behandlung der TiO2-Schichten erfolgt eine temperaturabhängige Änderung der Morphologie, jedoch nicht der Kristallstruktur. Die Auswirkungen auf die Solarzelleneigenschaften wurden dokumentiert und diskutiert. Um die Vorteile der Nanopartikel-Synthese, die Bildung kristalliner TiO2-Partikel bei tiefen Temperaturen, nutzen zu können, wurden erste Versuche zur UV-Vernetzung durchgeführt. Neben der Beschaffenheit der Oxidschicht wurde auch der Einfluss der Polymermorphologie, bedingt durch Lösungsmittelvariation und Tempertemperatur, untersucht. Hierbei konnte gezeigt werden, dass u.a. die Viskosität der Polymerlösung die Infiltration in die TiO2-Schicht und dadurch die Effizienz der Solarzelle beeinflusst. Ein weiterer Ansatz zur Erhöhung der Effizienz ist die Entwicklung neuer lochleitender Polymere, welche möglichst über einen weiten spektralen Bereich Licht absorbieren und an die Bandlücke des TiO2 angepasst sind. Hierzu wurden einige neuartige Konzepte, z.B. die Kombination von Thiophen- und Phenyl-Einheiten näher untersucht. Auch wurde die Sensibilisierung der Titandioxidschicht in Anlehnung an die höheren Effizienzen der Farbstoffzellen in Betracht gezogen. Zusammenfassend konnten im Rahmen dieser Arbeit wichtige Einflussparameter auf die Funktion hybrider Solarzellen identifiziert und z.T. näher diskutiert werden. Für einige limitierende Faktoren wurden Konzepte zur Verbesserung bzw. Vermeidung vorgestellt.
Kafkas fast unbekannter Freund : Leben und Werk von Felix Weltsch, Zionist, Journalist und Philosoph
(2010)
In den letzten drei Jahrzehnten wurden in einigen Seen und Feuchtgebieten in bewaldeten Einzugsgebieten Nordost-Brandenburgs sinkende Wasserstände beobachtet. In diesen Gebieten bestimmt die Grundwasserneubildung im Einzugsgebiet maßgeblich das Wasserdargebot der Seen und Feuchtgebiete, die deshalb hier als grundwasserabhängige Landschaftselemente bezeichnet werden. Somit weisen die sinkenden Wasserstände auf einen Rückgang der wegen des geringen Niederschlagsdargebotes ohnehin schon geringen Grundwasserneubildung hin. Die Höhe der Grundwasserneubildung ist neben den hydroklimatischen Randbedingungen auch von der Landnutzung abhängig. Veränderungen in der Waldvegetation und der hydroklimatischen Randbedingungen bewirken Änderungen der Grundwasserneubildung und beeinflussen somit auch den Wasserhaushalt der Seen und Feuchtgebiete. Aktuell wird die Waldvegetation durch Kiefernmonokulturen dominiert, mit im Vergleich zu anderen Baumarten höherer Evapotranspiration. Entwicklungen in der Forstwirtschaft streben die Verringerung von Kiefernmonokulturen an. Diese sollen langfristig auf geeigneten Standorten durch Laubmischwälder ersetzt werden. Dadurch lassen sich eine geringere Evapotranspiration und damit eine höhere Grundwasserneubildung erreichen. In der vorliegenden Arbeit werden am Beispiel des Redernswalder Sees und des Briesensees die Ursachen der beobachteten sinkenden Wasserstände analysiert. Ihre Wasserstände nahmen in den letzten 25 Jahren um mehr als 3 Meter ab. Weiterhin wird untersucht, wie die erwarteten Klimaänderungen und Veränderungen in der Waldbewirtschaftung die zukünftige Grundwasserneubildung und den Wasserhaushalt von Seen beeinflussen können. Die Entwicklung der Grundwasserneubildung im Untersuchungsgebiet wurde mit dem Wasserhaushaltsmodell WaSiM-ETH simuliert. Die Analyse der Wechselwirkungen der Seen mit dem regionalen quartären Grundwasserleitersystem erfolgte mit dem 3D-Grundwassermodell FEFLOW. Mögliche zukünftige Veränderungen der Grundwasserneubildung und der Seewasserstände durch Klimaänderungen und Waldumbau wurden mit Szenarienrechnungen bis zum Jahr 2100 analysiert. Die modellgestützte Analyse zeigte, dass die beobachteten abnehmenden Wasserstände zu etwa gleichen Anteilen durch Veränderungen der hydroklimatischen Randbedingungen sowie durch Veränderungen in der Waldvegetation und damit abnehmenden Grundwasserneubildungsraten zu erklären sind. Die zukünftigen Entwicklungen der Grundwasserneubildung und der Wasserstände sind geprägt von sich ändernden hydroklimatischen Randbedingungen und einem sukzessiven Wandel der Kiefernbestände zu Laubwäldern. Der Waldumbau hat positive Wirkungen auf die Grundwasserneubildung und damit auf die Wasserstände. Damit können die Einflüsse des eingesetzten REMO-A1B-Klimaszenarios zum Ende des Modellzeitraumes durch den Waldumbau nicht kompensiert werden, das Sinken des Wasserstandes wird jedoch wesentlich reduziert. Bei dem moderateren REMO-B1-Klimaszenario werden die Wasserstände des Jahres 2008 durch den Waldumbau bis zum Jahr 2100 überschritten.
Moderation
(2010)
Die adipositasbedingte Insulinresistenz geht mit einer unterschwelligen Entzündungsreaktion einher. Als Antwort auf dieses Entzündungsgeschehen wird PGE2 unter anderem von Kupffer Zellen der Leber freigesetzt und kann seine Wirkung über vier PGE2-Rezeptorsubtypen (EP1-EP4) vermitteln. In vorangegangenen Arbeiten konnte gezeigt werden, dass PGE2 in Rattenhepatozyten über den EP3 R ERK1/2-abhängig die intrazelluläre Weiterleitung des Insulinsignals hemmt. Über die Modulation der Insulinrezeptorsignalkette durch andere EP-Rezeptoren war bisher nichts bekannt. Daher sollte in stabil transfizierten Zelllinien, die jeweils nur einen der vier EP-Rezeptorsubtypen exprimierten, der Einfluss von PGE2 auf die Insulinrezeptorsignalkette untersucht werden. Es wurden HepG2-Zellen, die keinen funktionalen EP-Rezeptor aufwiesen, sowie HepG2-Zellen, die stabil den EP1-R (HepG2-EP1), den EP3β-R (HepG2 EP3β) oder den EP4-R (HepG2 EP4) exprimierten, sowie die humane fötale Hepatozytenzelllinie, Fh hTert, die den EP2- und den EP4-R exprimierte, für die Untersuchungen verwendet. Die Zellen wurden für 330 min mit PGE2 (10 µM) vorinkubiert, um die pathophysiologische Situation nachzustellen und anschließend mit Insulin (10 nM) für 15 min stimuliert. Die insulinabhängige Akt- und ERK1/2-Phosphorylierung wurde im Western-Blot bestimmt. In allen Hepatomzelllinien die EP-R exprimierten, nicht aber in der Zelllinie, die keinen EP R exprimierte, hemmte PGE2 die insulinstimulierte Akt-Phosphorylierung. In allen drei stabil transfizierten Zelllinien, nicht jedoch in den Fh-hTert-Zellen, steigerte PGE2 die basale und insulinstimulierte Phosphorylierung der Serin/Threoninkinase ERK1/2. In den HepG2 EP1- und den HepG2-EP3β-Zellen steigerte PGE2 mutmaßlich über die ERK1/2-Aktivierung die Serinphosphorylierung des IRS, welche die Weiterleitung des Insulinsignals blockiert. Die Hemmung der Aktivierung von ERK1/2 hob in EP3 R-exprimierenden Zellen die Abschwächung der Insulinsignalübertragung teilweise auf. In diesen Zellen scheint die ERK1/2-Aktivierung die größte Bedeutung für die Hemmung der insulinstimulierten Akt-Phosphorylierung zu haben. Da durch die Hemmstoffe die PGE2-abhängige Modulation nicht vollständig aufgehoben wurde, scheinen darüber hinaus aber noch andere Mechanismen zur Modulation beizutragen. In den Fh hTert-Zellen wurde die Insulinrezeptorsignalkette offensichtlich über einen ERK1/2-unabhängigen, bisher nicht identifizierten Weg unterbrochen. Eine gesteigerte PGE2-Bildung im Rahmen der Adipositas ist nicht auf die peripheren Gewebe beschränkt. Auch im Hypothalamus können bei Adipositas Zeichen einer Entzündung nachgewiesen werden, die mit einer gesteigerten PGE2-Bildung einhergehen. Daher wurde das EP R-Profil von primären hypothalamischen Neuronen und neuronalen Modellzelllinien charakterisiert, um zu prüfen, ob PGE2 in hypothalamischen Neuronen die Insulinsignalkette in ähnlicher Weise unterbricht wie in Hepatozyten. In allen neuronalen Zellen hemmte die Vorinkubation mit PGE2 die insulinstimulierte Akt-Phosphorylierung nicht. In der neuronalen hypothalamischen Zelllinie N 41 wirkte PGE2 eher synergistisch mit Insulin. In durch Retinsäure ausdifferenzierten SH SY5Y-Zellen waren die Ergebnisse allerdings widersprüchlich. Dies könnte darauf zurückzuführen sein, dass die Expression der EP Rezeptoren im Verlauf der Kultur stark schwankte und somit die EP R-Ausstattung der Zellen zwischen den Zellversuchen variierte. Auch in den primären hypothalamischen Neuronen variierte die EP R-Expression abhängig vom Differenzierungszustand und PGE2 beeinflusste die insulinstimulierte Akt-Phosphorylierung nicht. Obwohl in allen neuronalen Zellen die Akt-Phosphorylierung durch Insulin gesteigert wurde, konnte in keiner der Zellen eine insulinabhängige Regulation der Expression von Insulinzielgenen (POMC und AgRP) nachgewiesen werden. Das liegt wahrscheinlich an dem niedrigen Differenzierungsgrad der untersuchten Zellen. Im Rahmen der Adipositas kommt es zu einer Überaktivierung des Endocannabinoidsystems. Endocannabinoidrezeptoren sind mit den EP Rezeptoren verwandt. Daher wurde geprüft, ob Endocannabinoide die Insulinsignalweiterleitung in ähnlicher Weise beeinflussen können wie PGE2. Die Vorinkubation der N 41-Zellen für 330 min mit einem Endocannabinoidrezeptoragonisten steigerte die insulinstimulierte Akt-Phosphorylierung, was auf einen insulinsensitiven Effekt von Endocannabinoiden hindeutet. Dies steht im Widerspruch zu der in der Literatur beschriebenen endocannabinoidabhängigen Insulinresistenz, die aber auf indirekte, durch Endocannabinoide ausgelöste Veränderungen zurückzuführen sein könnte.
Die Ca2+/Calmodulin-aktivierte Serin/Threonin-Phosphatase Calcineurin ist ein Schlüsselmolekül des T-Zell-Rezeptorabhängigen Signalnetzwerkes. Calcineurin aktiviert die Transkriptionsfaktoren der NFATc-Familie durch Dephosphorylierung und reguliert darüber die Expression wichtiger Zytokine und Oberflächenproteine. Die Aktivität von Calcineurin wird durch zahlreiche endogene Proteine moduliert und ist Angriffspunkt der immunsuppressiven Substanzen Cyclosporin A und FK506. In dieser Arbeit wurde der alternative niedermolekulare Calcineurin-NFATc-Inhibitor NCI3 hinsichtlich seiner Effekte auf T-Zell-Rezeptor-abhängige Signalwege charakterisiert. Die Ergebnisse zeigen, daß das Pyrazolopyrimidinderivat NCI3 nichttoxisch und zellmembranpermeabel ist. In T-Zell-Rezeptor-stimulierten primären humanen TH-Zellen unterdrückt NCI3 die Proliferation und IL-2-Produktion (IC50-Wert ~4 µM), da die Dephosphorylierung von NFATc und die anschließende nukleäre Translokation gehemmt wird. NCI3 inhibiert die calcineurinabhängige NFAT- und NF-κB-, aber nicht die AP-1-kontrollierte Reprtergenexpression, in mikromolaren Konzentrationen (IC50-Werte 2 bzw. 7 µM). Im Gegensatz zu Cyclosporin A stört NCI3 nicht die Phosphataseaktivität von Calcineurin, sondern interferiert mit der Calcineurin-NFATc-Bindung. Ein wichtiges endogenes Modulatorprotein für die Calcineurinaktivität ist RCAN1, das vermutlich den Calcineurin-NFATc-Signalweg über einen negativen Rückkopplungsmechanismus reguliert. Hier wurde gezeigt, daß RCAN1 in humanen TH-Zellen exprimiert wird. Die Spleißvariante RCAN1-1 ist in ruhenden T-Zellen basal exprimiert und wird nicht durch T-Zell-Rezeptor-Stimulierung in seiner Expression verändert. RCAN1-4 dagegen ist in ruhenden Zellen kaum zu detektieren und wird stimulierungsabhängig induziert. Durch die Verwendung Calcineurin-NFATc-spezifischer Inhibitoren wie NCI3 wurde gezeigt, daß die RCAN1-4-Induktion durch diesen Signalweg limitiert ist. Die in dieser Arbeit gewonnenen Daten und Erkenntnisse tragen dazu bei, das Verständnis der Funktion und Regulation von Calcineurin in T-Zellen zu vertiefen.
Das Parallel-Seismik-Verfahren dient vor allem der nachträglichen Längenmessung von Fundamentpfählen oder ähnlichen Elementen zur Gründung von Bauwerken. Eine solche Messung wird beispielsweise notwendig, wenn ein Gebäude verstärkt, erhöht oder anders als bisher genutzt werden soll, aber keine Unterlagen mehr über die Fundamente vorhanden sind. Das Messprinzip des schon seit einigen Jahrzehnten bekannten Verfahrens ist relativ einfach: Auf dem Pfahlkopf wird meist durch Hammerschlag eine Stoßwelle erzeugt, die durch den Pfahl nach unten läuft. Dabei wird Energie in den Boden abgegeben. Die abgestrahlten Wellen werden von Sensoren in einem parallel zum Pfahl hergestellten Bohrloch registriert. Aus den Laufzeiten lassen sich die materialspezifischen Wellengeschwindigkeiten im Pfahl und im Boden sowie die Pfahllänge ermitteln. Bisher wurde meist ein sehr einfaches Verfahren zur Datenauswertung verwendet, das die Länge der Pfähle systematisch überschätzt. In der vorliegenden Dissertation wurden die mathematisch-physikalischen Grundlagen beleuchtet und durch Computersimulation die Wellenausbreitung in Pfahl und Boden genau untersucht. Weitere Simulationen klärten den Einfluss verschiedener Mess- und Strukturparameter, beispielsweise den Einfluss von Bodenschichtung oder Fehlstellen im Pfahl. So konnte geklärt werden, in welchen Fällen mit dem Parallel-Seismik-Verfahren gute Ergebnisse erzielt werden können (z. B. bei Fundamenten in Sand oder Ton) und wo es an seine Grenzen stößt (z. B. bei Gründung im Fels). Auf Basis dieser Ergebnisse entstand ein neuer mathematischer Formalismus zur Auswertung der Laufzeiten. In Verbindung mit einem Verfahren zur Dateninversion, d. h. der automatischen Anpassung der Unbekannten in den Gleichungen an die Messergebnisse, lassen sich sehr viel genauere Werte für die Pfahllänge ermitteln als mit allen bisher publizierten Verfahren. Zudem kann man nun auch mit relativ großen Abständen zwischen Bohrloch und Pfahl (2 - 3 m) arbeiten. Die Methode wurde an simulierten Daten ausführlich getestet. Die Messmethode und das neue Auswerteverfahren wurden in einer Reihe praktischer Anwendungen getestet – und dies fast immer erfolgreich. Nur in einem Fall komplizierter Fundamentgeometrie bei gleichzeitig sehr hoher Anforderung an die Genauigkeit war schon nach Simulationen klar, dass hier ein Einsatz nicht sinnvoll ist. Dafür zeigte es sich, dass auch die Länge von Pfahlwänden und Spundwänden ermittelt werden kann. Die Parallel-Seismik-Methode funktioniert als einziges verfügbares Verfahren zur Fundamentlängenermittlung zugleich in den meisten Bodenarten sowie an metallischen und nichtmetallischen Fundamenten und kommt ohne Kalibrierung aus. Sie ist nun sehr viel breiter einsetzbar und liefert sehr viel genauere Ergebnisse. Die Simulationen zeigten noch Potential für Erweiterungen, zum Beispiel durch den Einsatz spezieller Sensoren, die zusätzliche Wellentypen empfangen und unterscheiden können.
Gesunde sowie qualitativ hochwertige Nahrungsmittel sind wichtige Voraussetzungen, um einerseits die Lebensmittelsicherheit entlang der Wertschöpfungskette (Wachstum, Verarbeitung, Lagerung und Transport) und andererseits einen vorbeugenden Verbraucherschutz zu gewährleisten. Die Belastung der Nahrung mit Rückständen jeglicher Art war in letzter Zeit häufig Mittelpunkt heftiger öffentlicher Diskussionen. Zahlreiche Untersuchungen haben gezeigt, dass unter bestimmten Bedingungen durch Pilze gebildete Giftstoffe, so genannte Mykotoxine, die Ernteprodukte belasten und es bei deren Verzehr durch Menschen oder Tiere zu Vergiftungen kommen kann. Die FAO schätzt, dass etwa 25% der Weltproduktion von Nahrungsmitteln mit Mykotoxinen kontaminiert und in 20% der Getreideernte der Europäischen Union messbare Konzentrationen an Mykotoxinen detektierbar sind. Damit die Lebensmittelsicherheit weiterhin gewährleistet bleibt, werden neben den Routinemethoden schnellere und zerstörungsfreie Methoden benötigt, um die Lebensmittel direkt vor Ort auf Schimmelpilze und deren Mykotoxine zu untersuchen. In dieser Arbeit wird das Potenzial von ausgewählten optisch-basierten spektroskopischen Methoden für die in-situ bzw. in-line Detektion von Schimmelpilzen sowie Mykotoxinen in Getreide(produkten) untersucht. Es werden Absorptions- und Reflexionsmethoden einerseits und Fluoreszenztechniken andererseits eingesetzt. Die spektroskopischen Methoden werden dabei auf Proben unterschiedlicher Komplexität angewandt - beginnend mit der Untersuchung der photophysikalischen Eigenschaften der reinen Mykotoxine in Lösung über künstlich mit verschiedenen Mykotoxinen kontaminierten Getreideproben bis hin zu mit Pilzen befallenem Getreide und hochveredelte Lebensmittel (Wein und Bier) als Proben höchster Komplexität.
In der vorliegenden Dissertation wird eine Beschreibung der Phasendynamik irregulärer Oszillationen und deren Wechselwirkungen vorgestellt. Hierbei werden chaotische und stochastische Oszillationen autonomer dissipativer Systeme betrachtet. Für eine Phasenbeschreibung stochastischer Oszillationen müssen zum einen unterschiedliche Werte der Phase zueinander in Beziehung gesetzt werden, um ihre Dynamik unabhängig von der gewählten Parametrisierung der Oszillation beschreiben zu können. Zum anderen müssen für stochastische und chaotische Oszillationen diejenigen Systemzustände identifiziert werden, die sich in der gleichen Phase befinden. Im Rahmen dieser Dissertation werden die Werte der Phase über eine gemittelte Phasengeschwindigkeitsfunktion miteinander in Beziehung gesetzt. Für stochastische Oszillationen sind jedoch verschiedene Definitionen der mittleren Geschwindigkeit möglich. Um die Unterschiede der Geschwindigkeitsdefinitionen besser zu verstehen, werden auf ihrer Basis effektive deterministische Modelle der Oszillationen konstruiert. Hierbei zeigt sich, dass die Modelle unterschiedliche Oszillationseigenschaften, wie z. B. die mittlere Frequenz oder die invariante Wahrscheinlichkeitsverteilung, nachahmen. Je nach Anwendung stellt die effektive Phasengeschwindigkeitsfunktion eines speziellen Modells eine zweckmäßige Phasenbeziehung her. Wie anhand einfacher Beispiele erklärt wird, kann so die Theorie der effektiven Phasendynamik auch kontinuierlich und pulsartig wechselwirkende stochastische Oszillationen beschreiben. Weiterhin wird ein Kriterium für die invariante Identifikation von Zuständen gleicher Phase irregulärer Oszillationen zu sogenannten generalisierten Isophasen beschrieben: Die Zustände einer solchen Isophase sollen in ihrer dynamischen Entwicklung ununterscheidbar werden. Für stochastische Oszillationen wird dieses Kriterium in einem mittleren Sinne interpretiert. Wie anhand von Beispielen demonstriert wird, lassen sich so verschiedene Typen stochastischer Oszillationen in einheitlicher Weise auf eine stochastische Phasendynamik reduzieren. Mit Hilfe eines numerischen Algorithmus zur Schätzung der Isophasen aus Daten wird die Anwendbarkeit der Theorie anhand eines Signals regelmäßiger Atmung gezeigt. Weiterhin zeigt sich, dass das Kriterium der Phasenidentifikation für chaotische Oszillationen nur approximativ erfüllt werden kann. Anhand des Rössleroszillators wird der tiefgreifende Zusammenhang zwischen approximativen Isophasen, chaotischer Phasendiffusion und instabilen periodischen Orbits dargelegt. Gemeinsam ermöglichen die Theorien der effektiven Phasendynamik und der generalisierten Isophasen eine umfassende und einheitliche Phasenbeschreibung irregulärer Oszillationen.