Refine
Has Fulltext
- yes (747) (remove)
Year of publication
Document Type
- Doctoral Thesis (747) (remove)
Language
- German (747) (remove)
Keywords
- language acquisition (9)
- Modellierung (8)
- Spracherwerb (8)
- taste (7)
- Geschmack (6)
- Nanopartikel (6)
- Polymer (6)
- Selen (6)
- Serotonin (6)
- education (6)
Institute
- Institut für Biochemie und Biologie (121)
- Institut für Chemie (110)
- Institut für Ernährungswissenschaft (63)
- Institut für Physik und Astronomie (55)
- Wirtschaftswissenschaften (53)
- Department Psychologie (38)
- Institut für Umweltwissenschaften und Geographie (38)
- Department Erziehungswissenschaft (36)
- Sozialwissenschaften (36)
- Department Sport- und Gesundheitswissenschaften (28)
Die vorliegende Arbeit untersucht die Politik der Zentralbankunabhängigkeit (ZBU) am Beispiel der Türkei. Im Mittelpunkt der Arbeit stehen theoretische und empirische Fragen und Probleme, die sich im Zusammenhang mit der ZBU stellen und anhand der türkischen Geldpolitik diskutiert werden. Ein zentrales Ziel der Arbeit besteht darin, zu untersuchen, ob und inwiefern die türkische Zentralbank nach Erlangung der de jure institutionellen Unabhängigkeit tatsächlich als unabhängig und entpolitisiert eingestuft werden kann. Um diese Forschungsfrage zu beantworten, werden die institutionellen Bedingungen, die Ziele und die Regeln, nach denen sich die türkische Geldpolitik richtet, geklärt. Anschließend wird empirisch überprüft, ob die geldpolitische Praxis der CBRT sich an dem offiziell vorgegebenen Regelwerk orientiert. Die Hauptthese dieser Arbeit lautet, dass die formelle Unabhängigkeit der CBRT und die regelorientierte Geldpolitik nicht mit einer Entpolitisierung der Geldpolitik in der Türkei gleichzusetzen ist. Als Alternative schlägt die vorliegende Studie vor, den institutionellen Status der CBRT als einen der relativen Autonomie zu untersuchen. Auch eine de jure unabhängige Zentralbank kann sich nicht von politischen Eingriffen abkoppeln, wie das Fallbeispiel Türkei zeigen wird.
Mit der Liberalisierung des Strommarkts, den unsicheren Aussichten in der Klimapolitik und stark schwankenden Preisen bei Brennstoffen, Emissionsrechten und Kraftwerkskomponenten hat bei Kraftwerksinvestitionen das Risikomanagement an Bedeutung gewonnen. Dies äußert sich im vermehrten Einsatz probabilistischer Verfahren. Insbesondere bei regulativen Risiken liefert der klassische, häufigkeitsbasierte Wahrscheinlichkeitsbegriff aber keine Handhabe zur Risikoquantifizierung. In dieser Arbeit werden Kraftwerksinvestitionen und -portfolien in Deutschland mit Methoden des Bayes'schen Risikomanagements bewertet. Die Bayes'sche Denkschule begreift Wahrscheinlichkeit als persönliches Maß für Unsicherheit. Wahrscheinlichkeiten können auch ohne statistische Datenanalyse allein mit Expertenbefragungen gewonnen werden. Das Zusammenwirken unsicherer Werttreiber wurde mit einem probabilistischen DCF-Modell (Discounted Cash Flow-Modell) spezifiziert und in ein Einflussdiagramm mit etwa 1200 Objekten umgesetzt. Da der Überwälzungsgrad von Brennstoff- und CO2-Kosten und damit die Höhe der von den Kraftwerken erwirtschafteten Deckungsbeiträge im Wettbewerb bestimmt werden, reicht eine einzelwirtschaftliche Betrachtung der Kraftwerke nicht aus. Strompreise und Auslastungen werden mit Heuristiken anhand der individuellen Position der Kraftwerke in der Merit Order bestimmt, d.h. anhand der nach kurzfristigen Grenzkosten gestaffelten Einsatzreihenfolge. Dazu wurden 113 thermische Großkraftwerke aus Deutschland in einer Merit Order vereinigt. Das Modell liefert Wahrscheinlichkeitsverteilungen für zentrale Größen wie Kapitalwerte von Bestandsportfolien sowie Stromgestehungskosten und Kapitalwerte von Einzelinvestitionen (Steinkohle- und Braunkohlekraftwerke mit und ohne CO2-Abscheidung sowie GuD-Kraftwerke). Der Wert der Bestandsportfolien von RWE, E.ON, EnBW und Vattenfall wird primär durch die Beiträge der Braunkohle- und Atomkraftwerke bestimmt. Erstaunlicherweise schlägt sich der Emissionshandel nicht in Verlusten nieder. Dies liegt einerseits an den Zusatzgewinnen der Atomkraftwerke, andererseits an den bis 2012 gratis zugeteilten Emissionsrechten, welche hohe Windfall-Profite generieren. Dadurch erweist sich der Emissionshandel in seiner konkreten Ausgestaltung insgesamt als gewinnbringendes Geschäft. Über die Restlaufzeit der Bestandskraftwerke resultiert ab 2008 aus der Einführung des Emissionshandels ein Barwertvorteil von insgesamt 8,6 Mrd. €. In ähnlicher Dimension liegen die Barwertvorteile aus der 2009 von der Bundesregierung in Aussicht gestellten Laufzeitverlängerung für Atomkraftwerke. Bei einer achtjährigen Laufzeitverlängerung ergäben sich je nach CO2-Preisniveau Barwertvorteile von 8 bis 15 Mrd. €. Mit höheren CO2-Preisen und Laufzeitverlängerungen von bis zu 28 Jahren würden 25 Mrd. € oder mehr zusätzlich anfallen. Langfristig erscheint fraglich, ob unter dem gegenwärtigen Marktdesign noch Anreize für Investitionen in fossile Kraftwerke gegeben sind. Zu Beginn der NAP 2-Periode noch rentable Investitionen in Braunkohle- und GuD-Kraftwerke werden mit der auslaufenden Gratiszuteilung von Emissionsrechten zunehmend unrentabler. Die Rentabilität wird durch Strommarkteffekte der erneuerbaren Energien und ausscheidender alter Gas- und Ölkraftwerke stetig weiter untergraben. Steinkohlekraftwerke erweisen sich selbst mit anfänglicher Gratiszuteilung als riskante Investition. Die festgestellten Anreizprobleme für Neuinvestitionen sollten jedoch nicht dem Emissionshandel zugeschrieben werden, sondern resultieren aus den an Grenzkosten orientierten Strompreisen. Das Anreizproblem ist allerdings bei moderaten CO2-Preisen am größten. Es gilt auch für Kraftwerke mit CO2-Abscheidung: Obwohl die erwarteten Vermeidungskosten für CCS-Kraftwerke gegenüber konventionellen Kohlekraftwerken im Jahr 2025 auf 25 €/t CO2 (Braunkohle) bzw. 38,5 €/t CO2 (Steinkohle) geschätzt werden, wird ihr Bau erst ab CO2-Preisen von 50 bzw. 77 €/t CO2 rentabel. Ob und welche Kraftwerksinvestitionen sich langfristig rechnen, wird letztlich aber politisch entschieden und ist selbst unter stark idealisierten Bedingungen kaum vorhersagbar.
Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt.
In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt.
Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt.
Institutionelle Bildung ist für autistische Lernende mit vielgestaltigen und spezifischen Hindernissen verbunden. Dies gilt insbesondere im Zusammenhang mit Inklusion, deren Relevanz nicht zuletzt durch das Übereinkommen der Vereinten Nationen über die Rechte von Menschen mit Behinderung gegeben ist.
Diese Arbeit diskutiert zahlreiche lernrelevante Besonderheiten im Kontext von Autismus und zeigt Diskrepanzen zu den nicht immer ausreichend angemessenen institutionellen Lehrkonzepten. Eine zentrale These ist hierbei, dass die ungewöhnlich intensive Aufmerksamkeit von Autist*innen für ihre Spezialinteressen dafür genutzt werden kann, das Lernen mit fremdgestellten Inhalten zu erleichtern. Darauf aufbauend werden Lösungsansätze diskutiert, welche in einem neuartigen Konzept für ein digitales mehrgerätebasiertes Lernspiel resultieren.
Eine wesentliche Herausforderung bei der Konzeption spielbasierten Lernens besteht in der adäquaten Einbindung von Lerninhalten in einen fesselnden narrativen Kontext. Am Beispiel von Übungen zur emotionalen Deutung von Mimik, welche für das Lernen von sozioemotionalen Kompetenzen besonders im Rahmen von Therapiekonzepten bei Autismus Verwendung finden, wird eine angemessene Narration vorgestellt, welche die störungsarme Einbindung dieser sehr speziellen Lerninhalte ermöglicht.
Die Effekte der einzelnen Konzeptionselemente werden anhand eines prototypisch entwickelten Lernspiels untersucht. Darauf aufbauend zeigt eine quantitative Studie die gute Akzeptanz und Nutzerfreundlichkeit des Spiels und belegte vor allem die
Verständlichkeit der Narration und der Spielelemente. Ein weiterer Schwerpunkt liegt in der minimalinvasiven Untersuchung möglicher Störungen des Spielerlebnisses durch den Wechsel zwischen verschiedenen Endgeräten, für die ein innovatives Messverfahren entwickelt wurde.
Im Ergebnis beleuchtet diese Arbeit die Bedeutung und die Grenzen von spielbasierten Ansätzen für autistische Lernende. Ein großer Teil der vorgestellten Konzepte lässt sich auf andersartige Lernszenarien übertragen. Das dafür entwickelte technische Framework zur Realisierung narrativer Lernpfade ist ebenfalls darauf vorbereitet, für weitere Lernszenarien, gerade auch im institutionellen Kontext, Verwendung zu finden.
Die gewaltigen Strukturveränderungen im Bereich des Gesundheitswesens, die in den letzten Jahren bereits erfolgten und die, die noch bevorstehen, zwingen Unternehmen, mit geplanten und gesteuerten Veränderungsprozessen die Voraussetzungen für eine kontinuierliche Anpassung an die neuen Gegebenheiten zu schaffen und somit ihre Zukunftsfähigkeit sicherzustellen. Vor diesem Hintergrund wird gezeigt, wie das Excellence-Modell der EFQM als Instrument für Veränderungsprozesse eingesetzt werden kann und es geeignet ist, Veränderungsziele zu definieren und die Zielerreichung zu bewerten. Referenzobjekt der Fallstudienanalyse, die einen Zeitraum von 13 Jahren umfasst, ist der Medizinische Dienst der Krankenversicherung Rheinland-Pfalz. Neben der Analyse und Darstellung von theoretischen Grundlagen wird an einem Unternehmen des Gesundheitswesens beispielhaft gezeigt, wie die Umsetzung in der Praxis unter Einsatz des EFQM-Modells erfolgen kann. Da das EFQM-Modell mit seiner Systematik unternehmensunabhängig eingesetzt werden kann, sind Lern- und Übertragungsmöglichkeiten strukturiert möglich. Es wird der Nachweis erbracht, dass sich das EFQM-Modell im Rahmen eines Management- und Qualitätssteue-rungsmodells als Universalmethode nutzen lässt, sofern das Management über die Kompe-tenz branchenspezifischer Anpassung verfügt. Auf dem Weg zu organisatorischer Excel-lence wird gezielt an Planungs- und Prognosetechniken des strategischen Managements (SWOT, Szenario-Analyse, Portfolio-Analyse) angeknüpft und auf das VRIO-Paradigma des Resource-based View Bezug genommen. Das EFQM-Modell wird dem Stresstest des ressourcenstrategischen Ansatzes unterzogen, um so zu zeigen, dass es sich beim EFQM-Modell um ein einzigartiges, schwer imitierbares, kaum zu substituierendes, organisatorisch verankertes und kundennutzen-stiftendes Er-folgspotenzial handeln kann. Die Arbeit liefert Impulse und konkrete Anregungen, die zu einem hohen managementprakti-schen Erkenntniszuwachs für den erfolgreichen Umgang mit dem EFQM-Modell und dem Einsatz von Qualitätsmanagementsystemen führen können.
Hauptanliegen der Dissertation ist es, einen Entwurf einer praktischen Ästhetik zu lancieren, der an der Schnittstelle zwischen philosophischer Ästhetik und Kunst – genauer Performancekunst - im Zeichen der Bezugsgrösse der Verletzbarkeit steht. In jüngeren Ästhetikansätzen hat sich eine Auffassung herauskristallisiert, die nicht über, sondern mit Kunst reflektiert. Die Pointe im ‚Mit’ liegt darin, dass diese Ästhetiken die Kunst nicht erklären, sie bestimmen und damit ihre Bedeutung festlegen, sondern dass diese entlang der Kunst die Brüche, Widerstände und Zäsuren zwischen Wahrnehmen und Denken markieren und diese als produktiv bewerten. Diese Lesart etabliert ein Denken, das nicht aus der Distanz auf etwas schaut (theoria), sondern ästhetisch-reflektierend (zurückwendend, auch selbstkritisch) mit der Kunst denkt. Die Disziplin der Ästhetik - als aisthesis: Lehre der sinnlichen Wahrnehmung - nimmt innerhalb der Philosophie eine besondere Stellung ein, weil sie auf ebendiese Differenz verweist und deshalb sinnliche und nicht nur logisch-argumentatorische Denkfiguren stärkt. Als eine Möglichkeit, die Kluft, das Nicht-Einholbare, die brüchige Unzulänglichkeit des begrifflich Denkenden gegenüber ästhetischer Erfahrung zu stärken, schlage ich die Bezugsgrösse der Verletzbarkeit vor. Eine solche Ästhetik besteht aus dem Kreieren verletzbarer Orte, wobei diese auf zweierlei Weisen umkreist werden: Zum einen aus der Kunstpraxis heraus anhand der ästhetischen Figur des verletzbaren Körpes, wie er sich in der zeitgenössischen Performance zeigt. Zum anderen als ein Kreieren von Begriffen im Bewusstsein ihrer Verletzbarkeit. Ausgangspunkte sind die Denkentwürfe von Gilles Deleuze und Hans Blumenberg: Die Ästhetik von Gilles Deleuze entwirft eine konkrete Überschneidungsmöglichkeit von Kunst und Philosophie, aus der sich meine These des Mit-Kunst-Denkens entwickeln lässt. Sie kann aus der Grundvoraussetzung des Deleuzeschen Denkens heraus begründet werden, die besagt, dass nicht nur die Kunst, sondern auch die Philosophie eine schöpferische Tätigkeit ist. Beide Disziplinen beruhen auf dem Prinzip der creatio continua, durch welche die Kunst Empfindungen und die Philosophie Begriffe schöpft, wobei eben genau dieser schöpferische Prozess Kunst und Philosophie in ein produktives Verhältnis zueinander treten lässt. Wie Deleuze seine Begriffsarbeit entlang künstlerischer Praxis entwickelt, wird anhand der Analyse des bis heute wenig rezipierten Textes Ein Manifest weniger in Bezug auf das Theater von Carmelo Bene analysiert. Eine ganz anderen Zugang zum Entwurf einer praktischen Ästhetik liefert Hans Blumenberg, der eine Theorie der Unbegrifflichkeit in Aussicht stellt. Im Anschluss an seine Forderung, die Metapher wieder vermehrt in die philosophische Denkpraxis zu integrieren, radikalisiert er seine Forderung, auch das Nichtanschauliche zu berücksichtigen, indem er das gänzlich Unbegriffliche an die Seite des Begrifflichen stellt. Definitorische Schwäche zeigt sich als wahrhaftige Stärke, die in der Unbegrifflichkeit ihren Zenit erreicht. Der Schiffbruch wird von mir als zentrale Metapher – gewissermassen als Metapher der Metapher – verstanden, die das Auf-Grund-Laufen des Allwissenden veranschaulicht. Im Schiffbruch wird die produktive Kollision von Theorie und Praxis deutlich. Deleuze und Blumenberg zeigen über ‚creatio continua’ und ‚Unbegrifflichkeit’ die Grenzen des Begreifens, indem sie betonen, dass sich Ästhetik nicht nur auf künstlerische Erfahrungen bezieht, sondern selber in das Gegenwärtigmachen von Erfahrungen involviert ist. Daraus folgt, dass ästhetische Reflexion nicht nur begrifflich agieren muss. Die praktische Ästhetik animiert dazu, andere darstellerische Formen (Bilder, Töne, Körper) als differente und ebenbürtige reflexive Modi anzuerkennen und sie als verletzbarmachende Formate der Sprache an die Seite zu stellen. Diese Lesart betont den gestalterischen Aspekt der Ästhetik selber. Zur Verdeutlichung dieser Kluft zwischen (Körper-)Bild und Begriff ist der von mir mitgestaltete Film Augen blickeN der Dissertation als Kapitel beigefügt. Dieser Film zeigt Performer und Performerinnen, die sich bewusst entschieden haben, ihren ‚abweichenden’ Körper auf der Bühne zu präsentieren. Das Wort Verletzbarkeit verweist auf die paradoxe Situation, etwas Brüchiges tragfähig zu machen und dadurch auch auf eine besondere Beziehungsform und auf ein existenzielles Aufeinander-Verwiesensein der Menschen. Verletzbarkeit geht alle an, und stiftet deshalb eine Gemeinsamkeit besonderer Art. In diesem Sinne sind verletzbare Orte nicht nur ästhetische, sondern auch ethische Orte, womit die politische Dimension des Vorhabens betont wird.
Die funktionelle Charakterisierung von therapeutisch relevanten Proteinen kann bereits durch die Bereitstellung des Zielproteins in adäquaten Mengen limitierend sein. Dies trifft besonders auf Membranproteine zu, die aufgrund von zytotoxischen Effekten auf die Produktionszelllinie und der Tendenz Aggregate zu bilden, in niedrigen Ausbeuten an aktivem Protein resultieren können. Der lebende Organismus kann durch die Verwendung von translationsaktiven Zelllysaten umgangen werden- die Grundlage der zellfreien Proteinsynthese. Zu Beginn der Arbeit wurde die ATP-abhängige Translation eines Lysates auf der Basis von kultivierten Insektenzellen (Sf21) analysiert. Für diesen Zweck wurde ein ATP-bindendes Aptamer eingesetzt, durch welches die Translation der Nanoluziferase reguliert werden konnte. Durch die dargestellte Applizierung von Aptameren, könnten diese zukünftig in zellfreien Systemen für die Visualisierung der Transkription und Translation eingesetzt werden, wodurch zum Beispiel komplexe Prozesse validiert werden können.
Neben der reinen Proteinherstellung können Faktoren wie posttranslationale Modifikationen sowie eine Integration in eine lipidische Membran essentiell für die Funktionalität des Membranproteins sein. Im zweiten Abschnitt konnte, im zellfreien Sf21-System, für den G-Protein-gekoppelten Rezeptor Endothelin B sowohl eine Integration in die endogen vorhandenen Endoplasmatisch Retikulum-basierten Membranstrukturen als auch Glykosylierungen, identifiziert werden.
Auf der Grundlage der erfolgreichen Synthese des ET-B-Rezeptors wurden verschiedene Methoden zur Fluoreszenzmarkierung des Adenosin-Rezeptors A2a (Adora2a) angewandt und optimiert. Im dritten Abschnitt wurde der Adora2a mit Hilfe einer vorbeladenen tRNA, welche an eine fluoreszierende Aminosäure gekoppelt war, im zellfreien Chinesischen Zwerghamster Ovarien (CHO)-System markiert. Zusätzlich konnte durch den Einsatz eines modifizierten tRNA/Aminoacyl-tRNA-Synthetase-Paares eine nicht-kanonische Aminosäure an Position eines integrierten Amber-Stopcodon in die Polypeptidkette eingebaut und die funktionelle Gruppe im Anschluss an einen Fluoreszenzfarbstoff gekoppelt werden. Aufgrund des offenen Charakters eignen sich zellfreie Proteinsynthesesysteme besonders für eine Integration von exogenen Komponenten in den Translationsprozess. Mit Hilfe der Fluoreszenzmarkierung wurde eine ligandvermittelte Konformationsänderung im Adora2a über einen Biolumineszenz-Resonanzenergietransfer detektiert. Durch die Etablierung der Amber-Suppression wurde darüber hinaus das Hormon Erythropoetin pegyliert, wodurch Eigenschaften wie Stabilität und Halbwertszeit des Proteins verändert wurden.
Zu guter Letzt wurde ein neues tRNA/Aminoacyl-tRNA-Synthetase-Paar auf Basis der Methanosarcina mazei Pyrrolysin-Synthetase etabliert, um das Repertoire an nicht-kanonischen Aminosäuren und den damit verbundenen Kopplungsreaktionen zu erweitern. Zusammenfassend wurden die Potenziale zellfreier Systeme in Bezug auf der Herstellung von komplexen Membranproteinen und der Charakterisierung dieser durch die Einbringung einer positionsspezifischen Fluoreszenzmarkierung verdeutlicht, wodurch neue Möglichkeiten für die Analyse und Funktionalisierung von komplexen Proteinen geschaffen wurden.
In dieser Arbeit wurden Zusammenhänge zwischen den sexuellen Erfahrungen junger Frauen und Männer, ihren Persönlichkeitseigenschaften und ihren sexualmoralischen Einstellungen auf der einen Seite und der Einschätzung ihrer sexuellen Handlungsfähigkeit auf der anderen Seite untersucht. Die Grundlage für das Modell der sexuellen Handlungsfähigkeit bildeten die Vorstellungen der Arbeitsgruppe um Matthias Grundmann (Grundmann et al. 2006) sowie von Emirbayer und Mische (1998). Das in dieser Arbeit entwickelte Modell zur sexuellen Handlungsfähigkeit ist ein multidimensionales Konstrukt, das sich aus den Komponenten „sexuelle Kommunikation“, „sexuelle Zufriedenheit“, „sexuelle Reziprozität“ sowie „sexuelle Eigenverantwortung“ zusammensetzt. „Sexuelle Kommunikation“ beinhaltet die Fähigkeit, sexuelle Wünsche zum Ausdruck bringen zu können. „Sexuelle Zufriedenheit“ beschreibt den Grad der Zufriedenheit mit dem eigenen Sexualleben. „Sexuelle Reziprozität“ verweist auf die Fähigkeit, sexuelle Aufmerksamkeiten sowohl Annehmen als auch Geben zu können. „Sexuelle Eigenverantwortung“ betont schließlich die Einschätzung, inwieweit die eigene Sexualität selbst bestimmt gestaltet werden kann. Mit Emirbayer und Mische werden die sexuellen Erfahrungen der Frauen und Männer als Korrelate der Einschätzung der Dimensionen der sexuellen Handlungsfähigkeit betrachtet. Mit Grundmann et al. sind es zudem verschiedene Persönlichkeitseigenschaften sowie sexualmoralische Einstellungen, deren Beschaffenheiten Aussagen über die sexuelle Handlungsfähigkeit erlauben. Um die Thematik der sexuellen Handlungsfähigkeit empirisch zu betrachten, wurden im Jahr 2006 695 junge Potsdamer/innen im Alter von 19 bis 21 Jahren im Rahmen einer standardisierten Erhebung zu ihren sexuellen und Beziehungserfahrungen befragt. Die empirischen Analysen verdeutlichen eine ko-konstruktive Anschauung von der Entwicklung sexueller Handlungsfähigkeit. Diese entsteht nicht im Individuum allein, sondern innerhalb der Interaktions- und Aushandlungsprozesse des Individuums mit den Anderen seiner sozialen und sexuellen Umwelt. Von Bedeutung erweisen dabei sowohl die Erlebnisse der sexuellen Biografie als auch die Persönlichkeitsmerkmale eines jeden Einzelnen. Nur geringfügig erscheinen die erfragten sexualmoralischen Ansichten von Bedeutung.
Die vorliegende Arbeit setzt sich aus zwei Teilstudien zusammen. In Teilstudie 1 wird die Stabilität eines allgemeinen Modells zu den Zusammenhängen zwischen Über- und Unterforderungsmerkmalen, sozialen Belastungen, Anforderungen und organisationalen Ressourcen einerseits sowie den Fehlbeanspruchungen emotionale Erschöpfung und Klientenaversion bzw. Distanzierungstendenzen andererseits für personenbezogene Dienstleistungstätigkeiten untersucht. Einbezogen wurden Ärztinnen und Ärzte, Pflegende und Mitarbeitende aus dem paramedizinischen Bereich sowie Lehrkräfte. Die deutlichsten positiven Zusammenhänge zeigen sich zwischen den Belastungen und der emotionalen Erschöpfung, wobei für die quantitative Überforderung die stabilsten Ergebnisse resultieren. Die Belastungen weisen über die emotionale Erschöpfung hinaus signifikante Zusammenhänge mit aversiven Gefühlen gegen Klientinnen und Klienten auf. Hinsichtlich der modellimplizierten Annahmen zu den positiven Zusammenhängen zwischen den Belastungen und der Distanzierung können in dieser Untersuchung zwar signifikante Ergebnisse, aber keine über die Stichproben hinweg stabilen Zusammenhänge gefunden werden. Die Annahmen zu einem negativen Zusammenhang zwischen den Anforderungen/Ressourcen und der Distanzierung können nur für die Anforderungsmerkmale bestätigt werden. In Teilstudie 2 erfolgte auf der Basis des in Teilstudie 1 entwickelten Arbeitsmodells eine vertiefte Betrachtung der Lehrkräftetätigkeit. Dabei wurden sowohl verschiedene Schulsystemebenen einbezogen als auch verschiedene Aufgabentypen unterschieden. Die Ergebnisse zeigen, dass auf organisationaler Ebene Gratifikationskrisen und mangelnde kollektive Selbstwirksamkeitserwartungen fehlbeanspruchungsrelevant sein können. Besonders deutliche Zusammenhänge mit den Fehlbeanspruchungen und der Distanzierung zeigen sich für die primäraufgabenbezogenen Belastungen. Auch die Reziprozitätseinschätzungen in Bezug auf Schülerinnen und Eltern zeigen diesbezüglich ähnliche, wenn auch weniger deutliche, Zusammenhänge. Die Ergebnisse zu den Personmerkmalen lassen darauf schliessen, dass die Rolle der Person bei der Burnoutentwicklung nicht unterschätzt werde sollte. Als praktische Implikationen der Untersuchungsergebnisse werden u.a. Vorschläge für eine Stärkung der unterrichtsbezogenen und der klassenübergreifenden Kooperation, für eine Optimierung der Organisationsstruktur und eine „Professionalisierung“ der Organisation sowie für eine weiterführende Erarbeitung schulhausspezifischer Konzepte und Leitlinien gemacht. Es wird die Frage gestellt, ob die Lehrkräftetätigkeit sinnvollerweise als Lebensberuf verstanden werden sollte. Schliesslich wird auf die Bedeutung der Distanzierungsfähigkeit und der Selbstwirksamkeitserwartungen der Lehrkräfte hingewiesen.
In dieser ethnographisch-soziologischen Fallstudie wird die Geschichte der chinesischen Immigration in Bukarest nach 1990 in ihrer Besonderheit und ihren allgemeinen Strukturen nachvollzogen. Dies geschieht durch eine Doppelperspektive auf den Fall: Die Rekonstruktion der diskursiven (Re-)Präsentation des Falles als methodisch-analytische Vorstufe wurde einer anschließenden historischen Rekon-struktion der erlebten Geschichte der Migranten vorangestellt. Die anschließende Kontrastierung der Ergebnisse aus beiden Analyseschritten diente der Heraus-arbeitung vorher noch nicht sichtbarer Interdependenzen und Bezüge zwischen diesen beiden Ebenen. Mit anderen Worten: Die diskursive Ebene und die historische bzw. erlebte Ebene bilden gemeinsam und in Verschränkung miteinander die konstitutive/n Struktur/en des Falles: Erstens geht es um die Besonderheit der Post-1989-Migration von China nach Rumänien im Kontext von Transformationen. So ist für die Struktur und den Verlauf des Falles bestimmend, dass sich mehrere Wandlungsprozesse sowohl im Herkunfts- als auch im Einwanderungskontext zugleich ereigneten. Dazu gehören die Globalisierung allgemein sowie die als Transformationen bezeichneten Prozesse in China seit 1978 und in Rumänien seit 1989. Auf nationaler, lokaler Ebene sowie auf der Ebene der alltäglichen sozialen Wirklichkeit der Stadtbevölkerung und der Immigranten in Bukarest war zu beobachten, dass diese mit rapiden Veränderungen konfrontiert waren und sind. So kamen zu Beginn der 1990er Jahre einige Pioniere mit Koffern voll China-Ware in Bukarest an und verkauften ihre Ware auf den unzähligen kleinen Straßenmärkten der Stadt. Im Jahr 2007 befindet sich auf einem großen Areal am Stadtrand von Bukarest ein Baukomplex aus acht großen Shopping-Malls. Chinesische UnternehmerInnen investieren nun in Großprojekte wie etwa der Telekommunikation in Rumänien. Neu ist auch die Rekrutierung von chinesischen Textilarbeiterinnen durch rumänische Unternehmer. Diese Entwicklung hängt mit dem gegenwärtigen Mangel an rumänischen Arbeitskräften aufgrund der Auswanderungs-wellen aus Rumänien zusammen. Charakteristisch ist jedoch, dass diese ge-sellschaftlich tiefgreifenden Änderungen, die nicht nur die hier genannten öko-nomischen, sondern auch politische und soziale Konsequenzen haben, in einem starken Kontrast dazu stehen, dass ihre soziale Wirklichkeit in der Forschung, der Politik und Öffentlichkeit unbeachtet und unbekannt blieb. Als zweites Themenfeld ist das Spannungsverhältnis von lokalen und globalen Prozessen für die Geschichte der Migranten zu nennen. Dabei sind die Bedeutung der „Verortung“ einerseits und die der Transnationalität andererseits strukturbildend für die Fallgeschichte. Dabei spielte die Auseinandersetzung mit dem wissenschaftlichen Transnationalismuskonzept eine besondere Rolle: Dieses behandelte ich als theo-retischen Diskurs, der zunächst kritisch betrachtet wurde. Die Frage, ob und wie die chinesische Community in Bukarest transnational lebt und was transnationale Lebens-formen sein könnten, wurde empirisch beantwortet. Drittens habe ich unter Bezugnahme auf das Konzept des sozialen Deutungsmusters aufgezeigt, dass Informalität als soziales Konstrukt auf unterschiedlichen Ebenen fallbestimmend ist. Informalisierungsprozesse sowie damit verbundene Illegalisierung und Kriminalisierung der Migranten in Europa bilden also ein weiteres Themenfeld der Fallstruktur. Schließlich stellt die gesellschaftliche Konstruktion kultureller Deutungsmuster über chinesische Migranten ein viertes zentrales Thema der Fallstruktur dar. Die chinesischen Migranten in Bukarest leben im Fadenkreuz unterschiedlicher Zuschreibungen. Im Herkunftsland werden sie als patriotische Kapitalisten, die Moder-nität ins Land bringen, gefeiert. In Europa werden sie der internationalen Welle ‚illegaler Migration‘ zugeordnet und auf Kriminelle und/oder Opfer reduziert. In Bukarest leben sie mit und in Konkurrenz der Bewertungen bzw. Abwertungen von Minderheitengruppen, wie etwa der Roma-Minderheit. Diese Bewertungen und Zuschreibungen haben mehrere Konsequenzen. Eine davon ist, dass chinesische Immigranten in Bukarest es gelernt haben, mit diesen aktiv umzugehen. So wurde deutlich, dass sich kulturelle Deutungsmuster nicht nur habituell verankern oder als biographisches Kapital gelebt werden, sondern situationsangemessen genutzt oder sogar teilsweise inszeniert werden, mit dem Ziel, einen Weg in die Gesellschaft zu finden und in dieser als Minderheitengruppe in eine respektierte Position zu gelangen.
Weltweit streben Anti-Doping Institute danach jene Sportler zu überführen, welche sich unerlaubter Mittel oder Methoden bedienen. Die hierfür notwendigen Testsysteme werden kontinuierlich weiterentwickelt und neue Methoden aufgrund neuer Wirkstoffe der Pharmaindustrie etabliert. Gegenstand dieser Arbeit war es, eine parallele Mehrkomponentenanalyse auf Basis von Antigen-Antikörper Reaktionen zu entwickeln, bei dem es primär um Verringerung des benötigten Probevolumens und der Versuchszeit im Vergleich zu einem Standard Nachweis-Verfahren ging. Neben der Verwendung eines Multiplex Ansatzes und der Mikroarraytechnologie stellten ebenfalls die Genauigkeit aller Messparameter, die Stabilität des Versuchsaufbaus sowie die Performance über einen Einfach-Blind-Ansatz Herausforderungen dar. Die Anforderung an den Multiplex Ansatz, keine falschen Signale trotz ähnlicher Strukturen zu messen, konnte durch die gezielte Kombination von spezifischen Antikörpern realisiert werden. Hierfür wurden neben Kreuzreaktivitätstests auf dem Mikroarray parallel erfolgreich Western Blot Versuche durchgeführt. Jene Antikörper, welche in diesen Versuchen die gesetzten Anforderungen erfüllten, wurden für das Ermitteln der kleinsten nachweisbaren Konzentration verwendet. Über das Optimieren der Versuchsbedingungen konnte unter Verwendung von Tween in der Waschlösung sowohl auf Glas als auch auf Kunststoff die Hintergrundfluoreszenz reduziert und somit eine Steigerung des Signal/Hintergrundverhältnisses erreicht werden. In den Versuchen zu Ermittlung der Bestimmungsgrenze wurde für das humane Choriongonadotropin (hCG-i) eine Konzentration von 10 mU/ml, für dessen beta-Untereinheit (hCG-beta) eine Konzentration von 3,6 mU/ml und für das luteinisierende Hormon (LH) eine Konzentration von 10 mU/ml bestimmt. Den ermittelten Wert im Serum für das hCG-i entspricht dem von der Welt-Anti-Dopin-Agentur (WADA) geforderten Wert in Urin von 5 mU/ml. Neben der Ermittlung von Bestimmungsgrenzen wurden diese hinsichtlich auftretender Matrixeffekte in Serum und Blut gemessen. Wie aus den Versuchen zur Ermittlung von Kreuzreaktivitäten auf dem Mikroarray zu entnehmen ist, lassen sich das LH, das hCG-i und hCG-β ebenfalls in Serum und Blut messen. Die Durchführung einer Performance-Analyse über einem Einfach-Blind-Ansatz mit 130 Serum Proben, wurde ebenfalls über dieses System realisiert. Die ausgewerteten Proben wurden anschließend über eine Grenzwertoptimierungskurve analysiert und die diagnostische Spezifität ermittelt. Für die Messungen des LH konnte eine Sensitivität und Spezifität von 100% erreicht werden. Demnach wurden alle negativen und positiven Proben eindeutig interpretiert. Für das hCG-β konnte ebenfalls eine Spezifität von 100% und eine Sensitivität von 97% erreicht werden. Die hCG-i Proben wurden mit einer Spezifität von 100% und eine Sensitivität von 97,5% gemessen. Um den Nachweis zu erbringen, dass dieser Versuchsaufbau über mehrere Wochen stabile Signale bei Vermessen von identischen Proben liefert, wurde ein über zwölf Wochen angesetzter Stabilitätstest für alle Parameter erfolgreich in Serum und Blut durchgeführt. Zusammenfassend konnte in dieser Arbeit erfolgreich eine Mehrkomponentenanalyse als Multiplex Ansatz auf einem Mikroarray entwickelt werden. Die Durchführung der Performance-Analyse und des Stabilitätstests zeigen bereits die mögliche Einsatzfähigkeit dieses Tests im Kontext einer Dopinganalyse.
Food Neophilie
(2023)
Trotz der eindeutigen Vorteile einer ausgewogenen Ernährung halten sich viele Menschen weltweit nicht an entsprechende Ernährungsrichtlinien. Um angemessene Strategien zur Unterstützung einer gesundheitsfördernden Ernährung zu entwickeln, ist ein Verständnis der zugrunde liegenden Faktoren unerlässlich. Insbesondere die Gruppe der älteren Erwachsenen stellt dabei eine wichtige Zielgruppe für ernährungsbezogene Präventions- und Interventionsansätze dar. Einer der vielen Faktoren, die als Determinanten einer gesundheitsfördernden Ernährung diskutiert werden, ist die Food Neophilie, also die Bereitschaft, neue und unbekannte Lebensmittel auszuprobieren. Aktuelle Forschungsergebnisse legen nahe, dass die Food Neophilie positiv mit einer gesundheitsfördernden Ernährung in Verbindung steht, allerdings ist die bisherige Forschung in diesem Bereich äußerst begrenzt. Das Ziel der Dissertation war es, das Konstrukt der Food Neophilie sowie seine Beziehung zu gesundheitsförderndem Ernährungsverhalten im höheren Erwachsenenalter grundlegend zu erforschen, um das Potenzial der Food Neophilie für die Gesundheitsförderung älterer Erwachsener besser zu verstehen. Dabei wurde im Rahmen der ersten Publikation zunächst untersucht, wie sich das Konstrukt der Food Neophilie reliabel und valide erfassen lässt, um weiterführende Untersuchungen der Food Neophilie zu ermöglichen. Die psychometrische Validierung der deutschen Version der Variety Seeking Tendency Scale (VARSEEK) basierte auf zwei unabhängigen Stichproben mit insgesamt N = 1000 Teilnehmenden und bestätigte, dass es sich bei der Skala um ein reliables und valides Messinstrument zur Erfassung der Food Neophilie handelt. Darauf aufbauend wurde im Rahmen der zweiten Publikation die Beziehung der Food Neophilie und der Ernährungsqualität über die Zeit hinweg analysiert. Die prospektive Untersuchung von N = 960 Teilnehmenden des höheren Erwachsenenalters (M = 63.4 Jahre) anhand einer Cross-Lagged-Panel-Analyse ergab hohe zeitliche Stabilitäten der Food Neophilie und der Ernährungsqualität über einen Zeitraum von drei Jahren. Es zeigte sich zudem ein positiver querschnittlicher Zusammenhang zwischen der Food Neophilie und der Ernährungsqualität, jedoch wurde die Food Neophilie nicht als signifikante Determinante der Ernährungsqualität über die Zeit hinweg identifiziert. In der dritten Publikation wurden schließlich nicht nur die individuellen Auswirkungen der Food Neophilie auf die Ernährungsqualität betrachtet, sondern auch potenzielle dynamische Wechselwirkungen innerhalb von Partnerschaften einbezogen. Hierzu erfolgte mittels eines Actor-Partner-Interdependence-Modells eine Differenzierung potenzieller intra- und interpersoneller Einflüsse der Food Neophilie auf die Ernährungsqualität. Im Rahmen der dyadischen Analyse zeigte sich bei N = 390 heterosexuellen Paaren im höheren Erwachsenenalter (M = 64.0 Jahre) ein Dominanzmuster: Während die Food Neophilie der Frauen positiv mit ihrer eigenen Ernährungsqualität und der ihrer Partner zusammenhing, war die Food Neophilie der Männer nicht mit der Ernährungsqualität des Paares assoziiert. Insgesamt leistet die vorliegende Dissertation einen wertvollen Beitrag zum umfassenden Verständnis der Food Neophilie sowie ihrer Rolle im Kontext der Ernährungsgesundheit älterer Erwachsener. Trotz fehlender Vorhersagekraft über die Zeit hinweg deutet der positive Zusammenhang zwischen Food Neophilie und Ernährungsqualität darauf hin, dass die Fokussierung auf eine positive und neugierige Einstellung gegenüber Lebensmitteln eine innovative Perspektive für Präventions- und Interventionsansätze zur Unterstützung einer gesundheitsfördernden Ernährung älterer Erwachsener bieten könnte.
Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist.
Sekundäre Pflanzenstoffe und ihre gesundheitsfördernden Eigenschaften sind in den letzten zwei Jahrzehnten vielfach ernährungsphysiologisch untersucht und spezifische positive Effekte im humanen Organismus zum Teil sehr genau beschrieben worden. Zu den Carotinoiden zählend ist der sekundäre Pflanzenstoff Lutein insbesondere in der Prävention von ophthalmologischen Erkrankungen in den Mittelpunkt der Forschung gerückt. Das ausschließlich von Pflanzen und einigen Algen synthetisierte Xanthophyll wird über die pflanzliche Nahrung insbesondere grünes Blattgemüse in den humanen Organismus aufgenommen. Dort akkumuliert es bevorzugt im Makulapigment der Retina des menschlichen Auges und ist bedeutend im Prozess der Aufrechterhaltung der Funktionsfähigkeit der Photorezeptorzellen. Im Laufe des Alterns kann die Abnahme der Dichte des Makulapigments und der Abbau von Lutein beobachtet werden. Die dadurch eintretende Destabilisierung der Photorezeptorzellen im Zusammenhang mit einer veränderten Stoffwechsellage im alternden Organismus kann zur Ausprägung der altersbedingten Makuladegeneration (AMD) führen. Die pathologische Symptomatik der Augenerkrankung reicht vom Verlust der Sehschärfe bis hin zum irreversiblen Erblinden. Da therapeutische Mittel ausschließlich ein Fortschreiten verhindern, bestehen hier Forschungsansätze präventive Maßnahmen zu finden. Die Supplementierung von luteinhaltigen Präparaten bietet dabei einen Ansatzpunkt. Auf dem Markt finden sich bereits Nahrungsergänzungsmittel (NEM) mit Lutein in verschiedenen Applikationen. Limitierend ist dabei die Stabilität und Bioverfügbarkeit von Lutein, welches teilweise kostenintensiv und mit unbekannter Reinheit zu erwerben ist. Aus diesem Grund wäre die Verwendung von Luteinestern als die pflanzliche Speicherform des Luteins im Rahmen eines NEMs vorteilhaft. Neben ihrer natürlichen, höheren Stabilität sind Luteinester nachhaltig und kostengünstig einsetzbar.
In dieser Arbeit wurden physikochemische und ernährungsphysiologisch relevante Aspekte in dem Produktentwicklungsprozess eines NEMs mit Luteinestern in einer kolloidalen Formulierung untersucht. Die bisher einzigartige Anwendung von Luteinestern in einem Mundspray sollte die Aufnahme des Wirkstoffes insbesondere für ältere Menschen erleichtern und verbessern. Unter Beachtung der Ergebnisse und der ernährungsphysiologischen Bewertung sollten u.a. Empfehlungen für die Rezepturzusammensetzungen einer Miniemulsion (Emulsion mit Partikelgrößen <1,0 µm) gegeben werden. Eine Einschätzung der Bioverfügbarkeit der Luteinester aus den entwickelten, kolloidalen Formulierungen konnte anhand von Studien zur Resorption- und Absorptionsverfügbarkeit in vitro ermöglicht werden.
In physikalischen Untersuchungen wurden zunächst Basisbestandteile für die Formulierungen präzisiert. In ersten wirkstofffreien Musteremulsionen konnten ausgewählte Öle als Trägerphase sowie Emulgatoren und Löslichkeitsvermittler (Peptisatoren) hinsichtlich ihrer Eignung zur Bereitstellung einer Miniemulsion physikalisch geprüft werden. Die beste Stabilität und optimale Eigenschaften einer Miniemulsion zeigten sich bei der Verwendung von MCT-Öl (engl. medium chain triglyceride) bzw. Rapsöl in der Trägerphase sowie des Emulgators Tween® 80 (Tween 80) allein oder in Kombination mit dem Molkenproteinhydrolysat Biozate® 1 (Biozate 1).
Aus den physikalischen Untersuchungen der Musteremulsionen gingen die Präemulsionen als Prototypen hervor. Diese enthielten den Wirkstoff Lutein in verschiedenen Formen. So wurden Präemulsionen mit Lutein, mit Luteinestern sowie mit Lutein und Luteinestern konzipiert, welche den Emulgator Tween 80 oder die Kombination mit Biozate 1 enthielten. Bei der Herstellung der Präemulsionen führte die Anwendung der Emulgiertechniken Ultraschall mit anschließender Hochdruckhomogenisation zu den gewünschten Miniemulsionen. Beide eingesetzten Emulgatoren boten optimale Stabilisierungseffekte. Anschließend erfolgte die physikochemische Charakterisierung der Wirkstoffe. Insbesondere Luteinester aus Oleoresin erwiesen sich hier als stabil gegenüber verschiedenen Lagerungsbedingungen. Ebenso konnte bei einer kurzzeitigen Behandlung der Wirkstoffe unter spezifischen mechanischen, thermischen, sauren und basischen Bedingungen eine Stabilität von Lutein und Luteinestern gezeigt werden. Die Zugabe von Biozate 1 bot dabei nur für Lutein einen zusätzlichen Schutz. Bei längerer physikochemischer Behandlung unterlagen die in den Miniemulsionen eingebrachten Wirkstoffe moderaten Abbauvorgängen. Markant war deren Sensitivität gegenüber dem basischen Milieu. Im Rahmen der Rezepturentwicklung des NEMs war hier die Empfehlung, eine Miniemulsion mit einem leicht saurem pH-Milieu zum Schutz des Wirkstoffes durch kontrollierte Zugabe weiterer Inhaltstoffe zu gestalten.
Im weiteren Entwicklungsprozess des NEMs wurden Fertigrezepturen mit dem Wirkstoff Luteinester aufgestellt. Die alleinige Anwendung des Emulgators Biozate 1 zeigte sich dabei als ungeeignet. Die weiterhin zur Verfügung stehenden Fertigrezepturen enthielten in der Öl-phase neben dem Wirkstoff das MCT-ÖL oder Rapsöl sowie a-Tocopherol zur Stabilisierung. Die Wasserphase bestand aus dem Emulgator Tween 80 oder einer Kombination aus Tween 80 und Biozate 1. Zusatzstoffe waren zudem als mikrobiologischer Schutz Ascorbinsäure und Kaliumsorbat sowie für sensorische Effekte Xylitol und Orangenaroma. Die Anordnung der Basisrezeptur und das angewendete Emulgierverfahren lieferten stabile Miniemulsionen. Weiterhin zeigten langfristige Lagerungsversuche mit den Fertigrezepturen bei 4°C, dass eine Aufrechterhaltung der geforderten Luteinestermenge im Produkt gewährleistet war. Analoge Untersuchungen an einem luteinhaltigen, marktgängigen Präparat bestätigten dagegen eine bereits bei kurzfristiger Lagerung auftretende Instabilität von Lutein.
Abschließend wurde durch Resorptions- und Absorptionsstudien in vitro mit den Präemulsionen und Fertigrezepturen die Bioverfügbarkeit von Luteinestern geprüft. Nach Behandlung in einem etablierten in vitro Verdaumodell konnte eine geringfügige Resorptionsverfügbarkeit der Luteinester definiert werden. Limitiert war eine Micellarisierung des Wirkstoffes aus den konzipierten Formulierungen zu beobachten. Eine enzymatische Spaltung der Luteinester zu freiem Lutein wurde nur begrenzt festgestellt. Spezifität und Aktivität von entsprechenden hydrolytischen Lipasen sind als äußerst gering gegenüber Luteinestern zu bewerten. In sich anschließenden Zellkulturversuchen mit der Zelllinie Caco-2 wurden keine zytotoxischen Effekte durch die relevanten Inhaltsstoffe in den Präemulsionen gezeigt. Dagegen konnten eine Sensibilität gegenüber den Fertigrezepturen beobachtet werden. Diese sollte im Zusammenhang mit Irritationen der Schleimhäute des Magen-Darm-Traktes bedacht werden. Eine weniger komplexe Rezeptur könnte die beobachteten Einschränkungen möglicherweise minimieren. Abschließende Absorptionsstudien zeigten, dass grundsätzlich eine geringfügige Aufnahme von vorrangig Lutein, aber auch Luteinmonoestern in den Enterocyten aus Miniemulsionen erfolgen kann. Dabei hatte weder Tween 80 noch Biozate 1 einen förderlichen Einfluss auf die Absorptionsrate von Lutein oder Luteinestern. Die Metabolisierung der Wirkstoffe durch vorherigen in vitro-Verdau steigerte die zelluläre Aufnahme von Wirkstoffen aus Formulierungen mit Lutein und Luteinestern gleichermaßen. Die beobachtete Aufnahme von Lutein und Luteinmonoestern in den Enterocyten scheint über passive Diffusion zu erfolgen, wobei auch der aktive Transport nicht ausgeschlossen werden kann. Dagegen können Luteindiester aufgrund ihrer Molekülgröße nicht über den Weg der Micellarisierung und einfachen Diffusion in die Enterocyten gelangen. Ihre Aufnahme in die Dünndarmepithelzellen bedarf einer vorherigen hydrolytischen Spaltung durch spezifische Lipasen. Dieser Schritt limitiert wiederum die effektive Aufnahme der Luteinester in die Zellen bzw. stellt eine Einschränkung in ihrer Bioverfügbarkeit im Vergleich zu freiem Lutein dar.
Zusammenfassend konnte für die physikochemisch stabilen Luteinester eine geringe Bioverfügbarkeit aus kolloidalen Formulierungen gezeigt werden. Dennoch ist die Verwendung als Wirkstoffquelle für den sekundären Pflanzenstoff Lutein in einem NEM zu empfehlen. Im Zusammenhang mit der Aufnahme von luteinreichen, pflanzlichen Lebensmitteln kann trotz der zu erwartenden geringen Bioverfügbarkeit der Luteinester aus dem NEM ein Beitrag zur Verbesserung des Luteinstatus erreicht werden. Entsprechende Publikationen zeigten eindeutige Korrelationen zwischen der Aufnahme von luteinesterhaltigen Präparaten und einem Anstieg der Luteinkonzentration im Serum bzw. der Makulapigmentdichte in vivo. Die geringfügig bessere Bioverfügbarkeit von freiem Lutein steht im kritischen Zusammenhang mit seiner Instabilität und Kostenintensität. Bilanzierend wurde im Rahmen dieser Arbeit das marktgängige Produkt Vita Culus® konzipiert. Im Ausblick sollten humane Interventionsstudien mit dem NEM die abschließende Bewertung der Bioverfügbarkeit von Luteinestern aus dem Präparat möglich machen.
Die zerstörungsfreien Prüfungen von Bauwerken mit Hilfe von Ultraschallmessverfahren haben in den letzten Jahren an Bedeutung gewonnen. Durch Ultraschallmessungen können die Geometrien von Bauteilen bestimmt sowie von außen nicht sichtbare Fehler wie Delaminationen und Kiesnester erkannt werden.
Mit neuartigen, in das Betonbauteil eingebetteten Ultraschallprüfköpfen sollen nun Bauwerke dauerhaft auf Veränderungen überprüft werden. Dazu werden Ultraschallsignale direkt im Inneren eines Bauteils erzeugt, was die Möglichkeiten der herkömmlichen Methoden der Bauwerksüberwachung wesentlich erweitert. Ein Ultraschallverfahren könnte mit eingebetteten Prüfköpfen ein Betonbauteil kontinuierlich integral überwachen und damit auch stetig fortschreitende Gefügeänderungen, wie beispielsweise Mikrorisse, registrieren.
Sicherheitsrelevante Bauteile, die nach dem Einbau für Messungen unzugänglich oder mittels Ultraschall, beispielsweise durch zusätzliche Beschichtungen der Oberfläche, nicht prüfbar sind, lassen sich mit eingebetteten Prüfköpfen überwachen. An bereits vorhandenen Bauwerken können die Ultraschallprüfköpfe mithilfe von Bohrlöchern und speziellem Verpressmörtel auch nachträglich in das Bauteil integriert werden. Für Fertigbauteile bieten sich eingebettete Prüfköpfe zur Herstellungskontrolle sowie zur Überwachung der Baudurchführung als Werkzeug der Qualitätssicherung an. Auch die schnelle Schadensanalyse eines Bauwerks nach Naturkatastrophen, wie beispielsweise einem Erdbeben oder einer Flut, ist denkbar.
Durch die gute Ankopplung ermöglichen diese neuartigen Prüfköpfe den Einsatz von empfindlichen Auswertungsmethoden, wie die Kreuzkorrelation, die Coda-Wellen-Interferometrie oder die Amplitudenauswertung, für die Signalanalyse. Bei regelmäßigen Messungen können somit sich anbahnende Schäden eines Bauwerks frühzeitig erkannt werden.
Da die Schädigung eines Bauwerks keine direkt messbare Größe darstellt, erfordert eine eindeutige Schadenserkennung in der Regel die Messung mehrerer physikalischer Größen die geeignet verknüpft werden. Physikalische Größen können sein: Ultraschalllaufzeit, Amplitude des Ultraschallsignals und Umgebungstemperatur. Dazu müssen Korrelationen zwischen dem Zustand des Bauwerks, den Umgebungsbedingungen und den Parametern des gemessenen Ultraschallsignals untersucht werden.
In dieser Arbeit werden die neuartigen Prüfköpfe vorgestellt. Es wird beschrieben, dass sie sich, sowohl in bereits errichtete Betonbauwerke als auch in der Konstruktion befindliche, einbauen lassen. Experimentell wird gezeigt, dass die Prüfköpfe in mehreren Ebenen eingebettet sein können da ihre Abstrahlcharakteristik im Beton nahezu ungerichtet ist. Die Mittenfrequenz von rund 62 kHz ermöglicht Abstände, je nach Betonart und SRV, von mindestens 3 m zwischen Prüfköpfen die als Sender und Empfänger arbeiten. Die Empfindlichkeit der eingebetteten Prüfköpfe gegenüber Veränderungen im Beton wird an Hand von zwei Laborexperimenten gezeigt, einem Drei-Punkt-Biegeversuch und einem Versuch zur Erzeugung von Frost-Tau-Wechsel Schäden. Die Ergebnisse werden mit anderen zerstörungsfreien Prüfverfahren verglichen. Es zeigt sich, dass die Prüfköpfe durch die Anwendung empfindlicher Auswertemethoden, auftretende Risse im Beton detektieren, bevor diese eine Gefahr für das Bauwerk darstellen. Abschließend werden Beispiele von Installation der neuartigen Ultraschallprüfköpfe in realen Bauteilen, zwei Brücken und einem Fundament, gezeigt und basierend auf dort gewonnenen ersten Erfahrungen ein Konzept für die Umsetzung einer Langzeitüberwachung aufgestellt.
Aufgrund des großen Verhältnisses von Oberfläche zu Volumen zeigen Nanopartikel interessante, größenabhängige Eigenschaften, die man im ausgedehnten Festkörper nicht beobachtet. Sie sind daher von großem wissenschaftlichem und technologischem Interesse. Die Herstellung kleinster Partikel ist aus diesem Grund überaus wünschenswert. Dieses Ziel kann mit Hilfe von Mikroemulsionen als Templatphasen bei der Herstellung von Nanopartikeln erreicht werden. Mikroemulsionen sind thermodynamisch stabile, transparente und isotrope Mischungen von Wasser und Öl, die durch einen Emulgator stabilisiert sind. Sie können eine Vielzahl verschiedener Mikrostrukturen bilden. Die Kenntnis der einer Mikroemulsion zugrunde liegenden Struktur und Dynamik ist daher von außerordentlicher Bedeutung, um ein gewähltes System potentiell als Templatphase zur Nanopartikelherstellung einsetzen zu können. In der vorliegenden Arbeit wurden komplexe Mehrkomponentensysteme auf der Basis einer natürlich vorkommenden Sojabohnenlecithin-Mischung, eines gereinigten Lecithins und eines Sulfobetains als Emulgatoren mit Hilfe der diffusionsgewichteten 1H-NMR-Spektroskopie unter Verwendung gepulster Feldgradienten (PFG) in Abhängigkeit des Zusatzes des Polykations Poly-(diallyl-dimethyl-ammoniumchlorid) (PDADMAC) untersucht. Der zentrale Gegenstand dieser Untersuchungen war die strukturelle und dynamische Charakterisierung der verwendeten Mikroemulsionen hinsichtlich ihrer potentiellen Anwendbarkeit als Templatphasen für die Herstellung möglichst kleiner Nanopartikel. Die konzentrations- und zeit-abhängige NMR-Diffusionsmessung stellte sich dabei als hervorragend geeignete und genaue Methode zur Untersuchung der Mikrostruktur und Dynamik in den vorliegenden Systemen heraus. Die beobachtete geschlossene Wasser-in-Öl- (W/O-) Mikrostruktur der Mikroemulsionen zeigt deutlich deren potentielle Anwendbarkeit in der Nanopartikelsynthese. Das Gesamtdiffusionsverhalten des Tensides wird durch variierende Anteile aus der Verschiebung gesamter Aggregate, der Monomerdiffusion im Medium bzw. der medium-vermittelten Oberflächendiffusion bestimmt. Dies resultierte in einigen Fällen in einer anormalen Diffusionscharakteristik. In allen Systemen liegen hydrodynamische und direkte Wechselwirkungen zwischen den Tensidaggregaten vor. Der Zusatz von PDADMAC zu den Mikroemulsionen resultiert in einer Stabilisierung der flüssigen Grenzfläche der Tensidaggregate aufgrund der Adsorption des Polykations auf den entgegengesetzt geladenen Tensidfilm und kann potentiell zu Nanopartikeln mit kleineren Dimensionen und schmaleren Größenverteilungen führen.
Quantified Self, die pro-aktive Selbstvermessung von Menschen, hat sich in den letzten Jahren von einer Nischenanwendung zu einem Massenphänomen entwickelt. Dabei stehen den Nutzern heute vielfältige technische Unterstützungsmöglichkeiten, beispielsweise in Form von Smartphones, Fitness-Trackern oder Gesundheitsapps zur Verfügung, welche eine annähernd lückenlose Überwachung unterschiedlicher Kontextfaktoren einer individuellen Lebenswirklichkeit erlauben.
In der Folge widmet sich diese Arbeit unter anderem der Fragestellung, inwieweit diese intensive und eigen-initiierte Beschäftigung, insbesondere mit gesundheitsbezogenen Daten, die weitgehend als objektiviert und damit belastbar gelten, die Gesundheitskompetenz derart aktiver Menschen erhöhen kann. Darüber hinaus werden Aspekte untersucht, inwieweit die neuen Technologien in der Lage sind, spezifische medizinische Erkenntnisse zu vertiefen und in der Konsequenz die daraus resultierenden Behandlungsprozesse zu verändern.
Während der Ursprung des Quantified Self im 2. Gesundheitsmarkt liegt, geht die vorliegende Arbeit der Frage nach, welche strukturellen, personellen und prozessualen Anknüpfungspunkte perspektivisch im 1. Gesundheitsmarkt existieren werden, wenn ein potentieller Patient in einer stärker emanzipierten Weise den Wunsch verspürt, oder eine entsprechende Forderung stellt, seine gesammelten Gesundheitsdaten in möglichst umfassender Form in eine medizinische Behandlung zu integrieren.
Dabei werden auf der einen Seite aktuelle Entwicklungen im 2. Gesundheitsmarkt untersucht, die gekennzeichnet sind von einer hohen Dynamik und einer großen Intransparenz. Auf der anderen Seite steht der als stark reguliert und wenig digitalisiert geltende 1. Gesundheitsmarkt mit seinen langen Entwicklungszyklen und ausgeprägten Partikularinteressen der verschiedenen Stakeholder.
In diesem Zuge werden aktuelle Entwicklungen des zugrunde liegenden Rechtsrahmens, speziell im Hinblick auf stärker patientenzentrierte und digitalisierte Normen untersucht, wobei insbesondere das Digitale Versorgung Gesetz eine wichtige Rolle einnimmt.
Ziel der Arbeit ist die stärkere Durchdringung von Wechselwirkungen an der Schnittstelle zwischen den beiden Gesundheitsmärkten in Bezug auf die Verwendung von Technologien der Selbstvermessung, um in der Folge zukünftige Geschäftspotentiale für existierende oder neu in den Markt drängende Dienstleister zu eruieren.
Als zentrale Methodik kommt hier eine Delphi-Studie zum Einsatz, die in einem interprofessionellen Ansatz versucht, ein Zukunftsbild dieser derzeit noch sehr jungen Entwicklungen für das Jahr 2030 aufzuzeigen. Eingebettet werden die Ergebnisse in die Untersuchung einer allgemeinen gesellschaftlichen Akzeptanz der skizzierten Veränderungen.
Die vorliegende Arbeit thematisiert die Finanzierungsmodelle von Public-Private-Partnership-Projekten (PPP) und deren Refinanzierung durch die Kapitalgeber.
Dabei wurden zwei zentrale Fragestellungen thematisiert. Erstens: Führen PPPProjekte zu einer Verschuldung der öffentlichen Hand und sind sie entsprechend bei den Berechnungen der Konvergenzkriterien bzw. der Schulden- und Neuverschuldungsquoten zu berücksichtigen? Die zu prüfende Arbeitshypothese geht von einer Verschuldung der öffentlichen Hand in Folge von PPP-Projekten aus. Zweitens: Unterstellt wird eine bedeutsame Funktion von PPP für die Infrastrukturfinanzierung, wobei im Sinne einer Effizienzsteigerung die Passgenauigkeit beziehungsweise Konsistenz der haushaltsrechtlichen Regelungen mit den regulatorischen Vorgaben für die Kapitalgeber von PPP-Projekten analysiert wird. Diese Schnittstelle und die zur Generierung günstiger („kommunalähnlicher") Finanzierungskonditionen notwendigen staatlichen Garantien bei PPP drängt geradezu zu einem ordnungspolitischen Vergleich von Ansätzen bzw. Projekten im Bereich PPP und in Cash-Flow-Kalkülen.
Die Arbeit führt mit einem gewissen gesamtwirtschaftlichen Fokus der PPP tief in die Analyse des Kapitalmarktes und der Bankenregulierung. Es erfolgt ein Vergleich der gedeckten Refinanzierungsinstrumente für PPP, die durch Forderungen besichert sind (Asset Backed Securities) und solche, die beispielsweise durch Forderungen gegen die öffentliche Hand besichert sind (Covered Bonds). Letztere können auch grundpfandrechtlich gesichert sein. Hier setzt der Verfasser später seine Skizze eines „Infrastructure Covered Bonds" für die Finanzierung notwendiger Infrastrukturmaßnahmen nicht nur in Deutschland an, wobei das Wertpapier hier ausschließlich zur Finanzierung der Infrastruktur bei einem entsprechend neu zuschaffenden (Deckungs-) Registers begeben werden wird.
Das Fachwissen von Lehrkräften weist für die Ausprägung fachdidaktischer Expertise eine hohe Bedeutung auf. Welche Merkmale universitäre Lehrveranstaltungen aufweisen sollten, um Lehramtsstudierenden ein berufsspezifisches Fachwissen zu vermitteln, ist jedoch überwiegend noch unklar.
Innerhalb des Projekts PSI-Potsdam wurde auf theoretischer Grundlage das fachübergreifende Modell des erweiterten Fachwissens für den schulischen Kontext entwickelt. Als Ansatz zur Verbesserung des Biologie-Lehramtsstudiums diente dieses Modell als Konzeptionsgrundlage für eine additive Lehrveranstaltung. Hierbei werden Lerngelegenheiten geboten, um das universitär erworbene Fachwissen über zellbiologische Inhalte auf schulische Kontexte anzuwenden, z.B. durch die Dekonstruktion und anschließende Rekonstruktion von schulischen Lerntexten. Die Wirkung des Seminars wurde in mehreren Zyklen im Forschungsformat der Fachdidaktischen Entwicklungsforschung beforscht. Eine der zentralen Forschungsfragen lautet dabei: Wie kann eine Lerngelegenheit für Lehramtsstudierende der Biologie gestaltet sein, um ein erweitertes Fachwissen für den schulischen Kontext für den zellbiologischen Themenbereich „Struktur und Funktion der Biomembran“ zu fördern?
Anhand fallübergreifender Analysen (n = 29) wird im empirischen Teil aufgezeigt, welche Einstellungen zum Lehramtsstudium in der Stichprobe bestehen. Als ein wichtiges Ergebnis kann hierbei herausgestellt werden, dass sich das Fachinteresse hinsichtlich schulisch und universitär vermittelter Inhalte bei den untersuchten Studierenden auffallend unterscheidet, wobei dem Schulwissen ein deutlich höheres Interesse entgegengebracht wird. Die Berufsrelevanz fachlicher Inhalte wird seitens der Studierenden häufig am Schulwissen festgemacht.
Innerhalb konkreter Einzelfallanalysen (n = 6) wird anhand von Lernpfaden dargestellt, wie sich über mehrere Design-Experimente hinweg fachliche Konzepte entwickelt haben. Bei der Beschreibung wird vor allem auf Schlüsselstellen und Hürden im Lernprozess fokussiert. Aus diesen Ergebnissen folgend werden vorgenommene Iterationen für die einzelnen Zyklen beschrieben, die ebenfalls anhand der iterativen Entwicklung der Design-Prinzipien dargelegt werden.
Es konnte gezeigt werden, dass die Schlüsselstellen sehr individuell aufgrund der subjektiv fokussierten Inhalte zu Tage treten. Meist treten sie jedoch im Zusammenhang mit der Verknüpfung verschiedener fachlicher Konzepte oder durch kooperative Aufschlüsselungen von Konzepten auf. Fachliche Hürden konnten hingegen in Form von fachlich unangemessenen Vorstellungen fallübergreifend identifiziert werden. Dies betrifft unter anderem die Vorstellung der Biomembran als Wand, die mit den Vorstellungen einer Schutzfunktion und einer formgebenden Funktion der Biomembran einhergeht.
Weiterhin wird beleuchtet, wie das erweiterte Fachwissen für den schulischen Kontext zur Bearbeitung der Lernaufgaben angewendet wurde. Es hat sich gezeigt, dass sich bestimmte Lerngelegenheiten eigenen, um bestimmte Facetten des erweiterten Fachwissens zu fördern.
Insgesamt scheint das Modell des erweiterten Fachwissens für den schulischen Kontext äußerst geeignet zu sein, um anhand der Facetten und deren Beschreibungen Lerngelegenheiten oder Gestaltungsprinzipien für diese zu konzipieren. Für das untersuchte Lehr-Lernarrangement haben sich kleinere Adaptationen des Modells als sinnvoll erwiesen. Hinsichtlich der Methodologie konnten Ableitungen für die Anwendung der fachdidaktischen Entwicklungsforschung für additive fachliche Lehrveranstaltungen dieser Art herausgestellt werden.
Um den Professionsbezug der fachwissenschaftlichen Anteile im Lehramtsstudium zu verbessern, ist der weitere Einbezug des erweiterten Fachwissens für den schulischen Kontext in die fachwissenschaftlichen Studienanteile überaus wünschenswert.
Sehzellen von Insekten sind epitheliale Zellen mit einer charakteristischen, hochpolaren Morphologie und Organisation. Die molekularen Komponenten der Sehkaskade befinden sich im Rhabdomer, einem Saum dicht gepackter Mikrovilli entlang der Sehzelle. Bereits in den 70er Jahren des letzten Jahrhunderts wurde beschrieben, dass die Mikrovilli entlang einer Sehzelle eine unterschiedliche Ausrichtung besitzen, oder in anderen Worten, die Rhabdomere entlang der Sehzell-Längsachse verdreht sind. So sind in den Sehzellen R1-R6 bei dipteren Fliegen (Calliphora, Drosophila) die Mikrovilli im distalen und proximalen Bereich eines Rhabdomers etwa rechtwinkelig zueinander angeordnet. Dieses Phänomen wird in der Fachliteratur als rhabdomere twisting bezeichnet und reduziert die Empfindlichkeit für polarisiertes Licht. Es wurde für das Drosophila-Auge gezeigt, dass diese strukturelle Asymmetrie der Sehzellen mit einer molekularen Asymmetrie in der Verteilung phosphotyrosinierter Proteine an die Stielmembran (einem nicht-mikrovillären Bereich der apikalen Plasmamembran) einhergeht. Zudem wurde gezeigt, dass die immuncytochemische Markierung mit anti-Phosphotyrosin (anti-PY) als lichtmikroskopischer Marker für das rhabdomere twisting verwendet werden kann. Bisher wurde hauptsächlich die physiologische Bedeutung der Rhabdomerverdrehung untersucht. Es ist wenig über die entwicklungs- und zellbiologischen Grundlagen bekannt. Ziel der vorliegenden Arbeit war es, die Identität der phosphotyrosinierten Proteine an der Stielmembran zu klären und ihre funktionelle Bedeutung für die Entwicklung des rhabdomere twisting zu analysieren. Zudem sollte untersucht werden, welchen Einfluss die inneren Sehzellen R7 und R8 auf die Verdrehung der Rhabdomere von R1-R6 haben. Für die zwei Proteinkinasen Rolled (ERK) und Basket (JNK) vom Typ der Mitogen-aktivierten Proteinkinasen (MAPK) konnte ich zeigen, dass sie in ihrer aktivierten (= phosphorylierten) Form (pERK bzw. pJNK) eine asymmetrische Verteilung an der Stielmembran aufweisen vergleichbar der Markierung mit anti-PY. Weiterhin wurde diese asymmetrische Verteilung von pERK und pJNK ebenso wie die von PY erst kurz vor Schlupf der Fliegen (bei ca. 90% pupaler Entwicklung) etabliert. Durch Präinkubationsexperimente mit anti-PY wurde die Markierung mit anti-pERK bzw. anti-pJNK unterbunden. Diese Ergebnisse sprechen dafür, dass pERK und pJNK zu den Proteinen gehören, die von anti-PY an der Stielmembran erkannt werden. Da es sich bei ERK und JNK um Kinasen handelt, ist es naheliegend, dass diese an der Entwicklung des rhabdomere twisting beteiligt sein könnten. Diese Hypothese wurde durch die Analyse von hypermorphen (rl SEM)und hypomorphen (rl 1/rl 10a) Rolled-Mutanten überprüft. In der rl SEM-Mutante mit erhöhter Aktivität der Proteinkinase erfolgte die asymmetrische Positionierung von pERK an der Stielmembran sowie die Mikrovillikippung schon zu einem früheren Zeitpunkt in der pupalen Entwicklung. Im adulten Auge war die anti-PY-Markierung im distalen Bereich der Sehzellen intensiver sowie der Kippwinkel vergrößert. In der rl 1/rl 10a-Mutanten mit reduzierter Kinaseaktivität waren die anti-PY-Markierung und der Kippwinkel im proximalen Bereich der Sehzellen verringert. Die Proteinkinase ERK hat somit einen Einfluss auf die zeitliche Etablierung des rhabdomere twisting wie auch auf dessen Ausprägung im Adulttier. Die Rhabdomerverdrehung sowie die Änderung im anti-PY-Markierungsmuster erfolgen an den Sehzellen R1-R6 relativ abrupt auf halber Ommatidienlänge, dort wo das Rhabdomer von R7 endet und das von R8 beginnt. Es stellte sich deshalb die Frage, ob die Rhabdomerverdrehung an R1-R6 durch die Sehzelle R7 und/oder R8 beeinflusst wird. Um dieser Frage nachzugehen wurden Mutanten analysiert, denen die R7- oder die R8-Photorezeptoren bzw. R7 und R8 fehlten. Das wichtigste Ergebnis dieser Untersuchungen war, dass bei Fehlen von R8 die Rhabdomerverdrehung bei R1-R6 nach keinen erkennbaren Regeln erfolgt. R8 ist somit Voraussetzung für die Etablierung der Rhabdomerverdrehung in R1-R6. Folgendes Modell wurde auf Grundlage dieses und weiterer Ergebnisse erarbeitet: Im dritten Larvenstadium rekrutiert R8 die Sehzellpaare R2/R5, R3/R4 und R1/R6. Dabei werden R1-R6 durch den Kontakt zu R8 „polarisiert“. Abschließend wird R7 durch R8 rekrutiert. Dies führt zu einer Fixierung der Polarität von R1-R6 durch R7. Die Ausführung der Mikrovillikippung anhand der festgelegten Polarität erfolgt in der späten Puppenphase. Die Proteinkinase ERK ist an diesem letzten Morphogeneseprozess beteiligt.
In den Chloroplasten von höheren Pflanzen sind die Galaktolipide Monogalaktosyldiacylglycerol (MGDG) und Digalaktosyldiacylglycerol (DGDG) die am weitesten verbreiteten Lipide. In dieser Forschungsarbeit wurde die Funktion der DGDG Synthase DGD1, und insbesondere die Funktion des N-terminalen Bereichs dieses Enzyms in der Modellpflanze Arabidopsis thaliana untersucht. Die Überexpression des N-terminalen Bereichs von DGD1 in WT-Col2 resultierte in einem reduzierten Wachstum, welches sich jedoch von der dgd1-1 Mutante unterschied. Dies legte bereits nahe, dass die Expression von N-DGD1 einen negativen Einfluss auf das Wachstum hat. Durch Studien in einem heterologen E.coli Expressionssystem konnte diese These bestätigt werden. Zellen, die ausschließlich N-DGD1 zusammen mit einer MGD Synthase aus Gurke exprimierten, waren im Wachstum stark beeinträchtigt. Nicht nur der N-terminale Bereich von DGD1, auch der N-terminale Bereich von MGD1 besitzt eine Funktion als Transitpeptid und ist somit ein wichtiger Faktor zur korrekten Lokalisierung des MGD1 Proteins. In dieser Arbeit ist es gelungen, ein Fusionskonstrukt aus N-MGD1 und DGD2 in die dgd1-1 Mutante zu transferieren und damit das reduzierte Wachstum zu komplementieren. Frühere Versuche, ein reduziertes dgd1-1 Wachstum mit DGD2 allein zu komplementieren, scheiterten. Somit gibt dies einen Hinweis darauf, dass N-MGD1 als Transitpeptid fungieren kann. Bindungsstudien zur Interaktion von DGD1 und N-DGD1 Protein zeigten, dass die polaren Lipide MGDG und DGDG in Wechselwirkung mit dem N-terminalen Bereich von DGD1 treten. Bis zum heutigen Zeitpunkt ist nicht erforscht, wie der Transport von DGDG und MGDG zwischen den Hüllmembranen des Chloroplasten erfolgt. Die in dieser Arbeit angefertigen Bindungsstudien konnten Hinweise darauf geben, dass N-DGD1 als eine Art „Antiporter“ fungiert, um MGDG und DGDG zwischen den Hüllmembranen zu transportieren. Weiterhin wurden Bindungsstudien zur Erforschung von Interaktionen der Glykosyltransferasen DGD1, DGD2, MGD1, MGD2 und MGD3 angefertigt. Dabei wurden Wechselwirkungen zwischen den Glykosyltransferasen DGD1, DGD2 und MGD2 detektiert. Interessant ist, dass Hinweise auf eine Dimerbildung bestimmter Enzyme gefunden wurden, so für DGD1 und MGD2. Ein weiterer Ansatz zur Erforschung von Wechselwirkungen von DGD1 Protein mit bis jetzt unbekannten Proteinen war die Expression von DGD1-StrepIITag und DGD1-CTAPTag Fusionsproteinen in dgd1-1 Mutanten. Es wurden für beide Tags transgene Linien generiert, die im Wachstum komplementiert waren und wildtypähnliche Mengen an DGDG akkumulierten. Die Expression der verschiedenen Tags in den Pflanzen war sehr unterschiedlich, wobei der DGD1-CTAP-Tag am stärksten exprimiert war. Mit Pflanzenmaterial dieser Linien kann nun eine Aufreinigung des getaggten Proteins und eventueller Interaktionspartner erfolgen.
Übernimmt eine Protestpartei Regierungsverantwortung, sieht sie ihre Prinzipien und Forderungen der realpolitischen Nagelprobe ausgesetzt. Es ist ein Dilemma von Anspruch und Wirklichkeit, ein Spagat zwischen Protestimage und Regierungspolitik , der diese Parteien oftmals zu zerreißen droht. Anhand der Fallstudien von vier mitregierenden Protestparteien in Deutschland sollen folgende Fragen beantwortet werden: Was macht eine Partei zur Protestpartei? Was waren die Ursachen für die Wahlerfolge der Grünen, der AL, der STATT-Partei und der Schill-Partei? Wie verliefen die Koalitionsverhandlungen? Welche Forderungen konnten die Protestparteien gegenüber ihren großen Koalitionspartnern durchsetzen? Wo mussten sie Abstriche machen? Welche Reformvorhaben wurden angedacht und welche wurden tatsächlich umgesetzt? Welche innerparteilichen Konflikte ergaben sich aus der neuen Rolle der Protestparteien? Letztendlich zeigt sich: Protestparteien scheitern nicht an ihrem schmalspurigen Programm, geringer Stammwählerschaft oder unerfahrenem Personal, sondern weil sie naturgemäß in die „Erwartungsfalle“ tappen.
In den vergangenen Jahren wurden stetig wachsende Produktionskapazitäten von Biokunststoffen aus nachwachsenden Rohstoffe nverzeichnet. Trotz großer Produktionskapazitäten und einem geeigneten Eigenschaftsprofil findet Stärke nur als hydrophile, mit Weichmachern verarbeitete thermoplastische Stärke (TPS) in Form von Blends mit z. B. Polyestern Anwendung. Gleiches gilt für Kunststoffe auf Proteinbasis. Die vorliegende Arbeit hat die Entwicklung von Biokunststoffen auf Stärkebasis zum Ziel, welche ohne externe Weichmacher thermoplastisch verarbeitbar und hydrophob sind sowie ein mechanisches Eigenschaftsprofil aufweisen, welches ein Potenzial zur Herstellung von Materialien für eine Anwendung als Verpackungsmittel bietet. Um die Rohstoffbasis für Biokunststoffe zu erweitern, soll das erarbeitete Konzept auf zwei industriell verfügbare Proteintypen, Zein und Molkenproteinisolat (WPI), übertragen werden. Als geeignete Materialklasse wurden Fettsäureester der Stärke herausgearbeitet. Zunächst fand ein Vergleich der Säurechlorid-Veresterung und der Umesterung von Fettsäurevinylestern statt, woraus letztere als geeignetere Methode hervorging. Durch Variation der Reaktionsparameter konnte diese optimiert und auf eine Serie der Fettsäurevinylester von Butanoat bis Stearat für DS-Werte bis zu 2,2-2,6 angewandt werden. Möglich war somit eine systematische Studie unter Variation der veresterten Fettsäure sowie des Substitutionsgrades (DS). Sämtliche Produkte mit einem DS ab 1,5 wiesen eine ausgprägte Löslichkeit in organischen Lösungsmitteln auf wodurch sowohl die Aufnahme von NMR-Spektren als auch Molmassenbestimmung mittels Größenausschlusschromatographie mit gekoppelter Mehrwinkel-Laserlichtstreuung (GPC-MALLS) möglich waren. Durch dynamische Lichtstreuung (DLS) wurde das Löslichkeitsverhalten veranschaulicht. Sämtliche Produkte konnten zu Filmen verarbeitet werden, wobei Materialien mit DS 1,5-1,7 hohe Zugfestigkeiten (bis zu 42 MPa) und Elastizitätsmodule (bis 1390 MPa) aufwiesen. Insbesondere Stärkehexanoat mit DS <2 sowie Stärkebutanoat mit DS >2 hatten ein mechanisches Eigenschaftsprofil, welches insbesondere in Bezug auf die Festigkeit/Steifigkeit vergleichbar mit Verpackungsmaterialien wie Polyethylen war (Zugfestigkeit: 15-32 MPa, E-Modul: 300-1300 MPa). Zugfestigkeit und Elastizitätsmodul nahmen mit steigender Kettenlänge der veresterten Fettsäure ab. Ester längerkettiger Fettsäuren (C16-C18) waren spröde. Über Weitwinkel-Röntgenstreuung (WAXS) und Infrarotspektroskopie (ATR-FTIR) konnte der Verlauf der Festigkeiten mit einer zunehmenden Distanz der Stärke im Material begründet werden. Es konnten von DS und Kettenlänge abhängige Glasübergänge detektiert werden, die kristallinen Strukturen der langkettigen Fettsäuren zeigten einen Schmelzpeak. Die Hydrophobie der Filme wurde anhand von Kontaktwinkeln >95° gegen Wasser dargestellt. Blends mit biobasierten Polyterpenen sowie den in der Arbeit hergestellten Zein-Acylderivaten ermöglichten eine weitere Verbesserung der Zugfestigkeit bzw. des Elastizitätsmoduls hochsubstituierter Produkte. Eine thermoplastische Verarbeitung mittels Spritzgießen war sowohl für Produkte mit hohem als auch mittlerem DS-Wert ohne jeglichen Zusatz von Weichmachern möglich. Es entstanden homogene, transparente Prüfstäbe. Untersuchungen der Härte ergaben auch hier für Stärkehexanoat und –butanoat mit Polyethylen vergleichbare Werte. Ausgewählte Produkte wurden zu Fasern nach dem Schmelzspinnverfahren verarbeitet. Hierbei wurden insbesondere für hochsubstituierte Derivate homogenen Fasern erstellt, welche im Vergleich zur Gießfolie signifikant höhere Zugfestigkeiten aufwiesen. Stärkeester mit mittlerem DS ließen sich ebenfalls verarbeiten. Zunächst wurden für eine Übertragung des Konzeptes auf die Proteine Zein und WPI verschiedene Synthesemethoden verglichen. Die Veresterung mit Säurechloriden ergab hierbei die höchsten Werte. Im Hinblick auf eine gute Löslichkeit in organischen Lösungsmitteln wurde für WPI die Veresterung mit carbonyldiimidazol (CDI)-aktivierten Fettsäuren in DMSO und für Zein die Veresterung mit Säu-rechloriden in Pyridin bevorzugt. Es stellte sich heraus, dass acyliertes WPI zwar hydrophob, jedoch ohne Weichmacher nicht thermoplastisch verarbeitet werden konnte. Die Erstellung von Gießfolien führte zu Sprödbruchverhalten. Unter Zugabe der biobasierten Ölsäure wurde die Anwendung von acyliertem WPI als thermoplastischer Filler z. B. in Blends mit Stärkeestern dargestellt. Im Gegensatz hierzu zeigte acyliertes Zein Glasübergänge <100 °C bei ausreichender Stabilität (150-200 °C). Zeinoleat konnte ohne Weichmacher zu einer transparenten Gießfolie verarbeitet werden. Sämtliche Derivate erwiesen sich als ausgeprägt hydrophob. Zeinoleat konnte über das Schmelzspinnverfahren zu thermoplastischen Fasern verarbeitet werden.
In den letzten 20 Jahren sind Evaluationen Schritt für Schritt zu einem festen und gleichzeitig kontrovers diskutierten Bestandteil politischer Förderung geworden. Auf der Basis langjähriger Beobachtungen der Evaluationspraxis des Förderprogramms „Soziale Stadt“ zeigt dieses Buch zunächst, dass Evaluationstätigkeiten in Ministerien, Kommunalverwaltungen und Planungsbüros mit ganz unterschiedlichen Erwartungen, Herausforderungen, Widersprüchen und Irritationen verknüpft werden. Evaluationen werden dabei sowohl als Hoffnungsträger, als auch als Schreckgespenst gesehen. Der Autor nimmt diese Beobachtungen zum Anlass, den Umgang mit Evaluationen in politischen Organisationen kritisch zu hinterfragen und systematisch zu erklären. Reduziert auf die Frage „Wozu Evaluation?“ wird auf der Basis eines systemtheoretischen Zugangs erklärt, welche unterschiedlichen Funktionen Evaluationen in Organisationen erfüllen können. Vertiefend wird dabei auf organisationales Lernen, auf politische Steuerungslogik und auf die Notwendigkeit von Symbolisierungen eingegangen.
Ausprägungen räumlicher Identität in ehemaligen sudetendeutschen Gebieten der Tschechischen Republik
(2014)
Das tschechische Grenzgebiet ist eine der Regionen in Europa, die in der Folge des Zweiten Weltkrieges am gravierendsten von Umbrüchen in der zuvor bestehenden Bevölkerungsstruktur betroffen waren. Der erzwungenen Aussiedlung eines Großteils der ansässigen Bevölkerung folgten die Neubesiedlung durch verschiedenste Zuwanderergruppen sowie teilweise langanhaltende Fluktuationen der Einwohnerschaft. Die Stabilisierung der Bevölkerung stand sodann unter dem Zeichen der sozialistischen Gesellschafts- und Wirtschaftsordnung, die die Lebensweise und Raumwahrnehmung der neuen Einwohner nachhaltig prägte. Die Grenzöffnung von 1989, die politische Transformation sowie die Integration der Tschechischen Republik in die Europäische Union brachten neue demographische und sozioökonomische Entwicklungen mit sich. Sie schufen aber auch die Bedingungen dafür, sich neu und offen auch mit der spezifischen Geschichte des ehemaligen Sudetenlandes sowie mit dem Zustand der gegenwärtigen Gesellschaft in diesem Gebiet auseinanderzusetzen.
Im Rahmen der vorliegenden Arbeit wird anhand zweier Beispielregionen untersucht, welche Raumvorstellungen und Raumbindungen bei der heute in den ehemaligen sudetendeutschen Gebieten ansässigen Bevölkerung vorhanden sind und welche Einflüsse die unterschiedlichen raumstrukturellen Bedingungen darauf ausüben. Besonderes Augenmerk wird auf die soziale Komponente der Ausprägung räumlicher Identität gelegt, das heißt auf die Rolle von Bedeutungszuweisungen gegenüber Raumelementen im Rahmen sozialer Kommunikation und Interaktion. Dies erscheint von besonderer Relevanz in einem Raum, der sich durch eine gewisse Heterogenität seiner Einwohnerschaft hinsichtlich ihres ethnischen, kulturellen beziehungsweise biographischen Hintergrundes auszeichnet. Schließlich wird ermittelt, welche Impulse unter Umständen von einer ausgeprägten räumlichen Identität für die Entwicklung des Raumes ausgehen.
Nach einem Rekurs über den Utopiebegriff wurden sowohl im diarischen Werk als auch in der veröffentlichten Prosa Brigitte Reimanns utopische Konzeptionen aufgespürt. Gesucht wurde das Utopische sowohl in den Beschreibungen einer konkreten Gesellschaftsutopie, als auch in den literarischen „Verfeinerungen“ einer kruden Ideologie, wie im kritischen Hinterfragen des „Noch-Nicht-Bewussten“ (Ernst Bloch). Als ästhetische Utopien wurden auch Wunschbilder des Alltags, Träume, Märchen und Mythen gedeutet. Ausführliche Untersuchungen beschäftigten sich mit der Gestaltung der weiblichen Figuren und ihrer Entwicklung von der ideologisch (auch männlich) indoktrinierten Protagonistin zur „freien“ Ich–Gestalterin. Nachgewiesen wurde sowohl im diarischen Werk, als auch in der veröffentlichten Prosa eine Wandlung des Utopieverständnisses von der Gesellschaftsutopie zur subjektiven „Augenblicksutopie“, die im Deutungshorizont der Literatur der Romantik auch als DDR-spezifische Innerlichkeit verstanden werden könnte, welche mit ihrem Rückzug ins Individuelle die ritualisierte DDR-Öffentlichkeit desavouierte.
In der vorliegenden Arbeit werden anhand der Edelgaszusammensetzung von Kimberliten und Lamproiten sowie ihrer gesteinsbildenden Minerale die Wechselwirkungen dieser Gesteine mit Fluiden diskutiert. Die untersuchten Proben stammen vom östlichen Baltischen Schild, vom Kola-Kraton (Poria Guba und Kandalaksha) und vom karelischen Kraton (Kostamuksha). Edelgasanalysen nach thermischer oder mechanischer Gasextraktion von 23 Gesamtgesteinsproben und 15 Mineralseparaten ergeben folgendes Bild: Helium- und Neon-Isotopendaten der Fluideinschlüsse von Lamproiten aus Kostamuksha lassen auf den Einfluss einer fluiden Phase krustaler Herkunft schliessen. Diese Wechselwirkungen fanden wahrscheinlich schon während des Magmenaufstiegs statt, denn spätere Einflüsse krustaler Fluide auf die Lamproite und ihr Nebengestein (Quarzit) sind gering, wie anhand der C/<sup>36Ar-Zusammensetzung gezeigt wird. Auch sind die mit verschiedenen Datierungsmethoden (Rb-Sr, Sm-Nd, K-Ar) an Mineralseparaten und teilweise an Gesamtgestein ermittelten Alter konsistent und machen eine metamorphe Überprägung unwahrscheinlich. Aufgrund der Verteilung der primordialen Edelgasisotope zwischen Fluideinschlüssen und Gesteinsmatrix ist ein langsamer Magmenaufstieg anzunehmen, was die Möglichkeit der Kontamination mit einem krustalen Fluid während des Magmenaufstiegs erhöht. Die Gasextraktion aus Mineralseparaten erfolgte thermisch, wodurch eine Freisetzung der Gase ausschließlich aus Fluideinschlüssen nicht möglich ist. Hierbei zeigen Amphibol und Klinopyroxen, separiert aus Kostamuksha-Lamproiten, in ihrer Neon-Isotopenzusammensetzung im Vergleich zur krustalen Zusammensetzung (Kennedy et al., 1990) ein leicht erhöhtes Verhältnis von <sup>20Ne/<sup>22Ne, was ein Hinweis auf Mantel-Neon sein könnte. Kalifeldspäte, Quarz und Karbonate enthalten dagegen nur Neon krustaler Zusammensetzung. Phlogopite haben sehr kleine Verhältnisse von <sup>20Ne/<sup>22Ne und <sup>21Ne/<sup>22Ne, zurückzuführen auf in-situ-Produktion von <sup>22Ne in Folge von U- und Th-Zerfallsprozessen. Wie unterschiedliche thermische Entgasungsmuster für <sup>40Ar und <sup>36Ar zeigen, ist <sup>36Ar in Fluideinschlüssen konzentriert. Das <sup>40Ar/<sup>36Ar-Isotopenverhältnis der Fluideinschlüsse von Lamproiten aus Kostamuksha ist antikorreliert mit der durch thermische Extraktion bestimmten Gesamtmenge an <sup>36Ar. Argon aus Fluideinschlüssen setzt sich daher aus zwei Komponenten zusammen: Einer Komponente mit atmosphärischer Argon-Isotopenzusammensetzung und einer krustalen Komponente mit einem Isotopenverhältnis <sup>40Ar/<sup>36Ar > 6000. Diffusion von radiogenem <sup>40Ar aus der Kristallmatrix in die Fluideinschlüsse spielt keine wesentliche Rolle. Kimberlite aus Poria Guba und Kandalaksha zeigen anhand der Helium- und z. T. auch der Neon-Isotopenzusammensetzung eine Mantelkomponente in den Fluideinschlüssen an. Bei einem angenommenen <sup>20Ne/<sup>22Ne-Isotopenverhältnis von 12,5 in der Mantelquelle ergibt sich ein <sup>21Ne/<sup>22Ne-Isotopenverhältnis von 0,073 ± 0,011 sowie ein <sup>3He/<sup>4He-Isotopenverhältnis, welches im Vergleich zum subkontinentalem Mantel (Dunai und Baur, 1995) stärker radiogen geprägt ist. Solche Isotopensignaturen sind mit höheren Konzentrationen an Uran und Thorium in der Mantelquelle der Kimberlite zu erklären. Rb-Sr- und Sm-Nd-Altersbestimmungen erfolgten von russischer Seite (Belyatskii et al., 1997; Nikitina et al., 1999) und ergeben ein Alter von 1,23 Ga für den Lamproitvulkanismus in Kostamuksha. Eigene K-Ar-Datierungen an Phlogopiten und Kalifeldspäten stimmen mit einem Alter von 1193 ± 20 Ma fast mit den Rb-Sr- und Sm-Nd-Altern überein. Die K-Ar-Datierung an einem Phlogopit aus Poria Guba, separiert aus dem Kimberlit PGK 12a, ergibt ein Alter von 396 Ma, ebenfalls in guter Übereinstimmung mit Rb-Sr-und Sm-Nd-Altern (ca. 400 Ma, Lokhov, pers. Mitteilung). K-Ar-Altersbestimmungen an Gesamtgestein aus Poria Guba erbrachten kein schlüssiges Alter. Die Rb-Sr- und Sm-Nd-Alter des Lamproitmagmatismus in Poria Guba betragen 1,72 Ga (Nikitina et al., 1999). Vergleiche von gemessenen mit berechneten Edelgaskonzentrationen aus in-situ-Produktion zeigen weiterhin, dass in Abhängigkeit vom Alter der Probe Diffusionsprozesse stattgefunden haben, die zu unterschiedlichen und z. T. erheblichen Verlusten an Helium und Neon führten. Diffusionsverluste an Argon sind dagegen kaum signifikant. Unterschiedliche Diffusionsverluste in Abhängigkeit von Alter und betrachtetem Edelgas zeigen auch die primordialen Edelgase.
Der Fettsäurestoffwechsel unterliegt vielfältigen Kontrollmechanismen. So wird der Fettsäureabbau über die Induktion und Aktivität spezifischer Enzyme reguliert. Ein zentraler Regulator ist dabei der nukleäre Rezeptor Peroxisomenproliferator-aktivierter-Rezeptor-α (PPARα). PPARα wird durch freie Fettsäuren in der Zelle aktiviert und fördert über die Induktion von Zielgenen den Fettsäuretransport und -abbau sowie die Gluconeogenese und Ketogenese. Der Anstieg an freien Fettsäuren beim Fasten, aber auch im Diabetes aktiviert PPARα. Unabhängig davon wurde in beiden Stoffwechsellagen auch eine erhöhte Expression des nukleären Rezeptors Constitutiver-Androstan-Rezeptor (CAR) und einiger CAR-Zielgene, vorrangig Enzyme des Fremdstoffmetabolismus wie Cytochrom P450 2B (CYP2B), festgestellt. Bei der Adaption an eine Fastensituation scheinen PPARα- und CAR-Signalwege über einen bisher unbekannten Mechanismus miteinander verschaltet zu sein. In der vorliegenden Arbeit sollte der der Verschaltung zugrunde liegende Mechanismus anhand eines Modelsystems, der PPARα-Agonisten-vermittelten Verstärkung der Phenobarbital (PB)-abhängigen Induktion des CAR-Zielgens CYP2B, in vitro untersucht werden. Zudem sollte die physiologische Relevanz einer durch PPARα-Agonisten vermittelten Modulierung der CYP2B-Aktivität in einer Ganztierstudie in vivo belegt werden. Die verwendeten synthetischen PPARα-Agonisten steigerten in primären Hepatozyten der Ratte signifikant die Phenobarbital (PB)-abhängige mRNA- und Protein-Expression sowie die Aktivität von CYP2B. Ohne vorherige PB-Behandlung induzierten PPARα-Agonisten CYP2B nicht. In Gegenwart von PB war die Steigerung der CYP2B-Aktivität durch PPARα-Agonisten dosisabhängig. In einem Luciferase-Reportergenassay wurde gezeigt, dass die Induktion durch PB unter der Kontrolle des CYP2B1-Promotors von einem distalen PBREM (PB-responsive-enhancer-module), an welches CAR binden kann, abhängig war. PPARα-Agonisten steigerten diese PB- und PBREM-abhängige Reportergentranskription und induzierten die CAR-mRNA und CAR-Proteinexpression. Sie aktivierten die Transkription eines Reportergens unter der Kontrolle eines Promotorfragments von bis zu 4,4 kb oberhalb des mutmaßlichen CAR-Transkriptionsstarts. Mit Hilfe von Deletionskonstrukten konnte ein potentielles Peroxisomenproliferator-aktivierter-Rezeptor-responsives Element (PPRE) im CAR-Promotorbereich von -942 bp bis -930 bp identifiziert werden, welches essentiell für die Initiation der Transkription durch PPARα-Agonisten ist. In band shift Experimenten akkumulierte verstärkt Kernprotein mit diesem PPRE. Ein Überschuss an unmarkiertem Wildtyp-CAR-Reportergenvektor, nicht aber an CAR-Reportergenvektor mit PPRE-Deletion, konnte mit dem markierten PPRE um die Bindung von Kernprotein konkurrieren. Nach Chromatin-Immunpräzipitation mit einem PPARα-Antikörper wiederum wurde das betreffende PPRE amplifiziert. Bei in vivo Experimenten an männlichen Ratten resultierte die Behandlung mit PPARα-Agonisten in einer signifikanten Induktion der CAR-mRNA-Expression und signifikant erhöhter PB-abhängiger CYP2B-Aktivität. Die physiologisch Relevanz wurde durch weiterführenden Experimente unterstrichen, in denen gezeigt wurde, dass die Fasten-abhängige Induktion von CAR in PPARα-defizienten Mäusen unterdrückt war. Diese Experimente legen nahe, dass durch PPARα-Agonisten aktiviertes PPARα an das PPRE im CAR-Promotorbereich von -942 bp bis -930 bp bindet und dadurch die CAR-Transkription induziert. Somit kann CAR als PPARα-Zielgen betrachtet werden, was die Schlussfolgerung zulässt, dass die PPARα- und CAR-Signalwege über die direkte Bindung von PPARα an den CAR-Promotor unmittelbar miteinander verknüpft sind. Allerdings ist davon unabhängig eine Aktivierung von CAR, etwa durch PB, für die vermehrte Induktion von CAR-Zielgenen notwendig . Die physiologische Relevanz der PPARα-abhängige CAR-Expression zeigt sich in den Ganztierexperimenten, bei denen die Wirksamkeit der PPARα-Agonisten bestätigt werden konnte. CAR-abhängig induzierte Enzyme sind nicht nur in großem Umfang am Fremdstoffmetabolismus beteiligt, sondern auch am Abbau von Schilddrüsenhormonen und Glucocorticoiden. Sie können damit direkt Einfluss auf den Kohlenhydrat- und Energiestoffwechsel sowie die Regulation der Nahrungsaufnahme nehmen. Über eine PPARα-abhängige Induktion von CAR im Rahmen der Fastenadaption könnten die CAR-Zielgene UDP-Glucuronyltransferase 1A1 und Sulfotransferase N beispielsweise verstärkt Schilddrüsenhormone abbauen und in der Folge den Grundumsatz senken. Der in dieser Arbeit erstmals beschriebene Mechanismus ist dafür von zentraler Bedeutung.
Das Schulfach Geographie war in der DDR eines der Fächer, das sehr stark mit politischen Themen im Sinne des Marxismus-Leninismus bestückt war. Ein anderer Aspekt sind die sozialistischen Erziehungsziele, die in der Schulbildung der DDR hoch im Kurs standen. Im Fokus stand diesbezüglich die Erziehung der Kinder zu sozialistischen Persönlichkeiten. Die Arbeit versucht einen klaren Blick auf diesen Umstand zu werfen, um zu erfahren, was da von den Lehrkräften gefordert wurde und wie es in der Schule umzusetzen war.
Durch den Fall der Mauer war natürlich auch eine Umstrukturierung des Bildungssystems im Osten unausweichlich. Hier will die Arbeit Einblicke geben, wie die Geographielehrkräfte diese Transformation mitgetragen und umgesetzt haben. Welche Wesenszüge aus der Sozialisierung in der DDR haben sich bei der Gestaltung des Unterrichtes und dessen Ausrichtung auf die neuen Erziehungsziele erhalten?
Hierzu wurden Geographielehrkräfte befragt, die sowohl in der DDR als auch im geeinten Deutschland unterrichtet haben. Die Fragen bezogen sich in erster Linie auf die Art und Weise des Unterrichtens vor, während und nach der Wende und der daraus entstandenen Systemtransformation.
Die Befragungen kommen zu dem Ergebnis, dass sich der Geographieunterricht in der DDR thematisch von dem in der BRD nicht sonderlich unterschied. Von daher bedurfte es keiner umfangreichen inhaltlichen Veränderung des Geographieunterrichts. Schon zu DDR-Zeiten wurden durch die Lehrkräfte offenbar eigenmächtig ideologiefreie physisch-geographische Themen oft ausgedehnt, um die Ideologie des Faches zu reduzieren. So fiel den meisten eine Anpassung ihres Unterrichts an das westdeutsche System relativ leicht. Die humanistisch geprägte Werteerziehung des DDR-Bildungssystems wurde unter Ausklammerung des sozialistischen Aspektes ebenso fortgeführt, da es auch hier viele Parallelen zum westdeutschen System gegeben hat. Deutlich wird eine Charakterisierung des Faches als Naturwissenschaft von Seiten der ostdeutschen Lehrkräfte, obwohl das Fach an den Schulen den Gesellschaftswissenschaften zugeordnet wird und auch in der DDR eine starke wirtschaftsgeographische Ausrichtung hatte.
Von der Verantwortung sozialistische Persönlichkeiten zu erziehen, wurden die Lehrkräfte mit dem Ende der DDR entbunden und die in dieser Arbeit aufgeführten Interviewauszüge lassen keinen Zweifel daran, dass es dem Großteil der Befragten darum nicht leidtat, sie sich aber bis heute an der Werteorientierung aus DDR-Zeiten orientieren.
Entsprechend der sogenannten Set-point-Theorie besitzt jeder Mensch eine individuell festgelegte Körpermasse, die über große Zeiträume konstant gehalten und gegen Abweichungen verteidigt wird. Es wird angenommen, dass der Körper auf noch unbekannte Weise Änderungen in der Körpermasse per se wahrnimmt und daraufhin Mechanismen aktiviert, die zur Regenerierung der ursprünglichen Masse führen. In dieser Arbeit wurde die Hypothese getestet, dass eine künstliche Erhöhung der Körpermasse zu einer kompensatorischen Reduktion in der Körpermasse führt, um das Ausgangsgewicht wieder zu regenerieren. Die Körpermasse von männlichen und weiblichen Mäusen wurde akut durch die Implantation von Gewichten mit einer Masse von 10% der aktuellen Körpermasse in die Bauchhöhle erhöht. Bei Gültigkeit der Set-point-Theorie sollte die Körpermassereduktion der Masse des zusätzlichen Gewichtsimplantats entsprechen. Die Mäuse reagierten auf die künstlich erhöhte Körpermasse geschlechtsspezifisch. Männchen zeigten eine partielle Reduktion in der Körpermasse. Weibchen zeigten langfristig jedoch keine Änderungen in der Körpermasse. Die Reduktion der Körpermasse erfolgte bei den Männchen durch eine Abnahme in der Fettmasse. Die fettfreie Masse war in beiden Geschlechtern nicht verändert. Änderungen in der Körpermasse wurden vor allem durch Änderungen in der Energieaufnahme hervorgerufen. Ein Einfluss des Energieumsatzes auf Änderungen in der Körpermasse konnte nicht nachgewiesen werden. Die Regulation der Körpermasse entsprechend eines massespezifischen Set-points konnte partiell für die Männchen gezeigt werden. Bei den Männchen könnte daher die Wahrnehmung der Körpermasse in die Regulation der Körpermasse teilweise integriert sein. Weibchen verminderten ihre Körpermasse dagegen trotz der künstlichen Körpermasseerhöhung nicht. Das führte zur Bewahrung der Energiereserven und spricht eher für die Regulation der Körpermasse entsprechend des notwendigen Energiebedarfs im Vergleich zu Änderungen in der Körpermasse per se. Diese Ergebnisse zeigen, dass die Regulation der Körpermasse geschlechtsspezifischen Mechanismen unterliegt. Dementsprechend sind auch geschlechtsspezifische Ansätze zur Therapie von Übergewicht und Adipositas notwendig.
Im Rahmen dieser Arbeit gelang es, katalytische Antikörper zur Hydrolyse von Benzylphenylcarbamaten sowie zahlreiche monoklonale Antikörper gegen Haptene herzustellen. Es wurden verschiedene Hapten-Protein-Konjugate unter Verwendung unterschiedlicher Kopplungsmethoden hergestellt und charakterisiert. Zur Generierung der hydrolytisch aktiven Antikörper wurden Inzuchtmäuse mit KLH-Konjugaten von 4 Übergangszustandsanaloga (ÜZA) immunisiert. Mit Hilfe der Hybridomtechnik wurden verschiedene monoklonale Antikörper gegen diese ÜZA gewonnen. Dabei wurden sowohl verschiedene Immunisierungsschemata als auch verschiedene Inzuchtmausstämme und Fusionstechniken verwendet. Insgesamt wurden 32 monoklonale Antikörper gegen die verwendeten ÜZA selektiert. Diese Antikörper wurden in großen Mengen hergestellt und gereinigt. Zum Nachweis der Antikörper-vermittelten Katalyse wurden verschiedene Methoden entwickelt und eingesetzt, darunter immunologische Nachweismethoden mit Anti-Substrat- und Anti-Produkt-Antikörpern und eine photometrische Methode mit Dimethylaminozimtaldehyd. Der Nachweis der hydrolytischen Aktivität gelang mit Hilfe eines Enzymsensors, basierend auf immobilisierter Tyrosinase. Die Antikörper N1-BC1-D11, N1-FA7-C4, N1-FA7-D12 und R3-LG2-F9 hydrolysierten die Benzylphenylcarbamate POCc18, POCc19 und Substanz 27. Der Nachweis der hydrolytischen Aktivität dieser Antikörper gelang auch mit Hilfe der HPLC. Der katalytische Antikörper N1-BC1-D11 wurde kinetisch und thermodynamisch untersucht. Es wurde eine Michaelis-Menten-Kinetik mit Km von 210 µM, vmax von 3 mM/min und kcat von 222 min-1 beobachtet. Diese Werte korrelieren mit den Werten der wenigen bekannten Diphenylcarbamat-spaltenden Abzyme. Die Beschleunigungsrate des Antikörpers N1-BC1-D11 betrug 10. Das ÜZA Hei3 hemmte die hydrolytische Aktivität. Dies beweist, dass die Hydrolyse in der Antigenbindungsstelle stattfindet. Weiter wurde zwischen der Antikörperkonzentration und der Umsatzgeschwindigkeit eine lineare Abhängigkeit festgestellt. Die thermodynamische Gleichtgewichtsdissoziationskonstante KD des Abzyms von 2,6 nM zeugt von einer sehr guten Affinität zum ÜZA. Hydrolytisch aktiv waren nur Antikörper, die gegen das Übergangszustandsanalogon Hei3 hergestellt worden waren. Es wird vermutet, dass die Hydrolyse der Benzylphenylcarbamate über einen Additions-Eliminierungsmechanismus unter Ausbildung eines tetraedrischen Übergangszustandes verläuft, dessen analoge Verbindung Hei3 ist. Im Rahmen der Generierung von Nachweisantikörpern zur Detektion der Substratabnahme bei der Hydrolyse wurden Anti-Diuron-Antikörper hergestellt. Einer der Antikörper (B91-CG5) ist spezifisch für das Herbizid Diuron und hat einen IC50-Wert von 0,19 µg/l und eine untere Nachweisgrenze von 0,04 µg/l. Ein anderer Antikörper (B91-KF5) reagiert kreuz mit einer Palette ähnlicher Herbizide. Mit diesen Antikörpern wurde ein empfindlicher Labortest, der ein Monitoring von Diuron auf Grundlage des durch die Trinkwasserverordnung festgeschriebenen Wertes für Pflanzenschutzmittel von 0,1 µg/l erlaubt, aufgebaut. Der Effekt der Anti-Diuron-Antikörper auf die Diuron-inhibierte Photosynthese wurde in vitro und in vivo untersucht. Es wurde nachgewiesen, dass sowohl in isolierten Thylakoiden, als auch in intakten Algen eine Vorinkubation der Anti-Diuron-Antikörper mit Diuron zur Inaktivierung seiner Photosynthese-hemmenden Wirkung führt. Wurde der Elektronentransport in den isolierten Thylakoiden oder in Algen durch Diuron unterbrochen, so führte die Zugabe der Anti-Diuron-Antikörper zur Reaktivierung der Elektronenübertragung.
Der "Leukocyte Receptor Complex" (LRC) ist ein DNA-Sequenzabschnitt auf dem Chromosom 19 des Menschen, der eine Länge von über 900.000 Basenpaaren umfaßt. In diesem Chromosomenabschnitt ist eine Vielzahl von Genen lokalisiert, die für die Funktion verschiedener weißer Blutzellen (Leukozyten) von entscheidender Bedeutung sind. Bei den aus diesen Genen synthetisierten Proteinen (Eiweißen) handelt es sich um Strukturen, die auf der Oberfläche dieser Zellen lokalisiert sind und zur Interaktion der Leukozyten mit ihrer Umgebung dienen. Diese auch als Rezeptoren bezeichneten Proteine können mit Oberflächenproteinen auf anderen Körperzellen wechselwirken und daraus resultierende Signale in das Innere der Blutzelle weiterleiten. In der vorliegenden Doktorarbeit wurde der LRC im Detail untersucht. Hierzu wurde zunächst der gesamte Chromosomenabschnitt aus kleineren, einander überlappenden DNA-Fragmenten rekonstruiert. Aufgrund der in diesen DNA-Fragmenten enthaltenen DNA-Sequenzen war es möglich, den gesamten Chromosomenabschnitt ähnlich einem Puzzle zusammenzusetzen. Die anschließende Analyse des LRC zeigte, daß sich dieser in drei Bereiche, sogenannte Cluster, unterteilen läßt. Diese Cluster sind dadurch gekennzeichnet, daß in ihnen jeweils nur Gene eines Rezeptortyps vorkommen. Hierbei handelt es sich um ‚immunoglobulin-like transcript′ -Gene (ILT) und ‚killer cell Ig-like receptor′-Gene (KIR). Die KIR- und ILT-Cluster werden von weiteren stammesgeschichtlich verwandten Genen unterbrochen und flankiert. Je nach Individuum können im LRC bis zu 31 solcher verwandten Rezeptorgene lokalisiert sein. Auf der Grundlage der Kartierungsdaten und von Daten des humanen Genomprojekts war es zudem möglich, evolutionäre Untersuchungen zur Entwicklung des LRC durchzuführen. Dabei wurde eine Hypothese zur Entstehung des LRC entworfen und zu anderen Spezies in Beziehung gesetzt. Im zweiten Teil der Arbeit habe ich aufbauend auf der sogenannten HRCA-Methode eine Technik entwickelt, die es erlaubt kleinste Unterschiede zwischen DNA-Sequenzen, sogenannte Einzelbasenpaaraustausche, nachzuweisen. Die entwickelte Methode kann verwendet werden, um sehr ähnliche DNA-Sequenzen, wie z.B. verschiedene KIR-Sequenzen, zu unterscheiden und ihre Menge zu bestimmen. Sie ist außerdem geeignet Mutationen, die mit bestimmten Krankheiten assoziiert sind, nachzuweisen und könnte somit in der Diagnostik Anwendung finden.
Eine besondere Rolle im Fremdstoffmetabolismus hat die SULT1A1 beim Menschen aufgrund der hohen Expression und breiten Gewebeverteilung. Während die humane SULT1A1 in sehr vielen Geweben exprimiert wird, wurde die murine SULT1A1 vor allem in der Leber, Lunge und Colon gefunden. Neben der Gewebeverteilung spielt auch der Polymorphismus im humanen SULT1A1-Gen eine bedeutende Rolle. Der häufigste Polymorphismus in diesem Gen führt zu einer Aminosäuresubstitution von Arginin zu Histidin an Position 213. Die Genvariante mit Histidin (auch als SULT1A1*2 bezeichnet) codiert für ein Protein mit einer geringen Enzymaktivität und einer reduzierten Enzymmenge in Thrombocyten. Über den Einfluss dieser allelischen Varianten in anderen Geweben ist bislang wenig bekannt. In vorausgegangenen epidemiologischen Studien wurden mögliche Korrelationen zwischen den Genvarianten und der Krebsentstehung in verschiedenen Geweben untersucht. Diese Daten liefern jedoch widersprüchliche Ergebnisse zum Krebsrisiko. Aufgrund der strittigen epidemiologischen Daten sollten Tiermodelle generiert werden, um die häufigsten SULT1A1-Allele hinsichtlich der Empfindlichkeit gegenüber Nahrungs- und Umweltkanzerogenen zu untersuchen. Zur Erzeugung transgener (tg) Mauslinien wurde mittels Mikroinjektion der codierenden Genbereich und große flankierende Humansequenzen stromaufwärts und stromabwärts in das Mausgenom integriert. Es wurden mehrere Mauslinien hergestellt. Zwei davon, die Mauslinie 31 mit dem SULT1A1*1-Allel und die Mauslinie 28 mit dem SULT1A1*2-Allel, wurden eingehend analysiert. In beiden Linien wurde eine identische Kopienzahl des Transgens ermittelt. Proteinbiochemische Charakterisierungen zeigten eine weitgehend dem Menschen entsprechende Gewebeverteilung und zelluläre und subzelluläre Lokalisation der humanen SULT1A1 in der Linie (Li) 28. In Li 31 wurden Unterschiede zu Li 28 sowohl in der Gewebeverteilung als auch in der zellulären Lokalisation des exprimierten humanen Proteins ermittelt. Dabei war die Expression auf Proteinebene in der SULT1A1*2-tg Linie generell stärker als in der SULT1A1*1-Linie. Dieses Ergebnis war überraschend, denn in humanen Thrombocyten führt das SULT1A1*1-Allel zu einem höheren Gehalt an SULT1A1-Protein als das SULT1A1*2-Allel. Zur Analyse der unterschiedlichen Proteinexpressionen in den tg Mauslinien wurde die cDNA und der 5´-flankierende Bereich des SULT1A1-Gens sequenziert. In beiden tg Linien entsprach die Sequenz der cDNA der Referenzsequenz aus der Gendatenbank (Pubmed). In der 5´-flankierenden Region wurden bekannte Polymorphismen analysiert und unterschiedliche Haplotypen in den tg Linien an den Positionen -624 und -396 ermittelt. Dabei wurde in der Li 31 der Haplotyp detektiert, der in der Literatur mit einer höheren SULT1A1-Enzymaktivität beschrieben wird. Der mögliche Zusammenhang zwischen Transkriptionsrate und Proteinexpression wurde in RNA-Expressionsanalysen im codierenden und 5´-nicht codierenden Bereich (mit den alternativen Exons 1B und 1A) untersucht. Im codierenden Bereich und im Exon 1B konnte in den untersuchten Organen eine höhere RNA-Expression in der Li 28 im Vergleich zur Li 31 ermittelt werden. Außer in der Lunge wurde für Exon 1B eine identische RNA-Expression detektiert. RNA, die Exon 1A enthielt, wurde in allen untersuchten Organen der Li 28, aber nur in der Lunge bei der Li 31 gefunden. In beiden tg Linien konnten mit den Exon 1A-Primern jedoch auch größere PCR-Produkte ermittelt werden. Dieser Unterschied im Exon 1A und mögliche Spleißvarianten könnten damit für die unterschiedliche Proteinexpression des humanen SULT1A1-Proteins in den beiden tg Mauslinien sein. Die in dieser Arbeit generierten und charakterisierten tg Mausmodelle wurden in einer toxikologischen Studie eingesetzt. Es wurde das heterozyklische aromatische Amin 2-Amino-1-methyl-6-phenylimidazo-[4,5-b]pyridin (PhIP) verwendet. PhIP wird beim Erhitzen und Braten von Fleisch und Fisch gebildet und könnte mit der erhöhten Krebsentstehung im Colon in der westlichen Welt im Zusammenhang stehen. Mittels 32P-Postlabelling sollte der Einfluss der zusätzlichen Expression der humanen SULT-Proteine auf die PhIP-DNA-Adduktbildung analysiert werden. Dabei wurden mehr DNA-Addukte in den tg Tieren als in den Wildtyp-Mäusen ermittelt. Die Konzentration der gebildeten DNA-Addukte korrelierte mit der Expressionsstärke des humanen SULT1A1-Proteins in den tg Mäusen. An den in dieser Arbeit generierten tg Mauslinien mit den häufigsten allelischen Varianten des SULT1A1-Gens konnten Unterschiede auf RNA- und Protein-Ebene ermittelt werden. Zudem konnte gezeigt werden, dass die Expression der humanen SULT1A1 eine Auswirkung sowohl auf die Stärke als auch das Zielgewebe der DNA-Adduktbildung in vivo hat.
Die stetige Weiterentwicklung von VR-Systemen bietet neue Möglichkeiten der Interaktion mit virtuellen Objekten im dreidimensionalen Raum, stellt Entwickelnde von VRAnwendungen aber auch vor neue Herausforderungen. Selektions- und Manipulationstechniken müssen unter Berücksichtigung des Anwendungsszenarios, der Zielgruppe und der zur Verfügung stehenden Ein- und Ausgabegeräte ausgewählt werden. Diese Arbeit leistet einen Beitrag dazu, die Auswahl von passenden Interaktionstechniken zu unterstützen. Hierfür wurde eine repräsentative Menge von Selektions- und Manipulationstechniken untersucht und, unter Berücksichtigung existierender Klassifikationssysteme, eine Taxonomie entwickelt, die die Analyse der Techniken hinsichtlich interaktionsrelevanter Eigenschaften ermöglicht. Auf Basis dieser Taxonomie wurden Techniken ausgewählt, die in einer explorativen Studie verglichen wurden, um Rückschlüsse auf die Dimensionen der Taxonomie zu ziehen und neue Indizien für Vor- und Nachteile der Techniken in spezifischen Anwendungsszenarien zu generieren. Die Ergebnisse der Arbeit münden in eine Webanwendung, die Entwickelnde von VR-Anwendungen gezielt dabei unterstützt, passende Selektions- und Manipulationstechniken für ein Anwendungsszenario auszuwählen, indem Techniken auf Basis der Taxonomie gefiltert und unter Verwendung der Resultate aus der Studie sortiert werden können.
Gegenstand der Dissertation ist die Präsentation von Kleidermode in ihr gewidmeten Sonderausstellungen, die in zunehmender Zahl seit den 1990er Jahren in musealen und musemsähnlichen Kontexten veranstaltet werden. Es geht darum, wie Modekörper und vestimentäre Artefakte in diesen Ausstellungen gezeigt werden und welche ästhetischen Erfahrungen sich für die RezipientInnen aus der jeweiligen Konstellation von vestimentärem Objekt und Inszenierungsmittel ergeben können. Das Augenmerk liegt auf der Spannung zwischen dem visuellen Imperativ musealer Zeigepraktiken und den multisensorischen Qualitäten der Kleidermode, v. a. jener hautsinnlichen, die sich aus dem unmittelbaren Kontakt zwischen Körper und Kleid ergeben.
Die zentrale These ist, dass sich das Hautsinnliche der Kleidermode trotz des Berührungsverbots in vielen Ausstellungsinszenierungen zeigen kann. D. h., dass – entgegen häufig wiederholter Behauptungen – ‚der Körper‘, das Tragen und die Bewegung nicht per se oder komplett aus den Kleidern gewichen sind, werden diese musealisiert und ausgestellt. Es findet eine Verschiebung des Körperlichen und Hautsinnlichen, wie das Anfassen, Tragen und Bewegen, in visuelle Darstellungsformen statt. Hautsinnliche Qualitäten der vestimentären Exponate können, auch in Abhängigkeit von den jeweils verwendeten Präsentationsmitteln, von den BesucherInnen in unterschiedlichen Abstufungen sehend oder buchstäblich gespürt werden.
An konkreten Beispielen wird zum einen das Verhältnis von ausgestelltem Kleid und Präsentationsmittel(n) in den Displays untersucht. Dabei stehen folgende Mittel im Fokus, mit deren Hilfe die vestimentären Exponate zur Schau gestellt werden: Vitrinen, Podeste, Ersatzkörper wie Mannequins, optische Hilfsmittel wie Lupen, Bildmedien oder (bewegte) Installationen. Zum anderen wird analysiert, welche Wirkungen die Arrangements jeweils erzielen oder verhindern können, und zwar in Hinblick auf mögliche ästhetische Erfahrungen, die taktilen, haptischen und kinästhetischen Qualitäten der Exponate als BesucherIn sehend oder buchstäblich zu fühlen oder zu spüren. Ob als Identifikation, Projektion, Haptic Vision – es handelt sich um ästhetische Erfahrungen, die sich aus den modischen Kompetenzen der BetrachterInnen speisen und bei denen sich Visuelles und Hautsinnliches oft überlagern.
In der Untersuchung wird eine vernachlässigte, wenn nicht gar unerwünschte Rezeptionsweise diskutiert, die von den AkteurInnen der spezifischen Debatte bspw. als konsumptives Sehen abgewertet wird. Die von mir vorgeschlagene, stärker differenzierende Perspektive ist zugleich eine Kritik an dem bisherigen Diskurs und seinem eng gefassten, teilweise elitären Verständnis von Museum, Bildung und Wissen, mit dem sich AkteurInnen und Institutionen abgrenzen. Der Spezialdiskurs über musealisierte und exponierte Kleidermode steht zudem exemplarisch für die Diskussion, was das Museum, verstanden als Institution, sein kann und soll(te) und ob (und wenn ja, wie) es sich überhaupt noch von anderen Orten und Räumen klar abgrenzen lässt.
Intuitive Modelle der Informatik sind gedankliche Vorstellungen über informatische Konzepte, die mit subjektiver Gewissheit verbunden sind. Menschen verwenden sie, wenn sie die Arbeitsweise von Computerprogrammen nachvollziehen oder anderen erklären, die logische Korrektheit eines Programms prüfen oder in einem kreativen Prozess selbst Programme entwickeln. Intuitive Modelle können auf verschiedene Weise repräsentiert und kommuniziert werden, etwa verbal-abstrakt, durch ablauf- oder strukturorientierte Abbildungen und Filme oder konkrete Beispiele. Diskutiert werden in dieser Arbeit grundlegende intuitive Modelle für folgende inhaltliche Aspekte einer Programmausführung: Allokation von Aktivität bei einer Programmausführung, Benennung von Entitäten, Daten, Funktionen, Verarbeitung, Kontrollstrukturen zur Steuerung von Programmläufen, Rekursion, Klassen und Objekte. Mit Hilfe eines Systems von Online-Spielen, der Python Visual Sandbox, werden die psychische Realität verschiedener intuitiver Modelle bei Programmieranfängern nachgewiesen und fehlerhafte Anwendungen (Fehlvorstellungen) identifiziert.
Übergewicht, Diabetes oder Fettstoffwechselstörungen sind mit erniedrigten Adiponectinspiegeln assoziiert. Eine Modulation des Adiponectins kann durch genetische und metabolische Gegebenheiten erfolgen. Das Ziel dieser Arbeit war die Analyse von Faktoren, welche die Adiponectinspiegel beeinflussen können, sowie eine Charakterisierung der Oligomerverteilung unter verschiedenen metabolischen Bedingungen. In der MeSyBePo-Kohorte waren die zirkulierenden Adiponectinspiegel mit den Promotorpolymorphismen ADIPOQ -11377 C/G und ADIPOQ -11391 G/A im Adiponectingen assoziiert. Im Hinblick auf die metabolischen Faktoren korrelierte Adiponectin eng mit Parametern des Glukose- und Fettstoffwechsels sowie dem Übergewicht. Innerhalb von hyperinsulinämischen euglykämischen Clamps führte eine akute Hyperinsulinämie zu einer Abnahme der Adiponectinspiegel. Adiponectin zirkuliert im Serum als hochmolekulare (HMW), mittelmolekulare (MMW) und niedrigmolekulare (LMW) Spezies. Mit zunehmendem Körpergewicht konnte eine Verlagerung von HMW-Spezies hin zu den LMW-Spezies beobachtet werden. Durch eine moderate Gewichtsabnahme erhöhten sich die Anteile an HMW- und MMW-Adiponectin wieder. Während sich in Abhängigkeit vom Glukosemetabolismus keine Unterschiede in den Gesamtspiegeln ergaben, wurden bei Personen mit normaler Glukosetoleranz signifikant höhere Anteile an MMW-Adiponectin detektiert als bei Personen mit einem gestörten Glukosestoffwechsel. Insgesamt scheinen die HMW- und MMW-Spezies gegensätzlich zur LMW-Spezies reguliert zu werden. Die Arbeit unterstreicht die wichtige Rolle des Adiponectins im Glukose- und Fettstoffwechsel sowie bei einer Adipositas in vivo. Dabei waren Änderungen der Adiponectinspiegel bei Vorliegen von Insulinresistenz und Adipositas stets mit einer Umverteilung der Oligomerfraktionen verbunden. Vor allem die HMW- und MMW-Spezies des Adiponectins scheinen von entscheidender Bedeutung zu sein.
Die Arbeit beschreibt die Synthese, Charakterisierung und Anwendung von meso- und mikroporösen Hochleistungspolymeren. Im ersten Teil wird die Synthese von mesoporösen Polybenzimidazol (PBI) auf der Basis einer Templatierungsmethode vorgestellt. Auf der Grundlage kommerzieller Monomere und Silikatnanopartikel sowie eines neuen Vernetzers wurde ein Polymer-Silikat-Hybridmaterial aufgebaut. Das Herauslösen des Silikats mit Ammoniumhydrogendifluorid führt zu mesoporösen Polybenzimidazolen mit spherischen Poren von 9 bis 11 nm Durchmesser. Die Abhängigkeit der beobachteten Porosität vom Massenverhältnis Silikat zu Polymer wurde ebenso untersucht wie die Abhängigkeit der Porosität vom Vernetzergehalt. Die Porosität vollvernetzter Proben zeigt eine lineare Abhängigkeit vom Verhältnis Silikat zu Polymer bis zu einem Grenzwert von 1. Wird der Grenzwert überschritten, ist teilweiser Porenkollaps zu beobachten. Die Abhängigkeit der Porosität vom Vernetzergehalt bei festem Silikatgehalt ist nichtlinear. Oberhalb einer kritischen Vernetzerkonzentration wird eine komplette Replikation der Nanopartikel gefunden. Ist die Vernetzerkonzentration dagegen kleiner als der kritische Wert, so ist der völlige Kollaps einiger Poren bei Stabilität der verbleibenden Poren zu beobachten. Ein komplett unporöses PBI resultiert bei Abwesenheit des Vernetzers. Die mesoporösen PBI-Netzwerke konnten kontrolliert mit Phosphorsäure beladen werden. Die erhaltenen Addukte wurden auf ihre Protonenleitfähigkeit untersucht. Es kann gezeigt werden, dass die Nutzung der vordefinierten Morphologie im Vergleich zu einem unstrukturierten PBI in höheren Leitfähigkeiten resultiert. Durch die vernetzte Struktur war des Weiteren genügend mechanische Stabilität gegeben, um die Addukte reversibel und bei sehr guten Leitfähigkeiten bis zu Temperaturen von 190°C bei 0% relativer Feuchtigkeit zu untersuchen. Dies ist für unstrukturierte Phosphorsäure/PBI - Addukte aus linearem PBI nicht möglich. Im zweiten Teil der Arbeit wird die Synthese intrinsisch mikroporöser Polyamide und Polyimide vorgestellt. Das Konzept intrinsisch mikroporöser Polymere konnte damit auf weitere Polymerklassen ausgeweitet werden. Als zentrales, strukturinduzierendes Motiv wurde 9,9'-Spirobifluoren gewählt. Dieses Molekül ist leicht und vielfältig zu di- bzw. tetrafunktionellen Monomeren modifizierbar. Dabei wurden bestehende Synthesevorschriften modifiziert bzw. neue Vorschriften entwickelt. Ein erster Schwerpunkt innerhalb des Kapitels lag in der Synthese und Charakterisierung von löslichen, intrinsisch mikroporösen, aromatischen Polyamid und Polyimid. Es konnte gezeigt werden, dass das Beobachten von Mikroporosität stark von der molekularen Architektur und der Verarbeitung der Polymere abhängig ist. Die Charakterisierung der Porosität erfolgte unter Nutzung von Stickstoffsorption, Kleinwinkelröntgenstreuung und Molecular Modeling. Es konnte gezeigt werden, dass die Proben stark vom Umgebungsdruck abhängigen Deformationen unterliegen. Die starke Quellung der Proben während des Sorptionsvorgangs konnte durch Anwendung des "dual sorption" Modells, also dem Auftreten von Porenfüllung und dadurch induzierter Henry-Sorption, erklärt werden. Der zweite Schwerpunkt des Kapitels beschreibt die Synthese und Charakterisierung mikroporöser Polyamid- und Polyimidnetzwerke. Während Polyimidnetzwerke auf Spirobifluorenbasis ausgeprägte Mikroporosität und spezifische Oberflächen von ca. 1100 m²/g aufwiesen, war die Situation für entsprechende Polyamidnetzwerke abweichend. Mittels Stickstoffsorption konnte keine Mikroporosität nachgewiesen werden, jedoch konnte mittels SAXS eine innere Grenzfläche von ca. 300 m²/g nachgewiesen werden. Durch die in dieser Arbeit gezeigten Experimente kann die Grenze zwischen Polymeren mit hohem freien Volumen und mikroporösen Polymeren somit etwas genauer gezogen werden. ausgeprägte Mikroporosität kann nur in extrem steifen Strukturen nachgewiesen werden. Die Kombination der Konzepte "Mesoporosität durch Templatierung" und "Mikroporosität durch strukturierte Monomere" hatte ein hierarchisch strukturiertes Polybenzimidazol zum Ergebnis. Die Präsenz einer Strukturierung im molekularen Maßstab konnte SAXS bewiesen werden. Das so strukturierte Polybenzimidazol zeichnete sich durch eine höhere Protonenleitfähigkeit im Vergleich zu einem rein mesoporösen PBI aus. Der letzte Teil der Arbeit beschäftigte sich mit der Entwicklung einer neuen Synthesemethode zur Herstellung von Polybenzimidazol. Es konnte gezeigt werden, dass lineares PBI in einer eutektischen Salzschmelze aus Lithium- und Kaliumchlorid synthetisiert werden kann. Die Umsetzung der spirobifluorenbasierten Monomere zu löslichem oder vernetztem PBI ist in der Salzschmelze möglich.
Das Menderes Massiv im Westen der Türkei stellt eine große Kulmination metamorpher Gesteine dar. Das Untersuchungsgebiet ist im Zentralen Menderes Massiv (Ödemis Submassiv) gelegen, das von den beiden aktiven Gräben, dem Gediz Graben im Norden und dem Büyük Menderes Graben im Süden begrenzt wird. Die Untersuchungen der Eklogit Relikte im zentralen Menderes Massiv haben ergeben, dass sich im Menderes Massiv Hochdruckrelikte in unterschiedlichen tektonischen Positionen befinden. Zum einen existieren Eklogit-Blöcke in der obersten Einheit (Selcuk Einheit) des zentralen Menderes Massivs und zum anderen Hochdruck-Relikte in der strukturell mittleren Birgi - Tire Decke. Die Granate der quarzfreien Eklogit-Blöcke weisen große Ähnlichkeiten mit denen der HP/LT Gesteine von Sifnos und Syros auf. Die Entwicklung der Eklogit-Blöcke in der Olistostrom-Einheit lässt sich jedoch nicht mit den Eklogit Relikten in der strukturell mittleren Birgi Tire Decke vergleichen. Für die Eklogit-Relikte in der Birgi Tire Decke wurde eine polymetamorphe Entwicklung mithilfe petrologischer Untersuchungen und chemischen und Pb-Pb Datierungen herausgearbeitet. Die Eklogit Relikte gehören zu einem metamorphen Teilpfad, der durch eine Amphibolitfazies 1 - Hochdruck - Amphibolitfazies 2/Granulitfazies charakterisiert ist. Der Endpunkt dieses Teilpfades ist mit Temperaturen zwischen 700 und 750 °C und Drücken von 1.2 - 1.4 GPa belegt. Für diese Bedingungen konnte ein minimales Alter von 520 Ma durch chemische Datierungen an Monaziten einer Augengneisprobe und Pb-Pb Datierungen an Zirkonen einer Augengneis- und Metagabbroprobe bestimmt werden. Dieser amphibolit/granulitfazieller Endpunkt wird mit den Granitintrusionen des zentralen und südlichen Menderes Massiv korreliert, die in einem Zeitraum zwischen 520 Ma bis 550 Ma stattfanden. Sowohl die Amphibolitfazies 1 als auch das Hochdruckereignis werden der Panafrikanischen Orogenese zugeordnet. Für die Hochdruckbedingungen wurden maximale Temperaturen zwischen 680°C und 720°C und bei einem Druck von 2.2 GPa bestimmt. In den untersuchten Metasedimenten konnte eine prograde metamorphe Entwicklung abgeleitet werden, die amphibolitfazielle Bedingungen von 660°C bei 0.6 GPa erreichte. Das Metamorphosealter dieser Metasedimente konnte mit < 100 Ma mittels chemischer Mikrosondendatierung bestimmt werden. Die in den Metasedimenten herausgearbeiteten Druck- und Temperaturbedingungen wurden ebenfalls in den metabasischen Gesteinen bestimmt. Diese Ergebnisse werden als Krustenstapelung der metabasischen Gesteine, Augengneise und Metasedimente interpretiert, die mit der alpinen Orogenese im Zusammenhang stehen. Durch die Ergebnisse dieser Arbeit lässt sich die Birgi-Tire Decke im zentralen Menderes Massiv genauer charakterisieren. Sie besteht aus Metasedimenten, pelitischen Gneisen, Augengneisen und metabasichen Gesteinen. Die Gneise (pelitische und Augengneise) und die metabasischen Gesteine stellen panafrikanische Relikte dar, die einen amphibolit- eklogit- amphibolit/granulitfaziellen Metamorphosepfad gespeichert haben. Die amphibolit- bis granulitfazielle Metamorphose hängt mit den Granitintrusionen zusammen und fand in einem Zeitraum zwischen 520 - 550 Ma statt. Große Teile der Metasedimente der Birgi Tire Decke haben jedoch nur eine alpine metamorphe Entwicklung durchlaufen, wo sie unter amphibolitfazielle Bedingungen Krustentiefen erreichten, bei denen sie mit den panafrikanischen Relikten zusammen gestapelt wurden und eine gemeinsame Exhumierung erfahren haben.
Das Phänomen der Subduktion eines aktiven Spreizungszentrums an der Südspitze Südamerikas ist seit langem bekannt. Eine Vielzahl von geologischen Beobachtungen wurden mit diesem Phänomen in Verbindung gebracht, trotzdem ist der genaue Mechanismus der Beeinflussung des aktiven Kontinentalrandes weitgehend unbekannt. Die Zusammenhänge zwischen den Subduktionsprozessen und der Entwicklung der patagonischen Anden zwischen 47°S und 48°S stehen im Mittelpunkt der Untersuchungen. Um eine detaillierte zeitliche Auflösung der zugrunde liegenden Prozesse untersuchen zu können, wurde die Entwicklung der Vorlandsedimentation, die thermische Entwicklung und die Heraushebung der Oberkruste des andinen Orogens untersucht und diese in Bezug zur Subduktion des Chile-Rückens gesetzt. Im Bereich von 47°30′S wurden die synorogenen Vorlandsedimente der Santa Cruz Formation sedimentologisch untersucht. Diese fluviatilen Sedimente wurden in einem reliefarmen Vorlandgebiet durch häufige Rinnenverlagerung und dem Aufbau von Rinnenumlagerungsgürteln in Kombination mit assoziierten großräumigen Überflutungsablagerungen akkumuliert. Sie stehen in einem engen Zusammenhang mit der orogenen Entwicklung im andinen Liefergebiet. Dies spiegelt sich in dem nach oben gröber werdenden Zyklus der Santa Cruz Formation wider. Die magnetostratigraphischen Untersuchungen einer 270 m mächtigen Sequenz aus der Basis der Santa Cruz Formation, die mit 329 Einzelproben aus 96 Probenpunkten beprobt wurde, ergab 7 Umkehrungen der geomagnetischen Feldrichtung. Mit Hilfe der geomagnetischen Polaritätszeitskala (CANDE AND KENT, 1995) konnte der untersuchte Abschnitt der Santa Cruz Formation zwischen 16.2 und 18.5 Ma datiert werden. Als Träger der Sedimentations-Remanenz konnten überwiegend Pseudoeinbereichs-Magentitpartikel und untergeordnet Hämatitpartikel identifiziert werden. An drei Profilen der Santa Cruz Formation wurden aus Sandsteinlagen unterschiedlicher stratigraphischer Position detritische Apatite mit Hilfe der thermochronologischen Spaltspurmethode untersucht. Die thermisch nicht rückgesetzten, detritischen Apatite spiegeln das Auftreten unterschiedlicher Altersdomänen im Liefergebiet der Sedimente wider. In der Kombination mit den geochemischen Gesamtgesteinsuntersuchungen der Sedimente und den petrographischen Untersuchungen der Sandsteine, die ein überwiegend andesitisch-vulkanisch geprägtes Liefergebiet widerspiegeln, kann nachgewiesen werden, dass die Erosion im Liefergebiet um 16.5 Ma in tiefere, deformierte Krustensegmente einschneidet. Dies bedeutet, dass aufgrund der Denudation im andinen Orogen erste Sockelgesteinseinheiten in den Bereich der Abtragung gelangen und dass dieser Eintrag um 12 bis 10 Ma ein Volumen einnimmt, das zu signifikanten Änderungen der Gesamtgesteinsgeochemie der Vorlandsedimente führt. Die thermochronologische Untersuchung von Apatiten aus rezenten topographischen Höhenprofilen aus der Kernzone der patagonischen Anden im Bereich von 47°30′S zeigen den Beginn einer beschleunigten Heraushebung des Orogens um 7.5 Ma. Aus diesen Untersuchungen kann eine Denudationsrate im Zeitraum der letzen 7 bis 8 Ma von 600 bis 650 m/Ma abgeschätzt werden. Die Modellierung der Apatit-Spaltspurergebnisse zeigt eine signifikante Temperaturerhöhung im Zeitraum zwischen 12 und 8 Ma um 20 bis 30°C für diesen Krustenbereich, die mit der Subduktion des aktiven Chile-Rückens in diesem Bereich der Anden in Verbindung gebracht wird. Aus den gewonnen Daten kann ein Modell für die Entwicklung der patagonischen Anden seit dem frühen Miozän abgeleitet werden. In diesem Modell wird die orogene Entwicklung in den patagonischen Anden auf eine erhöhte Konvergenzrate zwischen der Nazca Platte und der Südamerikanischen Platte zurückgeführt, die für die Heraushebung und Denudation der Anden sowie für die damit verbundene Entwicklung im Vorlandbereich verantwortlich ist. Diese orogene Entwicklung wird in einer späten Phase durch die nordwärts wandernde Subduktion des aktiven Spreizungszentrums des Chile Rückens überprägt und beeinflusst. Das auf der Integration von geologischen, chronologischen sowie thermochronologischen Daten beruhende Modell kann zahlreiche geologische und geophysikalische Beobachtungen in diesem Bereich der südlichen Anden konsistent erklären.
Die vorliegende Arbeit behandelt die Synthese und Charakterisierung von funktionalisierten Alkydharzen und die photoinduzierte Polymerisation dieser unter Einsatz einer Quecksilberdampflampe oder einer UV LED mit unterschiedlicher Lichtintensität. Der Fokus dieser Arbeit bestand in der gezielten Substitution der internalen Doppelbindungen der Fettsäureester durch reaktivere Gruppen, wie Acrylate oder Methacrylate, welche für Alkydharze in dieser Form so in der Literatur nicht beschrieben sind. Untersuchungen des Polymerisationsverhaltens dieser funktionalisierten Harze wurden mit der Photo DSC durchgeführt, wobei Bis – (4 – methoxybenzoyl) diethylgermanium als Photoinitiator diente. Die Ergebnisse haben gezeigt, dass die Harze radikalisch polymerisiert werden können und eine geringere Abhängigkeit von der Umgebungsatmosphäre (Luftsauerstoff bzw. Stickstoff) vorliegt. Dies ist so in der Literatur für funktionalisierte Alkydharze nicht bekannt. Abmischungen von unterschiedlichen Monomeren und funktionalisierten Harzen bewirkten eine Steigerung der Viskosität sowie eine Verringerung der Sauerstoffinhibierung im Zuge der photoinduzierten Polymerisation unter Luftsauerstoff für die Quecksilberdampflampe und der UV LED.
Zur Untersuchung der sauerstoffinhibierenden Wirkung der Harze sind Synthesen unterschiedlicher, funktionalisierter Ölsäuremethylester als Modellsubstanzen durchgeführt worden. Ein verbessertes Polymerisationsverhalten und eine geringe Abhängigkeit von der Umgebungsatmosphäre konnte für die Modelle nachgewiesen werden. Zur Aufklärung des verbesserten Polymerisationsverhaltens sind gezielt Substituenten (Imidazol, Brom, Alkohol, Acetat) in den funktionalisierten Ölsäuremethylester eingebaut worden, um den Einfluss dieser aufzuzeigen. Im Rahmen dieser Synthesen sind neuartige Strukturen synthetisiert worden, welche so in der Literatur nicht beschrieben sind. Die Gegenüberstellung der Polymerisationszeit, der Umsatz der (Meth-)Acrylatgruppen sowie die Zeit zum Erreichen der maximalen Polymerisationsgeschwindigkeit unter Verwendung von unterschiedlichen UV Lichtquellen hat einen Einfluss der Substituenten auf das Polymerisationsverhalten gezeigt.
Die Pektat-Lyasen gehören zu einer Proteinfamilie, die meistens von pflanzenpathogenen Mikroorganismen sekretiert werden. Die Enzyme katalysieren den Abbau von Polygalakturonsäure, einem Hauptbestandteil in pflanzlichen Mittellamellen und Primärzellwänden. Der Abbau der alpha-1,4-verbrückten Galakturonsäurereste erfogt durch eine beta-Eliminierungsreaktion, dabei entsteht ein Produkt mit einer ungesättigten C4-C5 Bindung am nicht reduzierenden Ende, das durch spektroskopische Messungen beobachtet werden kann. Für die enzymatische Reaktion der Pektat-Lyasen ist Calcium nötig und das pH-Optimum der Reaktion liegt bei pH 8.5. Alle bis jetzt bekannten Strukturen der Pektat- und Pektin-Lyasen haben das gleiche Strukturmotiv - eine rechtsgängige parallele beta-Helix. Die Struktur der Pektat-Lyase aus Bacillus subtilis (BsPel) ist im Komplex mit Calcium gelöst worden. BsPel ist ein monomeres Protein mit einer ungefähren Molekularmasse von 43 kDa, das keine Disulfidbrücken enthält. Dies erlaubte sowohl eine effiziente rekombinante Expression des Wildtypproteins, als auch von destabilisierten Mutanten im Cytoplasma von E. coli. Parallele beta-Helices sind relativ große, jedoch verhältnismäßig einfach aufgebaute Proteine. Um detailliertere Informationen über die kritischen Schritte bei der in vitro-Faltung von parallelen beta-Helices zu erhalten, sollte in der vorliegenden Arbeit versucht werden, den Faltungsmechanismus dieses Proteins näher zu charakterisieren. Dabei sollte vor allem die Frage geklärt werden, welche Wechselwirkungen für die Stabilität dieses Proteins einerseits und für die Stabilität von essentiellen Faltungsintermediaten andererseits besonders wichtig sind.<BR>Rückfaltung von BsPel, ausgehend vom guanidiniumchlorid-denaturierten Zustand, war bei kleinen Proteinkonzentrationen und niedrigen Temperaturen vollständig möglich. GdmCl-induzierte Faltungsübergänge waren aber nicht reversibel und zeigten eine apparente Hysterese. Kinetische Messungen des Fluoreszenz- und CD-Signals im fernen UV ergaben eine extreme Denaturierungsmittelabhängigkeit der Rückfaltungsrate im Bereich des Übergangmittelpunktes. Der extreme Abfall der Rückfaltungsraten mit steigender Denaturierungsmittelkonzentration kann als kooperative Entfaltung eines essentiellen Faltungsintermediats verstanden werden. Dieses Faltungsintermediat ist temperaturlabil und kann durch den Zusatz Glycerin im Renaturierungspuffer stabilisiert werden, wobei sich die Hysterese verringert, jedoch nicht vollständig aufgehoben wird. Durch reverse Doppelsprungexperimente konnten zwei transiente Faltungsintermediate nachgewiesen werden, die auf zwei parallelen Faltungswegen liegen und beide zum nativen Zustand weiterreagieren können. Fluoreszenzemissionsspektren der beiden Intermediate zeigten, daß beide schon nativähnliche Struktur aufweisen. Kinetische Daten von Prolin-Doppelsprungexperimenten zeigten, daß Prolinisomerisierung den geschwindigkeitsbestimmenden Schritt in der Reaktivierung des denaturierten Enzyms darstellt. Desweiteren konnte durch Prolin-Doppelsprungexperimenten an Mutanten mit Substitutionen im Prolinrest 281 gezeigt werden, daß die langsame Renaturierung von BsPel nicht durch die Isomerisierung der einzigen cis-Peptidbindung an Prolin 281 verursacht wird, sondern durch die Isomerisierung mehrerer trans-Proline. Die beiden beobachteten transienten Faltungsintermediate sind somit wahrscheinlich zwei Populationen von Faltungsintermediaten mit nicht-nativen X-Pro-Peptidbindungen, wobei sich die Populationen durch mindestens eine nicht-native X-Pro-Peptidbindung unterscheiden.<BR>Der Austausch des Prolinrestes 281 gegen verschiedene Aminosäuren (Ala, Ile, Leu, Phe, Gly) führte zu einer starken Destabilisierung des nativen Proteins und daneben auch zu einer Reduktion in der Aktivität, da die Mutationsstelle in der Nähe der putativen Substratbindetasche liegt. Die Rückfaltungskinetiken der Prolinmutanten war bei 10°C annähernd gleich zum Wildtyp und die geschwindigkeitsbestimmenden Schritte der Faltung waren durch die Mutation nicht verändert. Die durch die Mutation verursachte drastische Destabilisierung des nativen Zustands führte zu einem reversiblen Entfaltungsgleichgewicht bei pH 7 und 10°C. GdmCl-induzierte Faltungsübergänge der Mutante P281A zeigten bei Messungen der Tryptophanfluoreszenzemission und der Aktivität einen kooperativen Phasenübergang mit einem Übergangsmittelpunkt bei 1.1 M GdmCl. Durch die Übereinstimmung der Faltungsübergänge bei beiden Messparametern konnten die Faltungsübergänge nach dem Zwei-Zustandsmodell ausgewertet werden. Dabei wurde eine freie Sabilisierungsenthalpie der Faltung für die Mutante von <nobr>- 64.2 ± 0.4 kJ/mol</nobr> und eine Kooperativität des Übergangs von <nobr>- 58.2 ± 0.3 kJ/(mol·M)</nobr> bestimmt.<BR> BsPel enthält, wie die meisten monomeren rechtsgängigen parallelen beta-Helix-Proteine, einen internen Stapel wasserstoffverbrückter Asparagin-Seitenketten. Die Mehrheit der erzeugten Mutanten mit Substitutionen im Zentrum der Asn-Leiter (N271X) waren als enzymatisch aktives Protein zugänglich. Die Auswirkung der Mutation auf die Stabilität und Rückfaltung wurde an den Proteinen BsPel-N271T und BsPel-N271A näher analysiert. Dabei führte die Unterbrechung des Asparaginstapels im Inneren der beta-Helix zu keiner drastischen Destabilisierung des nativen Proteins. Allerdings führten diese Mutationen zu einem temperatur-sensitiven Faltungsphänotyp und die Hysterese im Denaturierungsübergang wurde verstärkt. Offenbar wird durch die Unterbrechung des Asparaginstapel ein essentielles, thermolabiles Faltungsintermediat destabilisiert. Der Asparaginstapel wird somit bei der Faltung sehr früh ausgebildet und ist wahrscheinlich schon im Übergangszustand vorhanden.
Seit den Anfängen empirisch-neurowissenschaftlicher Forschung gilt Sprachkompetenz zuvorderst als eine Leistung der Hirnrinde (Kortex), jedoch wurden v. a. im Zuge sich verbessernder bildgebender Verfahren aphasische Syndrome auch nach Läsionen subkortikaler Hirnregionen, insbesondere der Basalganglien und des Thalamus nachgewiesen. Diese Strukturen liegen in der Tiefe des Gehirns und kommunizieren über weit gefächerte Faserverbindungen mit dem Kortex. In erster Linie werden den Basalganglien senso-motorische Kontrollfunktionen zugewiesen. Dementsprechend werden diverse Erkrankungen, die durch Störungen physiologischer Bewegungsabläufe gekennzeichnet sind (z. B. Morbus Parkinson, Chorea Huntington), auf Funktionsdefekte dieser Strukturen zurückgeführt. Der Thalamus wird häufig als Relaisstation des Informationsaustauschs zwischen anatomisch entfernten Arealen des Nervensystems aufgefasst. Basalganglien und Thalamus werden jedoch auch darüber hinausgehende Funktionen, z. B. zur Bereitstellung, Aufrechterhaltung und Auslenkung von Aufmerksamkeit bei der Bearbeitung kognitiver Aufgaben zugesprochen. In der vorliegenden Arbeit wurde mit elektrophysiologischen Methoden untersucht, ob auf der Ebene von Thalamus und Basalganglien kognitive Sprachleistungen, spezifisch der syntaktischen und semantischen Verarbeitung nachgewiesen werden können und inwieweit sich eventuell subkortikale von kortikaler Sprachverarbeitung unterscheidet. Die Untersuchung spezieller Sprachfunktionen der Basalganglien und des Thalamus ist im Rahmen der operativen Behandlung bewegungsgestörter Patienten mit der sog. Tiefenhirnstimulation (DBS = engl. Deep Brain Stimulation) möglich. Hierbei werden Patienten mit Morbus Parkinson Stimulationselektroden in den Nucleus subthalamicus (STN) implantiert. Bei Patienten mit generalisierten Dystonien erfolgt die Implantation in den Globus pallidus internus (GPI) und bei Patienten mit essentiellem Tremor in den Nucleus ventralis intermedius (VIM). STN und GPI sind Kernareale der Basalganglien, der VIM ist Teil des motorischen Systems. Nach der Implantation besteht die Möglichkeit, direkt von diesen Elektroden elektroenzephalographische (EEG)-Signale abzuleiten und diese mit simultan abgeleiteten Oberflächen-EEG zu vergleichen. In dieser Arbeit wurden DBS-Patienten aus allen genannten Gruppen in Bezug auf Sprachverständnisleistungen untersucht. Neben der Präsentation korrekter Sätze hörten die Patienten Sätze mit syntaktischen oder semantischen Fehlern. In verschiedenen Studien wurden an der Skalp-Oberfläche EKP-Komponenten (EKP = ereigniskorrelierte Potentiale) beschrieben, welche mit der Verarbeitung solcher Fehler in Verbindung gebracht werden. So verursachen syntaktische Phrasenstrukturverletzungen eine frühe links-anteriore Negativierung (ELAN). Dieser Komponente folgt eine späte Positivierung (P600), die mit Reanalyse und Reparaturmechanismen in Verbindung gebracht wird. Semantische Verletzungen evozieren eine breite Negativierung um 400ms (N400). In den thalamischen Ableitungen wurden zwei zusätzliche syntaktische fehlerbezogene Komponenten gefunden, die (i) ~ 80ms nach der Skalp-ELAN und (ii) ~ 70ms vor der Skalp-P600 auftraten. Bei semantischen Verletzungen wurde im Thalamus ein fehlerbezogenes Potential nachgewiesen, welches weitgehend parallel mit dem am Skalp gefundenen Muster verläuft. Aus den Ergebnissen der vorliegenden Studie folgt, dass der Thalamus spezifische Sprachfunktionen erfüllt. Komponenten, die Sprachverarbeitungsprozesse reflektieren, konnten in den Basalganglienstrukturen STN und GPI nicht identifiziert werden. Aufgrund der erhobenen Daten werden zwei getrennte Netzwerke für die Verarbeitung syntaktischer bzw. semantischer Fehler angenommen. In diesen Netzwerken scheint der Thalamus spezifische Aufgaben zu übernehmen. In einem ‚Syntaxnetzwerk’ kommunizieren frontale Hirnstrukturen unter Einbeziehung des Thalamus mit parietalen Hirnstrukturen. Dem Thalamus wurde eine Mediationsfunktion in der syntaktischen Reanalyse zugesprochen. In einem ‚Semantiknetzwerk’ waren keine eindeutig zuordenbaren Prozesse auf thalamischer Ebene nachweisbar. Es wurde eine unscharfe, jedoch aber spezifische Aktivierung des Thalamus über den gesamten Zeitraum der kortikalen semantischen Analyse gezeigt, welche als Integration verschiedener Analysemechanismen gewertet wurde.
Das Ziel der Arbeit ist die Entwicklung eines heuristischen Bezugsrahmens zur Erklärung der Komplexität im Kontext von Industrie 4.0 und der demografischen Entwicklung aus strukturationstheoretischer Sicht. Dabei sind in Bezug auf die zukünftig zu erwartenden kognitiven Anforderungen an die Beschäftigten die Fragen essentiell, vor welchen Herausforderungen Unternehmen bezüglich der Einstellung und dem Verhalten sowie dem Erfahrungswissen der Beschäftigten stehen und welche Lösungsansätze sich im Umgang mit den Herausforderungen in der Praxis bisher als hilfreich erweisen.
In Kapitel 1 erfolgt zunächst die Beschreibung der Ausgangslage. Es werden die Begriffe Industrie 4.0 und demografische Entwicklung inhaltlich diskutiert und in einen theoretischen Zusammenhang gebracht.
In Kapitel 2 erfolgt die theoretische Fundierung der Arbeit. Dabei wird eine strukturationstheoretische Sicht auf Unternehmen als soziotechnische Systeme eingenommen. Durch diese „nicht deterministische“ Sichtweise wird ein prozessualer Blick auf den Wandlungsprozess in Unternehmen geschaffen, der es möglich macht, die Beschäftigten als aktiv handelnde Akteure im Sinne von „organisieren“ zur Erklärung möglicher Zusammenhänge zwischen Industrie 4.0 und der demografischen Entwicklung mit einzubeziehen. Der soziotechnische Systemansatz und die Strukturationstheorie bilden in diesem Sinne den „Kern“ des zu entwickelnden heuristischen Bezugsrahmens.
Die inhaltliche Gestaltung des theoriebasierten heuristischen Bezugsrahmens erfolgt in Kapitel 3 und Kapitel 4.
Kapitel 3 beschreibt ausgewählte Aspekte zukünftiger Anforderungen an die Arbeit, die durch eine systematische Aufbereitung des derzeitigen Forschungsstandes zu Industrie 4.0 ermittelt wurden. Sie bilden die „Gestaltungsgrenzen“, innerhalb derer sich je nach betrieblicher Situation unterschiedliche neue oder geänderte Anforderungen an die Beschäftigten bei der Gestaltung von Industrie 4.0 ableiten lassen.
In Kapitel 4 werden ausgewählte Aspekte menschlichen Handelns am Beispiel älterer Beschäftigter in Form zweier Schwerpunkte beschrieben.
Der erste Schwerpunkt betrifft mögliche Einflussfaktoren auf die Einstellung und das Verhalten älterer Beschäftigter im Wandlungsprozess aufgrund eines vorherrschenden Altersbildes im Unternehmen. Grundlage hierzu bildete die Stigmatisierungstheorie als interaktionistischer Ansatz der Sozialtheorie.
Mit dem zweiten Schwerpunkt, den ausgewählten handlungstheoretischen Aspekten der Alternsforschung aus der Entwicklungspsychologie, wird eine Lebensspannenperspektive eingenommen. Inhaltlich werden die komplexitätsinduzierten Faktoren, die sich aus handlungstheoretischer Perspektive mit der Adaptation von älteren Beschäftigten an veränderte äußere und persönliche Lebensbedingungen beschäftigen, systematisiert.
Anschließend wird auf Grundlage der bisherigen theoretischen Vorüberlegungen ein erster theoriebasierter Bezugsrahmen abgeleitet.
Kapitel 5 und Kapitel 6 beschreiben den empirischen Teil, die Durchführung teilstrukturierter Interviews, der Arbeit. Ziel der empirischen Untersuchung war es, neben der theoretischen Fundierung den theoriebasierten heuristischen Bezugsrahmen um Praxiserfahrungen zu konkretisieren und gegebenenfalls zu ergänzen. Hierzu wurde auf Grundlage des theoriebasierten heuristischen Bezugsrahmens mittels teilstrukturierter Interviews das Erfahrungswissen von 23 Experten in persönlichen Gesprächen abgefragt.
Nachdem in Kapitel 5 die Vorgehensweise der empirischen Untersuchung beschrieben wird, erfolgt in Kapitel 6 die Beschreibung der Ergebnisse aus der qualitativen Befragung. Hierzu werden aus den persönlichen Gesprächen zentrale Einflussfaktoren bei der Gestaltung und Umsetzung von Industrie 4.0 im Kontext mit der demografischen Entwicklung analysiert und in die übergeordneten Kategorien Handlungskompetenzen, Einstellung/ Verhalten sowie Erfahrungswissen geclustert.
Anschließend wird der theoriebasierte heuristische Bezugsrahmen durch die übergeordneten Kategorien und Faktoren aus den Expertengesprächen konkretisiert und ergänzt.
In Kapitel 7 werden auf Grundlage des heuristischen Bezugsrahmens sowie der Empfehlungen aus den Experteninterviews beispielhaft Implikationen für die Praxis abgeleitet. Es werden Interventionsmöglichkeiten zur Unterstützung einer positiven Veränderungsbereitschaft und einem positiven Veränderungsverhalten für den Strukturwandel aufgezeigt. Hierzu gehören die Anpassung des Führungsverhaltens im Wandlungsprozess, der Umgang mit der Paradoxie von Stabilität und Flexibilität, der Umgang mit Altersstereotypen in Unternehmen, die Unterstützung von Strategien zu Selektion, Optimierung und Kompensation sowie Maßnahmen zur Ausrichtung von Aktivitäten an die Potenzialrisiken der Beschäftigten.
Eine Zusammenfassung, ein Resümee und ein Ausblick erfolgen abschließend in Kapitel 8.
Als Resultat überhöhter Energieaufnahme und zu geringen Energieverbrauchs beobachten wir eine über das normale Maß hinausgehende Akkumulation von Fettgewebe, die sich als Adipositas manifestiert. Sie gilt als einer der Hauptrisikofaktoren für Krankheiten des metabolischen Syndroms. Im Rahmen von Prävention, Diagnose und Therapie der Adipositas, muss ihr wesentliches Charakteristikum; der individuelle Körperfettanteil; einer Messung zugänglich gemacht werden. Eine direkte Bestimmung der Körperzusammensetzung erlauben die Neutronenaktivierungsanalyse und die chemische Analyse. Beide Verfahren sind sehr genau, aber aufwendig und kostenintensiv und darüber hinaus die chemische Analyse nur am menschlichen Cadaver praktizierbar. Um dennoch die Körperzusammensetzung hinreichend genau bestimmen zu können, wurden zahlreiche indirekte Messverfahren entwickelt. Man kann sie in Labor- und Feldmethoden untergliedern. Die Labormethoden bestechen durch hohe Genauigkeit und Reproduzierbarkeit, sind aber zumeist aufwendig und teuer. Feldmethoden sind im Gegensatz dazu leicht anwendbar, transportabel und preiswert, weisen aber eine weniger hohe Genauigkeit und Reproduzierbarkeit auf. In der vorgestellten Arbeit wird über eine jüngere Entwicklung, die das Prinzip der unterschiedlichen Leitfähigkeit für den elektrischen Strom durch die verschiedenen Gewebe des Körpers nutzt, berichtet. Der Prototyp eines Gerätes wurde innerhalb eines von der EU geförderten multizentrischen Projekts entwickelt und auf seine Einsatzfähigkeit und Qualität hin geprüft. Der Schwerpunkt der Arbeit liegt auf der Einschätzung der Körperzusammensetzung normal- und übergewichtiger Probanden mit der neu entwickelten Technik. Das vorliegende Studiendesign diente nicht nur der Beurteilung der neuen Technik die Körperzusammensetzung und Veränderungen dieser zu erfassen, sondern darüber hinaus, etablierte Methoden hinsichtlich ihrer Genauigkeit zu bewerten. Bezüglich ihrer Anwendbarkeit und Reproduzierbarkeit hat die neue Methode Hoffnung geweckt, sich als eine Feldmethode zu etablieren. Auf der anderen Seite zeigte sich in Abhängigkeit der Gesamtkörperfettmasse eine Überschätzung der Zielgröße im Vergleich zur Referenzmethode (dual energy x ray absorptiometry (DXA)). Die Abweichungen waren dabei gerade für das einzelne Individuum sehr groß. Technische Verbesserungen und die Entwicklung spezifischer Regressionsgleichungen könnten in Zukunft zu einer wesentlichen Verbesserung der neuen Methode beitragen. Die Labormethode "Air Displacement Plethysmography" konnte durch die guten Übereinstimmungen der Ergebnisse mit denen der Referenzmethode DXA und die einfache Anwendung überzeugen. Sie stellt eine durchaus konkurrenzfähige Alternative zur Hydrodensitometrie dar, die noch heute als "goldener Standard" zur Erfassung der Körperzusammensetzung akzeptiert wird. Im Verlauf der durchgeführten Studie stellte sich heraus, dass die Hydrodensitometrie sehr hohe Anforderungen an den Probanden stellt. Das Untertauchen des gesamten Körpers unter Wasser in Kombination mit einer maximalen Ausatmung erwies sich als sehr problematisch. Die dabei auftretenden Fehler schlugen sich in der Berechnung der Gesamtkörperfettmasse des einzelnen Individuums wieder und führten zu zum Teil erheblichen Abweichungen der Ergebnisse von denen der Referenzmethode. Die Feldmethoden bioelektrische Impedanzanalyse und Hautfaltendickenmessung erwiesen sich als kostengünstige und leicht anwendbare Methoden. Die Ergebnisse beider Methoden stimmten im Mittel gut mit den Ergebnissen der Referenzmethoden überein. Dennoch zeigte die BIA größere Abstriche in der Beurteilung der Gesamtkörperfettmasse des einzelnen Individuums und bei der Dokumentation von Veränderungen der Gesamtkörperfettmasse. Die Hautfaltendickenmessung stellt – wendet man sie korrekt an – eine Methode dar, die sowohl die Gesamtkörperfettmasse als auch Veränderungen dieser gut erfassen kann. In Abhängigkeit der geforderten Genauigkeit kann diese Methode für die Erfassung der Körperzusammensetzung empfohlen werden. Demnach bleibt die Frage unbeantwortet, inwieweit die indirekten Methoden in der Lage sind, die "wahre" Körperzusammensetzung adäquat zu erfassen. Jede neu entwickelte Methode – die möglichst viele Vorteile in sich vereint – wird wieder vor dem Problem stehen: eine geeignete und dabei praktikable Referenzmethode zu finden, die die wahre Körperzusammensetzung zu bestimmen in der Lage ist. Daher sollte neben dem Streben nach der Entwicklung einer Methode, die genau und leicht anwendbar ist, das Hauptaugenmerk auf die Überarbeitung der zugrunde liegenden Modellvorstellungen und die Verbesserung von Regressionsgleichungen gelegt werden.
Zwischen 1990 und 1994 wurden rund 1000 Liegenschaften, die in der ehemaligen DDR von der Sowjetarmee und der NVA für militärische Übungen genutzt wurden, an Bund und Länder übergeben. Die größten Truppenübungsplätze liegen in Brandenburg und sind heute teilweise in Großschutzgebiete integriert, andere Plätze werden von der Bundeswehr weiterhin aktiv genutzt. Aufgrund des militärischen Betriebs sind die Böden dieser Truppenübungsplätze oft durch Blindgänger, Munitionsreste, Treibstoff- und Schmierölreste bis hin zu chemischen Kampfstoffen belastet. Allerdings existieren auf fast allen Liegenschaften neben diesen durch Munition und militärische Übungen belasteten Bereichen auch naturschutzfachlich wertvolle Flächen; gerade in den Offenlandbereichen kann dies durchaus mit einer Belastung durch Kampfmittel einhergehen. Charakteristisch für diese offenen Flächen, zu denen u.a. Zwergstrauchheiden, Trockenrasen, wüstenähnliche Sandflächen und andere nährstoffarme baumlose Lebensräume gehören, sind Großflächigkeit, Abgeschiedenheit sowie ihre besondere Nutzung und Bewirtschaftung, d.h. die Abwesenheit von land- und forstwirtschaftlichem Betrieb sowie von Siedlungsflächen. Diese Charakteristik war die Grundlage für die Entwicklung einer speziell angepassten Flora und Fauna. Nach Beendigung des Militärbetriebs setzte dann in weiten Teilen eine großflächige Sukzession – die allmähliche Veränderung der Zusammensetzung von Pflanzen- und Tiergesellschaften – ein, die diese offenen Bereiche teilweise bereits in Wald verwandelte und somit verschwinden ließ. Dies wiederum führte zum Verlust der an diese Offenlandflächen gebundenen Tier- und Pflanzenarten. Zur Erhaltung, Gestaltung und Entwicklung dieser offenen Flächen wurden daher von einer interdisziplinären Gruppe von Naturwissenschaftlern verschiedene Methoden und Konzepte auf ihre jeweilige Wirksamkeit untersucht. So konnten schließlich die für die jeweiligen Standortbedingungen geeigneten Maßnahmen eingeleitet werden. Voraussetzung für die Einleitung der Maßnahmen sind zum einen Kenntnisse zu diesen jeweiligen Standortbedingungen, d.h. zum Ist-Zustand, sowie zur Entwicklung der Flächen, d.h. zur Dynamik. So kann eine Abschätzung über die zukünftige Flächenentwicklung getroffen werden, damit ein effizienter Maßnahmeneinsatz stattfinden kann. Geoinformationssysteme (GIS) spielen dabei eine entscheidende Rolle zur digitalen Dokumentation der Biotop- und Nutzungstypen, da sie die Möglichkeit bieten, raum- und zeitbezogene Geometrie- und Sachdaten in großen Mengen zu verarbeiten. Daher wurde ein fachspezifisches GIS für Truppenübungsplätze entwickelt und implementiert. Die Aufgaben umfassten die Konzeption der Datenbank und des Objektmodells sowie fachspezifischer Modellierungs-, Analyse- und Präsentationsfunktionen. Für die Integration von Fachdaten in die GIS-Datenbank wurde zudem ein Metadatenkatalog entwickelt, der in Form eines zusätzlichen GIS-Tools verfügbar ist. Die Basisdaten für das GIS wurden aus Fernerkundungsdaten, topographischen Karten sowie Geländekartierungen gewonnen. Als Instrument für die Abschätzung der zukünftigen Entwicklung wurde das Simulationstool AST4D entwickelt, in dem sowohl die Nutzung der (Raster-)Daten des GIS als Ausgangsdaten für die Simulationen als auch die Nutzung der Simulationsergebnisse im GIS möglich ist. Zudem können die Daten in AST4D raumbezogen visualisiert werden. Das mathematische Konstrukt für das Tool war ein so genannter Zellulärer Automat, mit dem die Flächenentwicklung unter verschiedenen Voraussetzungen simuliert werden kann. So war die Bildung verschiedener Szenarien möglich, d.h. die Simulation der Flächenentwicklung mit verschiedenen (bekannten) Eingangsparametern und den daraus resultierenden unterschiedlichen (unbekannten) Endzuständen. Vor der Durchführung einer der drei in AST4D möglichen Simulationsstufen können angepasst an das jeweilige Untersuchungsgebiet benutzerspezifische Festlegungen getroffen werden.
In der Person von Georg Potente, der von 1902 bis 1938 in Potsdam-Sanssouci tätig war, spiegelt sich eine Entwicklung vom königlichen Ober- und Hofgärtner zum staatlichen Gartendirektor, einem schöpferisch tätigen Gartendenkmalpfleger wider. Sein Schaffen in historischen Gärten ist charakterisiert durch ein zeittypisches Spannungsfeld von kaiserlichen Aufgaben zur Neuanlage und Modernisierung einzelner Parkteile bis zu komplizierten gartendenkmalpflegerischen Wiederherstellungsarbeiten ganzer Parkbereiche. Die dabei von Potente begründete und praktizierte Herangehensweise, nach der Erforschung der Entstehungsgeschichte und der Auswertung aller historischen Pläne und Beschreibungen der Gartenanlage durch eine plangrafische Überlagerung die verschiedenen zeitlichen Zustände zu gewichten und den wiederherzustellenden Zeitstil festzulegen, begründete in den 20er Jahren des 20. Jahrhunderts die wissenschaftliche Arbeitsweise der sich entwickelnden Gartendenkmalpflege.
Im Rahmen eines explorativen Vergleichsuntersuchungsplans wurde untersucht, inwieweit sich die durch biologische Faktoren bedingte unterschiedliche Lebenserfahrung sowie die Sozialisationsbedingungen in der psychosexuellen Entwicklung bei hetero-, homo- und postoperativen transsexuellen Männern (N = 191) auf die Integration der Geschlechterstereotypen in die kognitiven (Selbst-, Fremdwahrnehmung), emotionalen (Selbst- und Fremdbewertung) und verhaltensmäßigen Aspekte (Normen der geschlechtsspezifischen Verhaltens) der Geschlechtsidentität auswirken und ob sich Identifikationsmuster der Entwicklung des geschlechtlichen Selbstkonzepts ableiten lassen. Die Messung der kognitiven Aspekte des geschlechtlichen Selbstkonzepts (Maskulinität und Femininität) erfolgte mittels der GERO-Skala von Brengelmann und Hendrich (1990). Zur Erfassung der emotionalen Aspekte und Identifikationsmuster der Entwicklung des geschlechtlichen Selbstkonzepts wurden die Werte für die Variablen Maskulinität und Femininität zuerst mittels der computergesteuerten Methodik IDEXMONO und IDEXIDIO, die auf der Identitätsstrukturanalyse (Identity Structure Analysis) von Weinreich (2003) basiert, aufgearbeitet und weiter interferenzstatistisch ausgewertet. Weiterhin wurden der Fragebogen zur Messung normativer Geschlechtsrollenorientierung (NGRO) von Athenstaedt (2000) sowie ein ad hoc entworfener demographischer Fragebogen eingesetzt. Die Ergebnisse zeigen, dass der Verlauf der psychosexuellen Entwicklung einen starken Einfluss auf die Integration der Geschlechterstereotypen in die geschlechtliche Selbst- und Fremdwahrnehmung hat. Im kognitiven Bereich, bezogen auf die persönliche Identität (Grad der Selbstzuschreibung männlicher und weiblicher Merkmale), stellt die Maskulinität eine stabile und erstrebenswerte Variable zur Herausbildung des geschlechtlichen Selbstkonzepts bei allen Gruppen dar. Die Femininität trägt am meisten zur Differenzierung zwischen den Hetero-, Homo- und Transsexuellen bei. Sie wird, je nach der Entwicklungsphase, unterschiedlich in das geschlechtliche Selbstkonzept integriert. Hinsichtlich der sozialen Identität (Zugehörigkeitsgefühl) lassen sich die Gruppen bezüglich der wahrgenommenen Ähnlichkeiten sowohl mit männlichen als auch weiblichen Personen, je nach der Entwicklungsphase, unterscheiden. Die soziale Wahrnehmung von Männern und Frauen (Fremdwahrnehmung), ist bei Transsexuellen traditioneller als die der Hetero- und Homosexuellen. Bei der Selbst- und Fremdbewertung ergaben sich keine signifikanten Unterschiede. Bei der Internalisierung der sozialen Normen des geschlechtsspezifischen Verhaltens zeigt sich, dass Heterosexuelle der Ausübung der Geschlechterrollen gegenüber egalitärer eingestellt sind als Trans- und Homosexuelle. Bei den Sozialisationsfaktoren ist hervorzuheben, dass generell weibliche Identifikationspersonen einen stärkeren Einfluss auf die Herausbildung des geschlechtlichen Selbstkonzeptes hatten als männliche Identifikationspersonen. Es scheint jedoch, dass Homosexuelle bei der Entwicklung ihres geschlechtlichen Selbstkonzepts stärker unter dem Einfluss der Frauen stehen als die anderen zwei erforschten Gruppen. Zur Beantwortung der Frage, welche selbstkonzeptbezogenen Variablen und Entwicklungsfaktoren die größte statistische Bedeutung für die Trennung und Prädiktion der einzelnen untersuchten Gruppen haben, wurde eine Diskriminanzanalyse berechnet. Die größte diskriminatorische Bedeutung besitzen die Variablen „Stereotypische Wahrnehmung der männlichen Personen“ und „Ego-Involvement mit weiblichen Personen“ für die Diskriminanzfunktion 1 (Trennung der Transsexuellen von Hetero- und Homosexuellen) und die Variablen „Empathische Identifikation mit männlichen Personen in der Vergangenheit“ und „Zuwachs an empathischer Identifikation mit weiblichen Personen“ für die Diskriminanzfunktion 2 (Trennung der Hetero- von Homosexuellen).
Die vakuoläre Protonen-ATPase, kurz V-ATPase, ist ein multimerer Enzymkomplex, der in fast jeder eukaryotischen Zelle zu finden ist und den aktiven elektrogenen Transport von Protonen über Membranen katalysiert. Die Aktivität der V-ATPase ist essentiell für eine Vielzahl physiologischer Prozesse. Ein grundlegender Mechanismus zur Regulation der V-ATPase-Aktivität ist die reversible Dissoziation des Holoenzyms in den integralen VO-Komplex, der als Protonenkanal dient, und den cytosolischen V1-Komplex, der ATP hydrolysiert und somit den Protonentransport energetisiert. Die Untereinheit C, die im dissoziierten Zustand der V-ATPase als einzige Untereinheit isoliert im Cytoplasma vorliegt, scheint bei der Bildung des aktiven Holoenzyms eine Schlüsselrolle zu übernehmen. In den Speicheldrüsen der Schmeißfliege Calliphora vicina ist die V-ATPase an der Speichelsekretion beteiligt. In den sekretorischen Zellen wird die Bildung des V-ATPase-Holoenzyms in der apikalen Plasmamembran durch das Neurohormon Serotonin (5-HT) stimuliert. Der Effekt von 5-HT auf die V-ATPase wird intrazellulär durch die Proteinkinase A (PKA) vermittelt und hält nur für die Dauer der Stimulierung an. In der vorliegenden Arbeit wurde mittels Phosphoproteinfärbungen und 2D-Elektrophorese nachgewiesen, dass infolge einer Stimulierung der Drüsenzellen mit 5-HT die Untereinheit C der V-ATPase durch die PKA reversibel phosphoryliert wird. Die Phosphorylierung geht einher mit einer Umverteilung der Untereinheit C aus dem Cytoplasma zur apikalen Plasmamembran und der Bildung des aktiven Holoenzyms. Immuncytochemische Untersuchungen zeigten, dass die katalytische Untereinheit der PKA ebenfalls umverteilt wird und in stimulierten Zellen im Bereich der apikalen Plasmamembran konzentriert vorliegt. Um herauszufinden welche Proteinphosphatase der PKA entgegenwirkt, wurden luminale pH-Messungen durchgeführt und der Effekt von spezifischen Proteinphosphatase-Inhibitoren und veresterten Komplexbildnern zweiwertiger Kationen auf die V-ATPase-Aktivität untersucht. Diese Messungen führten zu der Schlussfolgerung, dass eine Proteinphosphatase des Typs 2C an der Inaktivierung der V-ATPase beteiligt ist. Mit weiteren Phosphoproteinfärbungen konnte gezeigt werden, dass die Dephosphorylierung der Untereinheit C ebenfalls durch eine Proteinphosphatase 2C katalysiert wird und dies vermutlich die Dissoziation des VO- und V1-Komplexes begünstigt. Darüber hinaus konnte durch luminale pH-Messungen und ergänzende biochemische Untersuchungen eine Calcineurin-vermittelte Modulation des cAMP/PKA-Signalweges durch den parallel aktivierten IP3/Ca2+-Signalweg und damit einhergehend eine Beeinflussung der V-ATPase-Aktivität durch den [Ca2+]-Spiegel nachgewiesen werden.
Durch die Stilllegung der Kali-Gewinnung und -Produktion zwischen 1990 und 1993 sowie die begonnene Rekultivierung der Kali-Rückstandshalden haben sich die Salzfrachteintragsbedingungen für die Fließgwewässer im "Südharz-Kalirevier" in Thüringen zum Teil deutlich verändert. Aufgrund erheblich geringerer Salzeinträge in die Vorfluter Wipper und Bode ist es möglich geworden, zu einer ökologisch verträglichen Salzfrachtsteuerung überzugehen. Die Komplexität der zugrunde liegenden Stofftransportprozesse im Einzugsgebiet der Wipper macht es jedoch unumgänglich, den Steuerungsvorgang nicht nur durch reine Bilanzierungsvorgänge auf der betrachteten Steuerstrecke zu erfassen (so wie bisher praktiziert), sondern auch die Abflussdynamik im Fließgewässer und den Wasserhaushalt im Gebiet mit einzubeziehen. Die Ergebnisse dieser Arbeit dienen zum einen einer Vertiefung der Prozessverständnisse und der Interaktion von Wasserhaushalt, Abflussbildung sowie Stofftransport in bergbaubeeinflussten Einzugsgebieten am Beispiel der Unstrut bzw. ihrer relevanten Nebenflüsse. Zum anderen sollen sie zur Analyse und Bewertung eines Bewirtschaftungsplanes für die genannten Fließgewässer herangezogen werden können. Ziel dieser Arbeit ist die Erstellung eines prognosetauglichen Steuerungsinstrumentes, das für die Bewirtschaftung von Flusseinzugsgebieten unterschiedlicher Größe genutzt und unter den Rahmenbedingungen der bergbaubedingten salinaren Einträge effektiv zur Steuerung der anthropogenen Frachten eingesetzt werden kann. Die Quellen der anthropogen eingeleiteten Salzfracht sind vor allem die Rückstandshalden der stillgelegten Kaliwerke. Durch Niederschläge entstehen salzhaltige Haldenabwässer, die zum Teil ungesteuert über oberflächennahe Ausbreitungsvorgänge direkt in die Vorfluter gelangen, ein anderer Teil wird über die Speichereinrichtungen gefasst und gezielt abgestoßen. Durch Undichtigkeiten des Laugenstapelbeckens in Wipperdorf gelangen ebenfalls ungesteuerte Frachteinträge in die Wipper. Ein weiterer Eintragspfad ist zudem die geogene Belastung. Mit Hilfe detaillierter Angaben zu den oben genannten Eintragspfaden konnten Modellrechnungen im Zeitraum von 1992 bis 2003 durchgeführt werden. Durch die Ausarbeitung eines neuartigen Steuerungskonzeptes für das Laugenstapelbecken Wipperdorf, war es nun möglich, die gefasste Haldenlauge entsprechend der aktuellen Abflusssituation gezielt abstoßen zu können. Neben der modelltechnischen Erfassung der aktuellen hydrologischen Situation und der Vorgabe eines Chlorid-Konzentrationssteuerzieles für den Pegel Hachelbich, mussten dabei weitere Randbedingungen (Beckenkapazität, Beckenfüllstand, Mindestfüllstand, Kapazität des Ableitungskanals, usw.) berücksichtigt werden. Es zeigte sich, dass unter Anwendung des Steuerungskonzeptes die Schwankungsbreite der Chloridkonzentration insgesamt gesehen deutlich verringert werden konnte. Die Überschreitungshäufigkeiten bezüglich eines Grenzwertes von 2 g Chlorid/l am Pegel Hachelbich fielen deutlich, und auch die maximale Dauer einer solchen Periode konnte stark verkürzt werden. Kritische Situationen bei der modelltechnischen Frachtzusteuerung traten nur dann auf, wenn Niedrigwasserverhältnisse durch die Simulationsberechnungen noch unterschätzt wurden. Dies hatte deutliche Überschreitungen der Zielvorgaben für den Pegel Hachelbich zur Folge. Mit Hilfe des Steuerungsalgorithmus konnten desweiteren auch Szenarienberechnungen durchgeführt werden, um die Auswirkungen zukünftig zu erwartender Salzfrachten näher spezifizieren zu können. Dabei konnte festgestellt werden, dass Abdichtungsmaßnahmen der Haldenkörper sich direkt positiv auf die Entwicklung der Konzentration in Hachelbich auswirkten. Durch zusätzlich durchgeführte Langzeitszenarien konnte darüber hinaus nachgewiesen werden, dass langfristig eine Grenzwertfestlegung auf 1,5 g Chlorid/l in Hachelbich möglich ist, und die Stapelkapazitäten dazu ausreichend bemessen sind.
Ziel dieser Arbeit war es, die Stickstoff- und Phosphorprozesse im nordostdeutschen Tiefland detailliert zu untersuchen und Handlungsoptionen hinsichtlich der Landnutzung zur nachhaltigen Steuerung der Stickstoff- und Phosphoreinträge in die Fließgewässer aufzuzeigen. Als Grundvoraussetzung für die Modellierung des Nährstoffhaushaltes mussten zunächst die hydrologischen Prozesse und die Abflüsse für die Einzugsgebiete validiert werden. Dafür wurde in dieser Arbeit das ökohydrologische Modell SWIM verwendet. Die Abflussmodellierung umfasste den Zeitraum 1991 - 2000. Die Ergebnisse dazu zeigen, dass SWIM in der Lage war, die hydrologischen Prozesse in den Untersuchungsgebieten adäquat wiederzugeben. Auf der Grundlage der Modellierung des Wasserhaushaltes wurden mit SWIM die Stoffumsatzprozesse für den Zeitraum 1996 - 2000 simuliert. Um dabei besonders das Prozessgeschehen im Tiefland zu berücksichtigen, war die Erweiterung von SWIM um einen Ammonium-Pool mit dessen Umsatzprozessen erforderlich. Außerdem wurde der Prozess der Nährstoffversickerung so ergänzt, dass neben Nitrat auch Ammonium und Phosphat durch das gesamte Bodenprofil verlagert und über die Abflusskomponenten zum Gebietsauslass transportiert werden können. Mit diesen Modellerweiterungen konnten die Stickstoff und Phosphorprozesse in den Untersuchungsgebieten gut abgebildet werden. Mit dem so validierten Modell wurden weitere Anwendungen ermöglicht. Nährstoffsimulationen für den Zeitraum 1981 bis 2000 dienten der Untersuchung des abnehmenden Trends in den Nährstoffkonzentrationen der Nuthe. Die Untersuchungsergebnisse lassen deutlich erkennen, dass sich die Konzentrationen nach 1990 hauptsächlich auf Grund der Reduzierung der Einträge aus punktförmigen Quellen und Rieselfeldern verringert haben. Weitere Modellrechnungen zur Herkunft der Nährstoffe haben ergeben, dass Nitrat überwiegend aus diffusen Quellen, Ammonium und Phosphat dagegen aus punktförmigen Quellen stammen. Als besonders sensitiv auf die Modellergebnisse haben sich die Parameter zu Landnutzung und -management und die Durchwurzelungstiefe der Pflanzen herausgestellt. Abschließend wurden verschiedene Landnutzungsszenarien angewendet. Die Ergebnisse zu den Szenariorechnungen zeigen, dass fast alle vorgegebenen Landnutzungsszenarien zu einer Verringerung der Stickstoff- bzw. Phosphoremissionen führten. Die Anwendung von Szenarien, die alle relevanten Zielvorgaben und Empfehlungen zum Ressourcenschutz berücksichtigen, zeigen die größten Veränderungen.
Seit 2003 hat sich das politische Bild des Irak stark verändert. Dadurch begann der Prozess der Neugestaltung der irakischen Rechtsordnung. Die irakische Verfassung von 2005 legt erstmalig in der Geschichte des Irak den Islam und die Demokratie als zwei nebeneinander zu beachtende Grundprinzipien bei der Gesetzgebung fest. Trotz dieser signifikanten Veränderung im irakischen Rechtssystem und erheblicher Entwicklungen im internationalen Privat- und Zivilverfahrensrecht (IPR/IZVR) im internationalen Vergleich gilt die hauptsächlich im irakischen Zivilgesetzbuch (ZGB) von 1951 enthaltene gesetzliche Regelung des IPR/IZVR im Irak weiterhin. Deshalb entstand diese Arbeit für eine Reformierung des irakischen IPR/IZVR.
Die Arbeit gilt als erste umfassende wissenschaftliche Untersuchung, die sich mit dem jetzigen Inhalt und der zukünftigen Reformierung des irakischen internationalen Privatrecht- und Zivilverfahrensrechts (IPR/IZVR) beschäftigt.
Die Verfasserin vermittelt einen Gesamtüberblick über das jetzt geltende irakische internationale Privat- und Zivilverfahrensrecht mit gelegentlicher punktueller und stichwortartiger Heranziehung des deutschen, islamischen, türkischen und tunesischen Rechts, zeigt dessen Schwachstellen auf und unterbreitet entsprechende Reformvorschläge.
Wegen der besonderen Bedeutung des internationalen Vertragsrechts für die Wirtschaft im Irak und auch zum Teil für Deutschland gibt die Verfasserin einen genaueren Überblick über das irakische internationale Vertragsrecht und bekräftigt gleichzeitig dessen Reformbedürftigkeit.
Die Darstellung der wichtigen Entwicklungen im deutsch-europäischen, im traditionellen islamischen Recht und im türkischen und tunesischen internationalen Privat- und Zivilverfahrensrecht im zweiten Kapitel dienen als Grundlage, auf die bei der Reformierung des irakischen IPR/ IZVR zurück gegriffen werden kann. Da die Kenntnisse des islamischen Rechts nicht zwingend zum Rechtsstudium gehören, wird das islamische Recht dazu in Bezug auf seine Entstehung und die Rechtsquellen dargestellt.
Am Ende der Arbeit wird ein Entwurf eines föderalen Gesetzes zum internationalen Privatrecht im Irak katalogisiert, der sich im Rahmen der irakischen Verfassung gleichzeitig mit dem Islam und der Demokratie vereinbaren lässt.
Zum Erhalt vom Aussterben bedrohter Papageienvögel (Psittaciformes) ist die Nachzucht in Menschenobhut neben dem Erhalt freilebender Populationen von großer Bedeutung, die Reproduktion bestimmter Arten gelingt allerdings nur unzureichend. Als Hauptgrund dafür gilt die Zwangsverpaarung im Rahmen von Zuchtprogrammen (Beispiel: Europäisches Erhaltungszuchtprogramm, EEP), hier werden Brutpaare hauptsächlich nach genetischen Aspekten zusammengestellt. Der reproduktive Erfolg ist bei den meisten Papageienarten, die in dauerhaften Paarbindungen leben (perennial monogamy), eng der Paarbindung korreliert. Eine freie Partnerwahl ist demnach von großer Bedeutung für die Zucht in Menschenobhut, im Rahmen von Erhaltungszuchtprogrammen jedoch nur selten möglich. Das Ziel der Untersuchung war, eine wissenschaftlich begründete Methode zu entwickeln, durch die es möglich sein soll, das Fortpflanzungspotential von Brutpaaren der Gattung Ara anhand der Paarbindung zu bestimmen. Dafür wurde die Bedeutung der Qualität der Paarbindung der Brutpaare für den Lebens-Reproduktionserfolg (Lifetime-reproductive success, LRS) untersucht. Die Datenaufnahme erfolgte in dem Zuchtzentrum 'La Vera' der Loro Parque Fundación auf Teneriffa/ Spanien. Hier wurden in den Jahren 2006 und 2007 21 Brutpaare der Gattung Ara untersucht. Die Paarbindung wurde zum Einen durch typisches Paarbindungsverhalten und zum Anderen durch die physiologische Abstimmung der einzelnen Brutpaare anhand der Ausschüttung des Steroidhormons Testosteron dargestellt. Das Paarbindungsverhalten setzte sich aus der ‚Abstimmung der Tagesaktivität’, dem ‚Kontaktverhalten’ und den ‚sozialen Interaktionen’ zusammen. Zur Abstimmung der Tagesaktivität zählten die Verhaltensweisen Ruhen, Sitzen, Nahrungsaufnahme, Gefiederpflege, Beschäftigung und Lokomotion. Unter Kontaktverhalten wurden das Überschreiten der Individualdistanz bei bestimmten Verhaltensweisen und die Rollenverteilung der Geschlechter untersucht. Unter ‚sozialen Interaktionen’ wurden die Dauer und der Häufigkeit der sozialen Gefiederpflege und der Sozialen Index zusammengefasst. Bei der sozialen Gefiederpflege wurde die Dauer und die Häufigkeit der Phasen erhoben, sowie der jeweilige Initiator dieser Interaktion. Zusätzlich wurde untersucht, welches Geschlecht, wie häufig und mit welcher Dauer aktiv an der sozialen Gefiederpflege beteiligt war. Aus den Beobachtungen wurde der soziale Index berechnet, der angibt, wie das Verhältnis sozio-positiver zu agonistischen Interaktionen für jedes Individuum, sowie das Paar an sich ist. Zur Messung der Testosteron-Ausschüttung der Partnertiere wurden von September bis November 2007 über einen Zeitraum von 9 Wochen jede Woche einmal für jedes Individuum Kotproben gesammelt. Mit der Analyse der Proben wurde das Veterinär-Physiologisch-Chemische-Institut der Universität Leipzig unter der Leitung von Prof. Dr. Almuth Einspanier beauftragt. Zur Ermittlung des Hormongehalts in den gewonnenen Kotproben diente ein kompetitiver Doppelantikörper-Enzymimmunoassay (EIA). Das Fortpflanzungspotential wurde über die Anzahl der Eier, Gelege und Jungtiere, sowie über die Gelegegröße dargestellt. Diese Daten geben, bezogen auf die Dauer der Paarbindung, Auskunft über die Produktivität eines Brutpaares, anhand dessen zusätzlich ein Produktivitäts-Koeffizient berechnet wurde. Des weiteren sollte die Anzahl der von einem Brutpaar selbständig großgezogenen Jungtiere Auskunft über die Fähigkeit zur kooperativen Jungenaufzucht geben. Zur Untersuchung der Bedeutung der Paarbindungsqualität wurden Diskriminanzfunktionsanalysen und Regressionsanalysen durchgeführt, wozu die untersuchten Brutpaare anhand ihres Fortpflanzungspotentials in verschiedene Gruppen eingeteilt wurden. Anhand der Ergebnisse der Studie konnte gezeigt werden, dass das Fortpflanzungspotential von Brutpaaren von verschiedenen Kriterien, die die Paarbindungsqualität charakterisieren, abhängt. Dabei ist zwischen der Produktivität und der Fähigkeit zur kooperativen Jungenaufzucht zu unterscheiden. Die Produktivität eines Paares wurde hinsichtlich der abgestimmten Tagesaktivität positiv vom synchronen Ruhen mit dem Partner beeinflusst, sowie von der Häufigkeit und Dauer der vom Weibchen ausgehenden sozialen Gefiederpflege. Brutpaare mit hoher Produktivität waren zudem über eine hohe ‚intra-Paar Fluktuation’ des Steroidhormons Testosteron gekennzeichnet. Die Brutpaare, die in der Lage sind, ihre Jungtiere in Kooperation großzuziehen, zeigten ebenfalls einen hohen Anteil zeitlich mit dem Partner abgestimmter Ruhephasen, zudem häufiges Ruheverhalten in Körperkontakt zum Partner und ein hohes zeitliches Investment der Männchen bei der Initiierung und Durchführung sozialer Gefiederpflege. Darüber hinaus zeigten Männchen, die einen Beitrag zur kooperativen Jungenaufzucht leisten, eine wesentlich geringere durchschnittliche Testosteron-Konzentration – bezogen auf den Untersuchungszeitraum, als Männchen, die Brutpaaren angehören, die nicht zur selbständigen Jungenaufzucht fähig sind. Dieses Ergebnis spiegelt die Bedeutung von Testosteron bei der elterlichen Fürsorge wider und bietet einen Anhaltspunkt für weitere Untersuchungen. Die Untersuchung konnte zeigen, dass es möglich und sinnvoll ist, das individuelle Verhalten von Tieren in Menschenobhut für den Erhalt bedrohter Tierarten einzusetzen. Weitere, auf dieser Studie aufbauende Untersuchungen sollten zum Ziel haben, zuverlässig die Brutpaare erkennbar zu machen, die über ein gutes Fortpflanzungspotential verfügen. Auf diese Weise kann unzureichender Reproduktionserfolg bedrohter Papageienarten in Menschenobhut infolge von Zwangsverpaarung minimiert werden.
Einfache Decarbonylierungen und stereoselektive Oxidationen von Cyclohexadienen und Cyclohexenen
(2001)
Zusammenfassend konnte im Rahmen dieser Arbeit das Synthesepotential von Cyclohexadienen und Cyclohexenen deutlich erweitert werden. Die Darstellung der 1-Alkylcyclohexa-2,5-dien-1-carbonsäuren erfolgte mittels Birch-Reduktion in flüssigem Ammoniak und anschließender Umsetzung der intermediär entstehenden Dianionen mit Alkylhalogeniden. So konnte ausgehend von verschiedenen Benzoesäurederivaten eine Reihe interessanter Cyclohexadiene in sehr guten Ausbeuten synthetisiert werden. Erstmals gelangen säurekatalysierte Decarbonylierungen von Cyclohexadiencarbonsäuren, was die einfache Synthese substituierter Aromaten in ausgezeichneten Ausbeuten ermöglichte. In dieser Arbeit wird der Reaktionsmechanismus vorgestellt, welcher durch den Nachweis von Kohlenmonoxid in der Gasphase der Reaktionslösung durch IR-Spektroskopie untermauert wird. Bei der säurekatalysierten Umsetzung von 3-alkylsubstituierten Cyclohexadien-carbonsäuren entstanden neben den erwarteten Aromaten Lactone in ca. 50% Ausbeute. Schließlich zeigen die untersuchten Singulettsauerstoff-En-Reaktionen, der im ersten Teil dargestellten Cyclohexadiene und Lactone, durchweg hohe Regioselektivitäten und lieferten durch elektrostatische Wechselwirkungen und konformative Effekte zum Teil sehr gute Diastereoselektivitäten. Die auxiliarkontrollierte Photooxygenierungen von Cyclohexenon welches mit verschiedenen Weinsäureestern ketalisiert wurde, zeigten jedoch keine bevorzugte p-Facialität des Singulettsauerstoffs.
Die ergonomische Anpassung von Produkten der körpernahen Umwelt an den menschlichen Körper in seiner gesamten Variabilität erfordert anthropometrische Grundlagen. Die vorliegende Arbeit beschreibt und analysiert die Körpermasse, 17 Längenmaße, 5 Skelettrobustizitätsmaße, 6 Korpulenzmaße, 3 Kopfmaße, 5 Handmaße, 3 Fußmaße, sowie 10 Beweglichkeitsmaße der Wirbelsäule, 8 Beweglichkeitsmaße der Hand, 2 Beweglichkeitsmaße des Beines und 7 Handkräfte von 295 Probanden der drei Altersgruppen 20 bis 29 Jahre, 50 bis 59 Jahre und 60 bis 69 Jahre. Die Untersuchungen wurden im Zeitraum von September 2006 bis April 2007 durchgeführt. Ziel der Arbeit ist es, für den überwiegenden Teil der untersuchten körperlichen Merkmale erstmals für die deutsche Bevölkerung geschlechts- und altersspezifische Mittelwerte und Variabilitätsbereiche bis zum vollendeten 70. Lebensjahr zur Verfügung zu stellen. Das gilt insbesondere für die untersuchten Beweglichkeitsmaße und Handkräfte. Erstmals werden Korrelationen zwischen der Körperform, wie sie sich im Maßzusammenhang der unterschiedlichen Körperbautypen darstellt, der Gelenkbeweglichkeit und den Handkräften vorgestellt. Darüber hinaus wird durch den Vergleich der Ergebnisse der jungen und der beiden älteren Erwachsenengruppen untersucht, welche Unterschiede zwischen den verschiedenen Altersgruppen bestehen. Im Hinblick auf die zeitliche Gültigkeit der aktuellen Untersuchungsergebnisse werden der Einfluss des säkularen Trends und der Einfluss der ontogenetischen Alternsprozesse auf Längenmaße und Korpulenzmaße diskutiert. Die Arbeit zeigt auf, dass innerhalb der untersuchten Probanden eine große Variationsbreite in den Körpermaßen auftritt. Es lassen sich typische Altersunterschiede erkennen. Die Älteren sind im Mittel kleiner, weisen jedoch größere Skelettrobustizitäts- und Korpulenzmaße auf. Die dynamischen Maße weisen auf eine geringere Beweglichkeit der Wirbelsäule, teilweise auch der Hand hin. Die Handkräfte der Frauen werden mit zunehmendem Alter geringer, bei den Männern sind die Älteren kräftiger als die jungen Erwachsenen. Die Ergebnisse deuten auf einen gegenüber früheren Generationen verzögerten Beginn von körperlichen Alterserscheinungen hin, der im Hinblick auf die steigende Lebenserwartung der Bevölkerung eingehender untersucht werden sollte.
Die vorliegende Arbeit befasst sich mit Führungsverhalten im öffentlichen Sektor sowie mit Einflussfaktoren auf dieses Führungsverhalten. Hierzu wurde eine Taxonomie, bestehend aus sechs Metakategorien von Führungsverhalten, entwickelt. Die Metakategorien umfassen Aufgaben-, Beziehungs-, Veränderungs-, Außen-, Ethik- und Sachbearbeitungsorientierung. Eine Analyse von Umfragedaten, die für diese Arbeit bei Mitarbeitern und unteren Führungskräften dreier Behörden erhoben wurden, zeigt, dass diese Taxonomie sehr gut geeignet ist, die Führungsrealität in der öffentlichen Verwaltung abzubilden.
Eine deskriptive Auswertung der Daten zeigt außerdem, dass es eine relativ große Differenz zwischen der Selbsteinschätzung der Führungskräfte und der Fremdeinschätzung durch ihre Mitarbeiter gibt. Diese Differenz ist bei der Beziehungs- und Veränderungsorientierung besonders hoch.
Der deskriptiven Auswertung schließt sich eine Analyse von Einflussfaktoren auf das Führungsverhalten an. Die Einflussfaktoren können den vier Kategorien "Charakteristika und Eigenschaften der Führungskräfte", "Erwartungen und Interesse von Vorgesetzten", "Charakteristika und Einstellungen von Geführten" und "Managementinstrumente und -rahmenbedingungen" zugeordnet werden.
Eine Analyse mit Hilfe von hierarchischen linearen Modellen zeigt, dass vor allem die Führungsmotivation und die Managementorientierung der Führungskräfte, die Gemeinwohlorientierung und die Art der Aufgabe der Geführten sowie die strategische Führungskräfteauswahl und die Leistungsmessung durch die Führungskräfte anhand konkreter Ziele einen Einfluss auf das Führungsverhalten haben.
Die Ergebnisse dieser Arbeit ergänzen die Literatur zu Führungsverhalten im öffentlichen Sektor um die Perspektive der Einflussfaktoren auf das Führungsverhalten und leisten zusätzlich mit Hilfe der verwendeten Taxonomie einen Beitrag zur theoretischen Diskussion von Führungsverhalten in der Public-Management-Forschung. Darüber hinaus bieten die gewonnenen Erkenntnisse der Verwaltungspraxis Hinweise zu relevanten Einflussfaktoren auf das Führungsverhalten sowie auf beachtliche Differenzen zwischen Selbst- und Fremdwahrnehmung des Führungsverhaltens.
Zeugenschaft im Bild
(2015)
Zentrales Anliegen der Dissertation ist, Zeugenschaft als visuelle Strategie zu beleuchten. In Abgrenzung zur These der Undarstellbarkeit der Shoah wird der Begriff der Sichtbarmachung nutzbar gemacht, um Prozesse und die Wirkung von Bildern im Zusammenhang mit Zeugenschaft herauszustellen. Ausgangspunkt dabei ist, dass bildliche Zeugnisse einen Gegenpol zu den standardisierten Visualisierungspraktiken der Shoah bieten, sprich dem historischen Bildmaterial aufgenommen durch die Alliierten und der Nationalsozialisten. In der Arbeit wird das historische Bildmaterial als Visualisierungspraxis problematisiert und visuellen Zeugnissen gegenübergestellt, die Augen- und Überlebenszeugen der Shoah, aber auch authentische Orte des Geschehens aus einer nachträglichen Perspektive zeigen. Dabei werden insbesondere zwei kritische Strategien des Umgangs mit historischen Bildern der Shoah hervorgehoben: das Hinterfragen von Archivbildern innerhalb des Films (Harun Farockis AUFSCHUB, 2007) und die Verweigerung von Archivbildern aus der Zeit des Zweiten Weltkrieges (Claude Lanzmanns SHOAH, 1985).
Seit den 1990er Jahren wird Zeugenschaft in der Forschung als philosophische, moralische und erkenntnistheoretische Kategorie in den USA, aber auch in Deutschland viel diskutiert. Dabei wurde die bild- und medienwissenschaftliche Perspektive im Zusammenhang mit Zeugenschaft kaum beleuchtet, darin liegt der Forschungsbeitrag der Arbeit. Insbesondere drei Gesichtspunkte von visueller Zeugenschaft werden herausgearbeitet: 1) die Sichtbarmachung der Überlebenden und der Orte des Geschehens im Jetzt, 2) die nichtsprachlichen Aspekte von Zeugenaussagen und 3) die Rolle des Zuschauers, der durch den Akt des Sehens in einem Imaginationsprozess eine Verknüpfung zwischen den Bildern aus der Jetztzeit und der nicht-sichtbaren Vergangenheit herstellt.
Polen nimmt eine besondere historische Rolle als Zentrum des europäischen Judentums bis zum Zweiten Weltkrieg und gleichzeitig als »Schauplatz des Holocaust« und Ort der Augenzeugenschaft ein. Maßgeblich hat Claude Lanzmanns Film SHOAH dazu beigetragen, die Konzentrations- und Vernichtungslager im Polen der Nachkriegszeit sichtbar zu machen, und damit nicht nur Generationen von polnischen Filmemachern und Künstlern nach ihm beeinflusst, sondern auch kontroverse Debatten in Polen ausgelöst. Anhand der ausgewählten Filme lässt sich in der polnischen Erinnerungskultur seit der Wende von 1989 eine Hinwendung zur polnisch-jüdischen Geschichte erkennen, die sich verstärkt mit den Fragen der polnischen Mittäterschaft und Schuld an der Shoah auseinandersetzt.
Der Untersuchungsgegenstand unterteilt sich in zwei Formate: Dokumentar- und Kunstfilm. Einerseits ist das auf ihre unterschiedlichen Produktions- und Rezeptionsbedingungen sowie die Länge der Arbeiten zurückzuführen. Andererseits bewegen sich die Kategorien auf verschiedenen Reflexionsebenen und zielen auf unterschiedliche Wirkungen beim Zuschauer ab. Während sich in den Dokumentarfilmen zum Teil explizite Bezüge (aber auch Abgrenzungen) zum Lanzmann’schen Projekt erkennen lassen, handelt es sich bei den Produktionen des zeitgenössischen Künstlers Artur Żmijewski um einen Meta-Diskurs, der auf radikale und provokative Art und Weise bestehende erinnerungskulturelle Praktiken ausstellt und kritisch hinterfragt.
Die ubiquitär verbreitete Molybdänkofaktorbiosynthese ist in Escherichia coli (E. coli) bisher am umfassendsten untersucht. Bislang war jedoch nicht bekannt, welche physiologische Schwefelquelle im zweiten Schritt dieses Syntheseweges zur Bildung der charakteristischen Dithiolengruppe genutzt wird. Erste Untersuchungen deuteten auf eine der Cysteindesulfurasen E. colis hin, welche in Verbindung mit einem rhodaneseähnlichen Protein den Schwefel in Form eines Persulfids übertragen. Ähnliche Mechanismen wurden bereits in der humanen Moco-Biosynthese und der Thiaminbiosynthese identifiziert. In dieser Arbeit wurde das E. coli Protein YnjE näher charakterisiert. Es handelt sich bei YnjE um ein rhodaneseähnliches Protein aus drei Rhodanesedomänen. Durch Proteinkristallisation und anschliessender Röntgenstrukturanalyse wurde die Tertiärstruktur des YnjE-Proteins analysiert. Die hergestellten Kristalle konnten zur Gewinnung von Strukturdaten vermessen und eine Proteinkristallstruktur für YnjE berechnet werden. Desweiteren besitzt YnjE ein N-terminales Typ I Sekretionssystem abhängiges Sipnalpeptid. Durch Lokalisieungsexperimente wurde die Bedeutung des Signalpeptids für das YnjE-Protein untersucht. Dabei wurde festgestellt, dass endogenes YnjE sowohl im peri- als auch im cytoplasmatischen Raum lokalisiert ist. Auf Grund von vorhergehenden Studien, wurde eine Funktion des YnjE-Proteins innerhalb der Molybdänkofaktorbiosynthese in der Schwefelübertragung auf das Protein MoaD in E. coli vermutet und deshalb in dieser Arbeit näher untersucht. Es wurde eine Interaktion des YnjE-Proteins mit dem MoeB-Protein, welches für die Thiocarboxylierung des MoaD-Proteins essentiell ist, durch Tandem-Affinitätsreinigung und Antikörper-basierte Affinitätsreinigung nachgewiesen und ein signifikanter positiver Einfluss YnjEs auf die Bildung von Molybdopterin, einer Vorstufe des Molybdänkofaktors, bestätigt. Dabei wurde sowohl der Sulfurierungsgrad des MoaD-Proteins in YnjE und Cysteindesulfurase-knock-out Mutanten untersucht, als auch die Bildung von Molybdopterin in einem in vitro Ansatz in Abhängigkeit von steigenden YnjE-Konzentrationen analysiert. Im Ergebnis kann man daraus schließen, dass der Mechanismus der Schwefelübertragung ähnlich der Thiaminbiosynthese, über eine der drei Cysteindesulfurasen CsdA, SufS oder IscS geschieht, welche Schwefel in Form eines Persulfids auf YnjE übertragen können. Thiosulfat und Mercaptopyruvat, die Substrate für die beiden Familien der rhodaneseähnlichen Proteine, Thiosulfat-Sulfurtransferasen und Mercaptopyruvat-Sulfurtransferasen, dienen nicht als Substrate für eine Persulfurierung YnjEs. Durch eine Austauschmutante des Cysteinrestes der aktiven Schleife von YnjE konnte nicht bestätigt werden, dass dieser Aminosäurerest und damit die Bildung eines YnjE-gebundenen Persulfids für die positive Beeinflussung der MPT-Synthese essentiell ist. Vielmehr kann durch diese Arbeit von einer Vermittlung der Interaktionen zwischen MoeB, IscS und der MPT-Synthase durch YnjE ausgegangen werden wobei die Cysteindesulfurase IscS den Schwefel für die Thiocarboxylierung des MoaD-Proteins liefert.
Das Borna Disease Virus (BDV, Bornavirus) besitzt ein einzelsträngiges RNA-Genom negativer Polarität und ist innerhalb der Ordnung Mononegavirales der Prototyp einer eigenen Virusfamilie, die der Bornaviridae. Eine außergewöhnliche Eigenschaft des Virus ist seine nukleäre Transkription und Replikation, eine weitere besteht in seiner Fähigkeit, als neurotropes Virus sowohl in vivo als auch in vitro persistente Infektionen zu etablieren. Die zugrunde liegenden Mechanismen sowohl der Replikation als auch der Persistenz sind derzeit noch unzureichend verstanden, auch deshalb, weil das Virus noch relativ „jung“ ist: Erste komplette Sequenzen des RNA-Genoms wurden 1994 publiziert und erst vor einigen Monaten gelang die Generierung rekombinanter Viren auf der Basis klonierter cDNA. Im Mittelpunkt dieser Arbeit standen das p10 Protein und das Phosphoprotein (P), die von der gemeinsamen Transkriptionseinheit II in überlappenden Leserahmen kodiert werden. Als im Kern der Wirtszelle replizierendes Virus ist das Bornavirus auf zelluläre Importmechanismen angewiesen, um den Kernimport aller an der Replikation beteiligten viralen Proteine zu gewährleisten. Das p10 Protein ist ein negativer Regulator der viralen RNA-abhängigen RNA-Polymerase (L). In vitro Importexperimente zeigten, dass p10 über den klassischen Importin alpha/beta abhängigen Kernimportweg in den Nukleus transportiert wird. Dies war unerwartet, da p10 kein vorhersagbares klassisches Kernlokalisierungssignal (NLS) besitzt und weist darauf hin, dass der zelluläre Importapparat offensichtlich flexibler ist als allgemein angenommen. Die ersten 20 N-terminalen AS vermitteln sowohl Kernimport als auch die Bindung an den Importrezeptor Importin alpha. Durch Di-Alanin-Austauschmutagenese wurden die für diesen Transportprozess essentiellen AS identifiziert und die Bedeutung hydrophober und polarer AS-Reste demonstriert. Die Fähigkeit des Bornavirus, persistente Infektionen zu etablieren, wirft die Frage auf, wie das Virus die zellulären antiviralen Abwehrmechanismen, insbesondere das Typ I Interferon (IFN)-System, unterwandert. Das virale P Protein wurde in dieser Arbeit als potenter Antagonist der IFN-Induktion charakterisiert. Es verhindert die Phosphorylierung des zentralen Transkriptionsfaktors IRF3 durch die zelluläre Kinase TBK1 und somit dessen Aktivierung. Der Befund, dass P mit TBK1 Komplexe bildet und zudem auch als Substrat für die zelluläre Kinase fungiert, erlaubt es, erstmalig einen Mechanismus zu postulieren, in dem ein virales Protein (BDV-P) als putatives TBK1-Pseudosubstrat die IRF3-Aktivierung kompetitiv hemmt.
Die vorgelegte Dissertation befasst sich mit der frühen Wortsegmentierung im monolingualen und bilingualen Spracherwerb. Die Wortsegmentierung stellt eine der wesentlichen Herausforderungen für Säuglinge im Spracherwerb dar, da gesprochene Sprache kontinuierlich ist und Wortgrenzen nicht zuverlässig durch akustische Pausen markiert werden. Zahlreiche Studien konnten für mehrere Sprachen zeigen, dass sich Segmentierungsfähigkeiten von monolingualen Säuglingen zwischen dem 6. und 12. Lebensmonat herausbilden (z. B. Englisch: Jusczyk, Houston & Newsome, 1999; Französisch: Nazzi, Mersad, Sundara, Iakimova & Polka, 2014; Deutsch: Höhle & Weissenborn, 2003; Bartels, Darcy & Höhle, 2009). Frühe Wortsegmentierungsfähigkeiten sind sprachspezifisch (Polka & Sundara, 2012). Crosslinguistische Studien zeigten, dass eine sprachübergreifende Segmentierung für einsprachig aufwachsende Säuglinge nur erfolgreich bewältigt wird, wenn die nicht-native Sprache rhythmische Eigenschaften mit ihrer Muttersprache teilt (Houston, Jusczyk, Kuijpers, Coolen & Cutler, 2000; Höhle, 2002; Polka & Sundara, 2012).
In vier Studien dieser Dissertation wurden mit behavioralen (Headturn Preference Paradigma) und elektrophysiologischen Untersuchungen (Elektroenzephalografie) monolingual Deutsch aufwachsende und bilingual Deutsch-Französisch aufwachsende Säuglinge im Alter von 9 Monaten untersucht. Dabei wurde der Frage nachgegangen, ob monolingual Deutsch aufwachsende Säuglinge im Alter von 9 Monaten in der Lage sind, ihre Muttersprache Deutsch und die rhythmisch unähnliche Sprache Französisch zu segmentieren. Mit anderen Worten: Können monolinguale Säuglinge im Alter von 9 Monaten ihre Segmentierungsprozeduren modifizieren bzw. von ihrer bevorzugten Segmentierung abweichen, um auch nicht-muttersprachlichen Input erfolgreich zu segmentieren?
Bezogen auf die bilingualen Sprachlerner wurde der Frage nachgegangen, ob zweisprachig aufwachsende Säuglinge vergleichbare Segmentierungsfähigkeiten wie monolingual aufwachsende Säuglinge aufweisen und ob sich zudem ein Einfluss der Sprachdominanz auf die Entwicklung der Wortsegmentierungsfähigkeiten in einer bilingualen Population zeigt.
Durch die gewählten Methoden konnten sowohl Verhaltenskorrelate als auch elektrophysiologische Korrelate zur Beantwortung der Fragestellungen herangezogen werden. Darüber hinaus ermöglichte das EEG durch ereigniskorrelierte Potenziale (EKPs) einen Einblick in Lern- und Verarbeitungsprozesse, die mit Verhaltensmethoden nicht erfassbar waren.
Die Ergebnisse zeigen, dass monolingual Deutsch aufwachsende Säuglinge im Alter von 9 Monaten sowohl ihre Muttersprache als auch die nicht-native Sprache Französisch erfolgreich segmentieren. Die Fähigkeit zur Segmentierung der nicht-nativen Sprache Französisch wird jedoch beeinflusst von der Muttersprache: monolinguale Säuglinge, die mit Französisch zuerst getestet wurden, segmentierten sowohl das Französische als auch das im Anschluss präsentierte deutsche Sprachmaterial. Monolinguale Säuglinge die zuerst mit Deutsch und anschließend mit Französisch getestet wurden, segmentierten die deutschen Stimuli, jedoch nicht das französische Sprachmaterial.
Bilingual Deutsch-Französisch aufwachsende Säuglinge segmentieren im Alter von 9 Monaten beide Muttersprachen erfolgreich. Die Ergebnisse deuten zudem auf einen Einfluss der Sprachdominanz auf die Wortsegmentierungsfähigkeiten von zweisprachig aufwachsenden Säuglingen. Die balancierten Bilingualen segmentieren beide Muttersprachen erfolgreich, die unbalancierten Bilingualen zeigen nur für die jeweils dominante Sprache eine erfolgreiche Segmentierung.
Zusammenfassend liefert diese Arbeit erstmals Evidenz für eine erfolgreiche sprachübergreifende Segmentierung in prosodisch differenten Sprachen unterschiedlicher Rhythmusklassen in einer monolingualen Population. Darüber hinaus liefern die Studien dieser Arbeit Evidenz dafür, dass bilingual aufwachsende Säuglinge bezogen auf die Wortsegmentierungsfähigkeiten eine vergleichbare Entwicklung wie einsprachig aufwachsende Sprachlerner zeigen. Dieses Ergebnis erweitert die Datenlage bisheriger Studien, die für verschiedene Entwicklungsschritte im Spracherwerb keine Verzögerung, sondern eine zu monolingual aufwachsenden Säuglingen vergleichbare Entwicklung innerhalb einer bilingualen Population nachweisen konnten (Sprachdiskrimination: Byers-Heinlein, Burns & Werker, 2010; Bosch & Sebastian-Galles, 1997; Phonemdiskrimination: Albareda-Castellot, Pons & Sebastián-Gallés, 2011; Wahrnehmung rhythmischer Eigenschaften: Bijeljac-Babic, Höhle & Nazzi, 2016).
Die Arbeit untersucht die historische Entwicklung der Prätorianerpräfektur im 3. Jh. und bewertet die Funktion im Rahmen der kaiserlichen Herrschaftsordnung. Aufgrund der militärischen und politischen Krisen des 3. Jh. und der daran angepassten Herrschaftsstrategien erhielten die Prätorianerpräfekten umfassende Aufgaben. Die disparate Quellen- und Forschungslage beschreibt den Machtzuwachs und die Funktionsaufwertung der Prätorianerpräfekten in dieser wichtigen Phase aber sehr unterschiedlich. Ausgehend von den spätantiken Berichten geht die mehrheitliche Forschung zudem von einem Machtverlust der Prätorianerpräfekten unter Konstantin aus, dem eine Reformierung der Prätorianerpräfektur zugesprochen wird. Dieser Machtverlust lässt sich zeitlich und funktional jedoch nicht sicher bestimmen. In der Forschung wird dieser funktionale Abstieg oft mit der konstantinischen Demilitarisierung und Regionalisierung der Prätorianerpräfektur begründet. Bisher fehlte eine aktuelle Gesamtdarstellung, die die Prätorianerpräfektur in der Herrschaftsordnung des 3. Jh. bewertet und kategorisiert, um eine funktionale Abgrenzung zur klassischen Prätorianerpräfektur und zur Regionalpräfektur im 4. Jh. vorzunehmen.
Für diese funktionale Abgrenzung wurden in dieser Arbeit die Funktionsmerkmale und historischen Zusammenhänge der Prätorianerpräfektur im 3. Jh. abstrahiert und hieraus der Idealtypus einer „Kaiserlichen Magistratur“ gebildet. Die Ergebnisse dieser Abstrahierung zeigen die Prätorianerpräfektur im 3. Jh. als eine kommunikative Schnittstelle zwischen dem Kaiser und den leitenden Stellen der Zentral- und Provinzadministration. Die Prätorianerpräfektur übernahm hierbei eine leitende Stabsfunktion, die im Zusammenhang mit der höchsten inappellablen Gerichtsbarkeit die zweite Funktionsträgerebene nach dem Kaiser bildete. Diese Funktion übten die Prätorianerpräfekten ohne territoriale Bindung bis zum Ende der Tetrarchie bzw. bis zur frühen Herrschaft Konstantins aus.
Die sensorisch einwandfreie, konstant gute Qualität von Backprodukten, die beim Verbraucher einen hohen Stellenwert hat, wird maßgeblich durch den Gehalt endogener Getreideenzyme beeinflusst. Seit dem Auftreten züchtungsbedingter Enzymdefizite ist der Einsatz technischer Enzyme zur Gewährleistung dieser geforderten Qualität eine feste Größe in der Backwarenindustrie. Lebensmittelrechtlich werden technische Enzyme nicht als Zutat betrachtet, da sie theoretisch während des Backprozesses umgesetzt werden und im Endprodukt keine technologische Wirkung mehr zeigen. Vor allem in gebackenen Produkten bedarf es der Prüfung, dass die eingesetzten technischen Enzyme nicht mehr als Zutat vorliegen und sich somit einer potentiellen Deklarationspflicht entziehen. Zur Gewährleistung der Wirtschaftlichkeit muss der quantitative Einsatz technischer Enzyme in der Backwarenindustrie gesteuert werden, um optimale Effekte zu erzielen und Kosten zu sparen. Ziel dieser Arbeit war daher die Entwicklung eines Analysenverfahrens, das den simultanen Nachweis verschiedener technischer Enzyme und deren Quantifizierung im Spurenbereich auch in gebackenen Produkten ermöglicht.
Für die Einschätzung der Wirkung der technischen Enzyme Fungamyl (Novozymes), Amylase TXL (ASA Spezialenzyme GmbH) sowie Lipase FE-01 (ASA Spezialenzyme GmbH) wurden Backversuche durchgeführt, die zeigten, dass Fungamyl und Amylase TXL zu einer verbesserten Brotqualität (Volumenausbeute, Feuchtegehalt, Sensorik) beitrugen. Die Zugabe der Lipase FE-01 führte zu einer vermehrten Bildung freier Fettsäuren und wirkte sich negativ auf die sensorische Brotqualität aus. Dieser bisher nicht beschriebene Effekt konnte auf die Nutzung eines Spezialöls als Backzutat zurückgeführt werden, welches ausschließlich aus gesättigten Fettsäuren besteht. Dies bestätigt die Bedeutung der Auswahl eines geeigneten Fettes beim Zusatz technischer Lipase zum Backprozess.
Um die in Fungamyl und Lipase FE-01 enthaltenen Enzyme zu identifizieren, wurden SDS-PAGE und anschließender In-Gel-Verdau angewendet um die Analyse proteolytisch gespaltener Proteine mit MALDI-TOF-MS zu ermöglichen. Es konnte gezeigt werden, dass Fungamyl ein Gemisch aus 9,8 % alpha-Amylase (Aspergillus oryzae) und 5,2 % Endo-1,4-Xylanase (Thermomyces lanuginosus) enthält. Lipase FE-01 besteht aus der Lipase (Thermomyces lanuginosus), Amylase TXL wurde als alpha-Amylase (Aspergillus oryzae) identifiziert.
Zur Analyse der technischen Enzyme in Backwaren wurde aufgrund seiner Robustheit und Sensitivität das Verfahren der LC-MS/MS gewählt. Die Entwicklung einer solchen Methode zur Detektion spezifischer Peptide ermöglichte den qualitativen Nachweis der 3 Enzyme alpha-Amylase (Aspergillus oryzae), Endo-1,4-Xylanase (Thermomyces lanuginosus) und Lipase (Thermomyces lanuginosus). Durch eine lineare Kalibrierung aus synthetisch hergestellten Peptiden unter Einbeziehung eines Protein-Internen-Standards sowie isotopenmarkierter Peptidstandards erfolgte darüber hinaus die quantitative Bestimmung in selbst hergestellten Referenzmaterialien (Weizenmehl, Toastbrot und Biskuitkeks). In weniger als 20 Minuten Messzeit kann das Enzym alpha-Amylase ab einer Konzentration von 2,58 mg/kg (Mehl, Keks), bzw. 7,61 mg/kg (Brot) quantitativ nachgewiesen werden. Zeitgleich können die Enzyme Endo-1,4-Xylanase ab einer Konzentration von 7,75 mg/kg (Brot), 3,64 mg/kg (Keks) bzw. 15,60 mg/kg (Mehl) sowie Lipase ab einer Konzentration von 1,26 mg/kg (Mehl, Keks), bzw. 2,68 mg/kg (Brot) quantifiziert werden. Die Methode wurde nach allgemein verwendeten Richtlinien im Zuge einer Validierung statistisch geprüft und lieferte sehr robuste und reproduzierbare quantitative Werte mit Wiederfindungsraten zwischen 50 % und 122 %. Das primäre Ziel dieser Arbeit, die Entwicklung eines quantitativen Multiparameterverfahrens zum Nachweis technischer Enzyme in Backwaren, wurde somit erfolgreich umgesetzt.
Untersuchungen PEG-basierter thermo-responsiver Polymeroberflächen zur Steuerung der Zelladhäsion
(2010)
Moderne Methoden für die Einzelzellanalyse werden dank der fortschreitenden Weiterentwicklung immer sensitiver. Dabei steigen jedoch auch die Anforderungen an das Probenmaterial. Viele Aufbereitungsprotokolle adhärenter Zellen beinhalten eine enzymatische Spaltung der Oberflächenproteine, um die Ablösung vom Zellkultursubstrat zu ermöglichen. Verschiedene Methoden, wie die Patch-Clamp-Technik oder eine auf der Markierung extrazellulärer Domänen von Membranproteinen basierende Durchflusszytometrie können dann nur noch eingeschränkt eingesetzt werden. Daher ist die Etablierung neuer Zellablösemethoden dringend notwendig. In der vorliegenden Arbeit werden erstmals PEG-basierte thermo-responsive Oberflächen erfolgreich für die Zellkultur eingesetzt. Dabei wird das zerstörungsfreie Ablösen verschiedener Zelllinien von den Oberflächen durch Temperatursenkung realisiert. Die Funktionalität der Oberflächen wird durch Variation der Polymerstruktur, sowie der Konzentration der Beschichtungslösung, durch Beschichtung der Oberflächen mit einem zelladhäsionsfördernden Protein (Fibronektin) und durch Adsorption zelladhäsionsvermittelnder Peptide (RGD) optimiert. Um den Zellablösungsprozess detaillierter zu untersuchen, wird hier zum ersten Mal der direkte Zellkontakt mit thermo-responsiven Oberflächen mittels oberflächensensitiver Mikroskopie (TIRAF) sichtbar gemacht. Mit dieser Technik sind die exakte Quantifizierung und die Analyse der Reduktion der Zelladhäsionsfläche während des Abkühlens möglich. Hierbei werden in Abhängigkeit von der Zelllinie Unterschiede im Zellverhalten während des Ablösens festgestellt: Zellen, wie eine Brustkrebszelllinie und eine Ovarzelllinie, die bekanntermaßen stärker mit ihrer Umgebung in Kontakt treten, vergrößern im Verlauf des Beobachtungszeitraumes den Abstand zwischen Zellmembran und Oberfläche, reduzieren jedoch ihre Zell-Substratkontaktfläche kaum. Mausfibroblasten hingegen verkleinern drastisch die Zelladhäsionsfläche. Der Ablösungsprozess wird vermutlich aktiv von den Zellen gesteuert. Diese Annahme wird durch zwei Beobachtungen gestützt: Erstens verläuft die Reduktion der Zelladhäsionsfläche bei Einschränkung des Zellmetabolismus durch eine Temperatursenkung auf 4 °C verzögert. Zweitens hinterlassen die Zellen Spuren, die nach dem Ablösen der Zellen auf den Oberflächen zurückbleiben. Mittels Kombination von TIRAF- und TIRF-Mikroskopie werden die Zelladhäsionsfläche und die Aktinstruktur gleichzeitig beobachtet. Die Verknüpfung beider Methoden stellt eine neue Möglichkeit dar, intrazelluläre Prozesse mit der Zellablösung von thermo-responsiven Oberflächen zu korrelieren.
Die hohe Energieaufnahme durch Fette ist ein Hauptfaktor für die Entstehung von Adipositas, was zu weltweiten Bestrebungen führte, die Fettaufnahme zu verringern. Fettreduzierte Lebensmittel erreichen jedoch, trotz ihrer Weiterentwicklung, nicht die Schmackhaftigkeit ihrer Originale. Die traditionelle Sichtweise, dass die Attraktivität von Fetten allein durch Textur, Geruch, Aussehen und postingestive Effekte bestimmt wird, wird nun durch das Konzept einer gustatorischen Wahrnehmung ergänzt. Bei Nagetieren zeigte sich, dass Lipide unabhängig von den vorgenannten Eigenschaften erkannt werden, sowie, dass Fettsäuren, freigesetzt durch linguale Lipasen, als gustatorische Stimuli fungieren und Fettsäuresensoren in Geschmackszellen exprimiert sind. Die Datenlage für den Menschen erwies sich jedoch als sehr begrenzt, daher war es Ziel der vorliegenden Arbeit molekulare und histologische Voraussetzungen für eine gustatorische Fettwahrnehmung beim Menschen zu untersuchen.
Zunächst wurde humanes Geschmacksgewebe mittels RT-PCR und immunhistochemischen Methoden auf die Expression von Fettsäuresensoren untersucht, sowie exprimierende Zellen in Kofärbeexperimenten charakterisiert und quantifiziert. Es wurde die Expression fettsäuresensitiver Rezeptoren nachgewiesen, deren Agonisten das gesamte Spektrum an kurz- bis langkettigen Fettsäuren abdecken (GPR43, GPR84, GPR120, CD36, KCNA5). Ein zweifelsfreier Nachweis des Proteins konnte für den auf langkettige Fettsäuren spezialisierten Rezeptor GPR120 in Typ-I- und Typ-III-Geschmackszellen der Wallpapillen erbracht werden. Etwa 85 % dieser GPR120-exprimierenden Zellen enthielten keine der ausgewählten Rezeptoren der Geschmacksqualitäten süß (TAS1R2/3), umami (TAS1R1/3) oder bitter (TAS2R38). Somit findet sich in humanen Geschmackspapillen nicht nur mindestens ein Sensor, sondern möglicherweise auch eine spezifische, fettsäuresensitive Zellpopulation. Weitere RT-PCR-Experimente und Untersuchungen mittels In-situ-Hybridisierung wurden zur Klärung der Frage durchgeführt, ob Lipasen in den Von-Ebner-Speicheldrüsen (VED) existieren, die freie Fettsäuren aus Triglyceriden als gustatorischen Stimulus freisetzen können. Es zeigte sich zwar keine Expression der bei Nagetieren gefundenen Lipase F (LIPF), jedoch der eng verwandten Lipasen K, M und N in den serösen Zellen der VED. In-silico-Untersuchungen der Sekundär- und Tertiärstrukturen zeigten die hohe Ähnlichkeit zu LIPF, erwiesen aber auch Unterschiede in den Bindungstaschen der Enzyme, welche auf ein differenziertes Substratspektrum hinweisen. Die Anwesenheit eines spezifischen Signalpeptids macht eine Sekretion der Lipasen in den die Geschmacksporen umspülenden Speichel wahrscheinlich und damit auch eine Bereitstellung von Fettsäuren als Stimuli für Fettsäuresensoren. Die Übertragung des durch diese Stimuli hervorgerufenen Signals von Geschmackszellen auf gustatorische Nervenfasern über P2X-Rezeptormultimere wurde mit Hilfe einer vorherigen Intervention mit einem P2X3 /P2X2/3-spezifischen Antagonisten an der Maus als Modellorganismus im Kurzzeit-Präferenztest untersucht. Es zeigte sich weder eine Beeinträchtigung der Wahrnehmung einer Fettsäurelösung, noch einer zuckerhaltigen Kontrolllösung, wohingegen die Wahrnehmung einer Bitterstofflösung reduziert wurde. Somit ist anhand der Ergebnisse dieser Arbeit eine Beteiligung des P2X3-Homomers bzw. des P2X2/3-Heteromers unwahrscheinlich, jedoch die des P2X2-Homomers und damit der gustatorischen Nervenfasern nicht ausgeschlossen.
Die Ergebnisse dieser Arbeit weisen auf die Erfüllung grundlegender Voraussetzungen für die gustatorische Fett(säure)wahrnehmung hin und tragen zum Verständnis der sensorischen Fettwahrnehmung und der Regulation der Fettaufnahme bei. Das Wissen um die Regulation dieser Mechanismen stellt eine Grundlage zur Aufklärung der Ursachen und damit der Bekämpfung von Adipositas und assoziierten Krankheiten dar.
Intensive Forschung hat in den vergangenen Jahrzehnten zu einer sehr detaillierten Charakterisierung des Geschmackssystems der Säugetiere geführt. Dennoch sind mit den bislang eingesetzten Methoden wichtige Fragestellungen unbeantwortet geblieben. Eine dieser Fragen gilt der Unterscheidung von Bitterstoffen. Die Zahl der Substanzen, die für den Menschen bitter schmecken und in Tieren angeborenes Aversionsverhalten auslösen, geht in die Tausende. Diese Substanzen sind sowohl von der chemischen Struktur als auch von ihrer Wirkung auf den Organismus sehr verschieden. Während viele Bitterstoffe potente Gifte darstellen, sind andere in den Mengen, die mit der Nahrung aufgenommen werden, harmlos oder haben sogar positive Effekte auf den Körper. Zwischen diesen Gruppen unterscheiden zu können, wäre für ein Tier von Vorteil. Ein solcher Mechanismus ist jedoch bei Säugetieren nicht bekannt. Das Ziel dieser Arbeit war die Untersuchung der Verarbeitung von Geschmacksinformation in der ersten Station der Geschmacksbahn im Mausgehirn, dem Nucleus tractus solitarii (NTS), mit besonderem Augenmerk auf der Frage nach der Diskriminierung verschiedener Bitterstoffe. Zu diesem Zweck wurde eine neue Untersuchungsmethode für das Geschmackssystem etabliert, die die Nachteile bereits verfügbarer Methoden umgeht und ihre Vorteile kombiniert. Die Arc-catFISH-Methode (cellular compartment analysis of temporal activity by fluorescent in situ hybridization), die die Charakterisierung der Antwort großer Neuronengruppen auf zwei Stimuli erlaubt, wurde zur Untersuchung geschmacksverarbeitender Zellen im NTS angewandt. Im Zuge dieses Projekts wurde erstmals eine stimulusinduzierte Arc-Expression im NTS gezeigt. Die ersten Ergebnisse offenbarten, dass die Arc-Expression im NTS spezifisch nach Stimulation mit Bitterstoffen auftritt und sich die Arc exprimierenden Neurone vornehmlich im gustatorischen Teil des NTS befinden. Dies weist darauf hin, dass Arc-Expression ein Marker für bitterverarbeitende gustatorische Neurone im NTS ist. Nach zweimaliger Stimulation mit Bittersubstanzen konnten überlappende, aber verschiedene Populationen von Neuronen beobachtet werden, die unterschiedlich auf die drei verwendeten Bittersubstanzen Cycloheximid, Chininhydrochlorid und Cucurbitacin I reagierten. Diese Neurone sind vermutlich an der Steuerung von Abwehrreflexen beteiligt und könnten so die Grundlage für divergentes Verhalten gegenüber verschiedenen Bitterstoffen bilden.
Die automatisierte Objektidentifikation stellt ein modernes Werkzeug in den Geoinformationswissenschaften dar (BLASCHKE et al., 2012). Um bei thematischen Kartierungen untereinander vergleichbare Ergebnisse zu erzielen, sollen aus Sicht der Geoinformatik Mittel für die Objektidentifikation eingesetzt werden. Anstelle von Feldarbeit werden deshalb in der vorliegenden Arbeit multispektrale Fernerkundungsdaten als Primärdaten verwendet. Konkrete natürliche Objekte werden GIS-gestützt und automatisiert über große Flächen und Objektdichten aus Primärdaten identifiziert und charakterisiert. Im Rahmen der vorliegenden Arbeit wird eine automatisierte Prozesskette zur Objektidentifikation konzipiert. Es werden neue Ansätze und Konzepte der objektbasierten Identifikation von natürlichen isolierten terrestrischen Oberflächenformen entwickelt und implementiert. Die Prozesskette basiert auf einem Konzept, das auf einem generischen Ansatz für automatisierte Objektidentifikation aufgebaut ist. Die Prozesskette kann anhand charakteristischer quantitativer Parameter angepasst und so umgesetzt werden, womit das Konzept der Objektidentifikation modular und skalierbar wird. Die modulbasierte Architektur ermöglicht den Einsatz sowohl einzelner Module als auch ihrer Kombination und möglicher Erweiterungen. Die eingesetzte Methodik der Objektidentifikation und die daran anschließende Charakteristik der (geo)morphometrischen und morphologischen Parameter wird durch statistische Verfahren gestützt. Diese ermöglichen die Vergleichbarkeit von Objektparametern aus unterschiedlichen Stichproben. Mit Hilfe der Regressionsund Varianzanalyse werden Verhältnisse zwischen Objektparametern untersucht. Es werden funktionale Abhängigkeiten der Parameter analysiert, um die Objekte qualitativ zu beschreiben. Damit ist es möglich, automatisiert berechnete Maße und Indizes der Objekte als quantitative Daten und Informationen zu erfassen und unterschiedliche Stichproben anzuwenden. Im Rahmen dieser Arbeit bilden Thermokarstseen die Grundlage für die Entwicklungen und als Beispiel sowie Datengrundlage für den Aufbau des Algorithmus und die Analyse. Die Geovisualisierung der multivariaten natürlichen Objekte wird für die Entwicklung eines besseren Verständnisses der räumlichen Relationen der Objekte eingesetzt. Kern der Geovisualisierung ist das Verknüpfen von Visualisierungsmethoden mit kartenähnlichen Darstellungen.
Das nationale Recht wird mehr und mehr durch EG-Recht beeinflussst. In diesem Zusammenhang ergeben sich bei denjenigen EG-Rechtsakten, die anders als EG-Verordnungen nicht unmittelbar in den Mitgliedstaaten gelten, sondern von diesen in nationales Recht umgesetzt werden müssen, vielfältige Probleme. Diese Probleme behandelt der Verfasser aus der Sicht des Anwalts in einer Weise, dass diejenigen, die sich in der Praxis mit derartigen Umsetzungsfragen zu beschäftigen haben, wertvolle Hinweise für eine konkret zu lösende Umsetzungsproblematik erhalten. Ergänzt und damit noch transparenter werden seine Lösungsvorschläge dadurch, dass der Verfasser sie im zweiten Teil der Untersuchung auf die konkrete Fragestellung anwendet, inwieweit es zu einer Umsetzung bzw. ordnungsgemäßen Umsetzung der in den Jahren 1988 bis 2001 erlassenen Fleischhygienegebührenrechtsakte der EG gekommen ist. Diese Arbeit wurde betreut von Professor Dr. D.C. Umbach an der Universität Potsdam. Aus dem Inhalt: Abgrenzung der Umsetzungszuständigkeit zwischen Bund und Ländern. Anforderungen an das Vorliegen eines Umsetzungsaktes sowie an eine ordnungsgemäße Umsetzung. Rechtsfolgen bei Umsetzungsverstößen. Prozessuale Fragen.
Biogene Amine sind kleine organische Verbindungen, die sowohl bei Vertebraten als auch bei Invertebraten als Neurotransmitter, Neuromodulatoren und/oder Neurohormone wirken. Sie bilden eine bedeutende Gruppe von Botenstoffen und entfalten ihre Wirkungen vornehmlich über die Bindung an G-Protein-gekoppelte Rezeptoren. Bei Insekten wurde eine Vielzahl von Wirkungen biogener Amine beschrieben. Das führte schon frühzeitig zur Vermutung, dass Insekten (u. a. Invertebraten) wie die Wirbeltiere ein diverses Repertoire an aminergen Rezeptoren besitzen. Für ein umfassendes Verständnis der komplexen physiologischen Wirkungen biogener Amine fehlten jedoch wichtige Informationen über die molekulare Identität der entsprechenden Rezeptorproteine und ihrer pharmakologischen Eigenschaften, ihre Lokalisation und ihre intrazellulären Reaktionspartner. Viele bei Schaben gut untersuchte (neuro)physiologische Prozesse sowie Verhaltensweisen werden durch Serotonin und Dopamin gesteuert bzw. moduliert. Über die beteiligten Rezeptoren ist jedoch bisher vergleichsweise wenig bekannt. Die Klonierung und Charakterisierung von Serotonin- und Dopaminrezeptoren der Amerikanischen Schabe P. americana ist damit ein längst überfälliger Schritt auf dem Weg zu einem umfassenden Verständnis der vielfältigen Wirkungen biogener Amine bei Insekten. Durch die Anwendung verschiedener Klonierungsstrategien konnten cDNAs isoliert werden, die für potentielle Serotoninrezeptoren und einen Dopaminrezeptor kodieren. Die Sequenzen weisen die größte Ähnlichkeit zu Mitgliedern der 5-HT1- und 5-HT7-Rezeptorklassen bzw. den Invertebratentyp-Dopaminrezeptoren auf. Die isolierten Rezeptoren der Amerikanischen Schabe wurden dementsprechend Pea(Periplaneta americana)5-HT1, Pea5-HT7 und PeaDop2 benannt. Das Hydropathieprofil dieser Rezeptoren postuliert das Vorhandensein der charakteristischen heptahelikalen Architektur G-Protein-gekoppelter Rezeptoren. Die abgeleiteten Aminosäuresequenzen zeigen typische Merkmale aminerger Rezeptoren. So sind Aminosäuren, die bedeutend für die Ligandenbindung, die Rezeptoraktivierung und die Kopplung an GProteine sind, in den Rezeptoren konserviert. Expressionsstudien zeigten eine auffallend hohe Expression aller drei Rezeptor-mRNAs im Gehirn sowie in den Speicheldrüsen. Im Rahmen dieser Arbeit wurden polyklonale Antikörper gegen den Pea5-HT1-Rezeptor sowie den PeaDop2-Rezeptor hergestellt. Der anti-Pea5-HT1-Antikörper detektiert im Homogenat von Schabengehirnen, Speicheldrüsen und Pea5-HT1-exprimierenden HEK 293-Zellen die glykosylierte Form des Rezeptors. In Gehirnschnitten markiert der anti-Pea5-HT1-Antikörper spezifisch einige Zellkörper in der Pars intercerebralis und deren Axone, welche in den Corpora cardiaca Nerv I projizieren. Der PeaDop2-Rezeptor wurde durch den spezifischen anti-PeaDop2-Antikörper in Neuronen mit Somata im anterioren Randbereich der Medulla nachgewiesen. Diese Neurone innervieren die optischen Loben und projizieren in das ventrolaterale Protocerebrum. Die intrazellulären Signalwege der heterolog exprimierten Pea5-HT1- und PeaDop2-Rezeptoren wurden in HEK 293-Zellen untersucht. Die Aktivierung des Pea5-HT1-Rezeptors durch Serotonin führt zur Hemmung der cAMP-Synthese. Des Weiteren wurde gezeigt, dass der Rezeptor konstitutive Aktivität besitzt. WAY 100635, ein hoch selektiver 5-HT1A-Rezeptorantagonist, wurde als wirksamer inverser Agonist am Pea5-HT1-Rezeptor identifiziert. Der stabil exprimierte PeaDop2-Rezeptor antwortet auf eine Aktivierung durch Dopamin mit einer Erhöhung der cAMP-Konzentration. Eine C-terminal trunkierte Variante dieses Rezeptors ist eigenständig nicht funktional. Die Ergebnisse der vorliegenden Arbeit indizieren, dass die untersuchten aminergen Rezeptoren im zentralen Nervensystems der Schabe an der Informationsverarbeitung beteiligt sind und verschiedene physiologische Prozesse in peripheren Organen regulieren. Mit der Klonierung und funktionellen Charakterisierung der ersten Serotoninrezeptoren und eines Dopaminrezeptors ist damit eine wichtige Grundlage für die Untersuchung ihrer Funktionen geschaffen worden.
Die vorliegende Arbeit ist eine aktuelle Dokumentation von Körperbau, Körperzusammensetzung und Ernährungsgewohnheiten an 708 jüngeren und älteren Männern und Frauen aus dem Bundesland Brandenburg. Der Körperbau wurde über ein 42 Längen-, Breiten-, Tiefen- und Umfangsmaße umfassendes anthropometrisches Untersuchungsprogramm bestimmt. Die Einschätzung von Gesamtkörperfettanteil und Magermasse erfolgte mit zwei Feldmethoden, der Hautfaltendickenmessung und der bioelektrischen Impedanzanalyse. Mit Hilfe eines semiquantitativen Fragebogens zu den Ernährungsgewohnheiten wurde der Lebensmittelverzehr erfasst und daraus die Energie- und Nährstoffaufnahme berechnet. Die Ergebnisse zum Körperbau zeigen im Mittel eine Abnahme der Längenmaße, jedoch eine Zunahme der Breiten-, Tiefen- und Umfangsmaße mit steigendem Erwachsenenalter. Einfache Parameter zur Beurteilung des Ernährungszustandes, wie Körpermasse und Body-Mass-Index (BMI) nehmen im Alter geschlechtsspezifisch zu. Nach den Richtlinien der WHO für den BMI gelten 55,3% der untersuchten Männern als übergewichtig, davon 10% als adipös. Von allen untersuchten Frauen sind 41,6% übergewichtig, davon sind 14,3% adipös. Der Anteil der Übergewichtigen ist zwar beim weiblichen Geschlecht geringer, aber dafür haben mehr Frauen die Grenze zur Adipositas überschritten. Für eine wissenschaftlich exakte Beurteilung des Ernährungszustandes reichen Körpermasse und BMI nicht aus, da sie die Körperzusammensetzung nicht bzw. nicht genügend berücksichtigen. Die subkutane Fettschichtdicke nimmt insbesondere am Rumpf zu, was als zusätzliches Gesundheitsrisiko gilt. Der Gesamtkörperfettanteil steigt im Erwachsenenalter abhängig von der Berechnungsmethode an. Die untersuchten Frauen sind gegenüber den Männern in allen Altersgruppen durch einen etwa ein Drittel höheren Körperfettanteil gekennzeichnet. Die tägliche Nahrungsenergieaufnahme der untersuchten Personen lässt eine abnehmende Tendenz bis zum 65. Lebensjahr erkennen. Trotz einer sinkenden Nahrungsenergieaufnahme im Alter, nimmt der BMI zu. Mögliche Ursachen hierfür werden in der Arbeit diskutiert. Der Anteil der Grundnährstoffe an der Energiebereitstellung entspricht in keiner der untersuchten Gruppen den Empfehlungen der Deutschen Gesellschaft für Ernährung. Allgemein ist der Fettkonsum zu hoch und der Kohlenhydratanteil zu gering. Das zeigt sich besonders in den beiden mittleren untersuchten Altersgruppen und bei den Männern stärker als bei den Frauen.
Chemische und physikalische Eigenschaften von Polymeren können verschiedene Zelltypen unterschiedlich, z. B. hinsichtlich Adhärenz oder Funktionalität, beeinflussen. Die Elastizität eines Polymers beeinflusst vor allem, welche Zugkräfte eine Zelle gegenüber ihrem Substrat entwickeln kann. Das Zellverhalten wird dann über intrazelluläre Rückkopplungsmechanismen reguliert. Die Oberflächenladung und/oder Hydrophilie eines Polymers beeinflusst zunächst die Adsorption von Ionen, Proteinen und anderen Molekülen. Vor allem über die Zusammensetzung, Dichte und Konformation der adsorbierten Komponenten werden anschließend die Wechselwirkungen mit den Zellen vermittelt. Des Weiteren können verschiedene Zelltypen unterschiedliche membranassoziierte Proteine, Zucker und Lipide aufweisen, so dass Polymereigenschaften zellspezifische Effekte bewirken können. Für biotechnologische Anwendungen und für den Einsatz in der regenerativen Medizin gewinnen Polymere, die spezifische Zellreaktionen regulieren können, immer weiter an Bedeutung. Die Isolierung und Kultur von primären Keratinozyten ist noch immer anspruchsvoll und die adäquate Heilung von Hautwunden stellt eine fortwährende medizinische Herausforderung dar. Ein Polymer, das eine bevorzugte Adhärenz von Keratinozyten bei gleichzeitig verminderter Anheftung dermaler Fibroblasten ermöglicht, würde erhebliche Vorteile für den Einsatz in der Keratinozyten-Zellkultur und als Wundauflage bieten. Um den potentiell spezifischen Einfluss bestimmter Polymereigenschaften auf primäre humane Keratinozyten und dermale Fibroblasten zu untersuchen, wurde in der vorliegenden Arbeit ein Zellkultursystem für die Mono- und Cokultur beider Zelltypen entwickelt. Das Testsystem wurde als Screening konzipiert, um den Einfluss unterschiedlicher Polymereigenschaften in mehreren Abstufungen auf die Zellen zu untersuchen. Folgende Parameter wurden untersucht: 1. Vitalität und Dichte adhärenter und nicht-adhärierter Zellen, 2. Schädigung der Zellmembran, 3. selektive Adhärenz von Keratinozyten in Cokultur durch die spezifische immunzytochemische Färbung von Keratin14 und Vimentin. Für die Polymere mit variabler Elastizität wurden zusätzlich die Ablagerung extrazellulärer Matrixkomponenten und die Sekretion löslicher Faktoren durch die Zellen untersucht. Als Modellpolymere für die Variation der Elastizität wurden vernetzte Poly(n-butylacrylate) (cPnBA) verwendet, da deren Elastizität durch den Anteil des Vernetzers eingestellt werden kann. Auf dem weniger elastischen cPnBA zeigte sich in der Cokultur ein doppelt so hohes Verhältnis von Keratinozyten zu Fibroblasten wie auf dem elastischeren cPnBA, so dass ein leichter zellselektiver Effekt angenommen werden kann. Acrylnitril-basierte Copolymere wurden als Modellpolymere für die Variation der Oberflächenladung und Hydrophilie verwendet, da die Eigenschaften durch Art und molaren Anteil des Comonomers eingestellt werden können. Durch Variation des molaren Anteils der Comonomere mit positiver bzw. negativer Ladung, Methacrylsäure-2-aminoethylester-hydrochhlorid (AEMA) und N-3-Aminopropyl-methacrylamid-hydro-chlorid (APMA) bzw. Natriumsalz der 2-Methyl-2-propen-1-sulfonsäure (NaMAS), wurde der Anteil der positiven bzw. negativen Ladung im Copolymer variiert. Durch die Erhöhung des molaren Anteils des hydrophilen Comonomers N-Vinylpyrrolidon (NVP) wurde die Hydrophilie des Copolymers gesteigert. Die Erhöhung des molaren Anteils an positiv geladenem Comonomer AEMA im Copolymer führte tendenziell zu einer höheren Keratinozytendichte, wobei die Fibroblastendichte unverändert blieb. Durch die Erhöhung des molaren Anteils des positiv geladenen Comonomers APMA ergaben sich keine deutlichen Unterschiede in Dichte, Vitalität oder Selektivität der Zellen. Durch die stufenweise Erhöhung des molaren Anteils des negativ geladenen Comonomers NaMAS konnte, wie im Falle von AEMA, eine Tendenz zur verbesserten Keratinozytenadhärenz beobachtet werden. Die Steigerung der Hydrophilie der Copolymere führte sowohl für Keratinozyten als auch für Fibroblasten zu einer reduzierten Adhärenz und Vitalität. In der vorliegenden Doktorarbeit wurde ein Testverfahren etabliert, das die Untersuchung von primären humanen Keratinozyten und primären humanen Fibroblasten in Monokultur und Cokultur auf verschiedenen Polymeren ermöglicht. Die bisherigen Ergebnisse zeigen, dass sich durch die gezielte Modifizierung verschiedener Polymereigenschaften die Adhärenz und Vitalität beider Zelltypen beeinflussen lässt. Die Reduktion der Elastizität sowie die Erhöhung des molaren Anteils geladener Comonomere führten zu einer Zunahme der Keratinozytenadhärenz. Da die Fibroblasten unbeeinflusst blieben, zeigte sich für einige der untersuchten Polymere eine leichte Zellselektivität. Diese könnte durch die weitere Erhöhung der Steifigkeit oder des Anteils geladener Comonomere möglicherweise weiter gesteigert werden.
Einleitung: Die Erdnussallergie zählt zu den häufigsten Nahrungsmittelallergien im Kindesalter. Bereits kleine Mengen Erdnuss (EN) können zu schweren allergischen Reaktionen führen. EN ist der häufigste Auslöser einer lebensbedrohlichen Anaphylaxie bei Kindern und Jugendlichen. Im Gegensatz zu anderen frühkindlichen Nahrungsmittelallergien entwickeln Patienten mit einer EN-Allergie nur selten eine natürliche Toleranz. Seit mehreren Jahren wird daher an kausalen Therapiemöglichkeiten für EN-Allergiker, insbesondere an der oralen Immuntherapie (OIT), geforscht. Erste kleinere Studien zur OIT bei EN-Allergie zeigten erfolgsversprechende Ergebnisse. Im Rahmen einer randomisierten, doppelblind, Placebo-kontrollierten Studie mit größerer Fallzahl werden in der vorliegenden Arbeit die klinische Wirksamkeit und Sicherheit dieser Therapieoption bei Kindern mit EN-Allergie genauer evaluiert. Des Weiteren werden immunologische Veränderungen sowie die Lebensqualität und Therapiebelastung unter OIT untersucht.
Methoden: Kinder zwischen 3-18 Jahren mit einer IgE-vermittelten EN-Allergie wurden in die Studie eingeschlossen. Vor Beginn der OIT wurde eine orale Provokation mit EN durchgeführt. Die Patienten wurden 1:1 randomisiert und entsprechend der Verum- oder Placebogruppe zugeordnet. Begonnen wurde mit 2-120 mg EN bzw. Placebo pro Tag, abhängig von der Reaktionsdosis bei der oralen Provokation. Zunächst wurde die tägliche OIT-Dosis alle zwei Wochen über etwa 14 Monate langsam bis zu einer Erhaltungsdosis von mindestens 500 mg EN (= 125 mg EN-Protein, ~ 1 kleine EN) bzw. Placebo gesteigert. Die maximal erreichte Dosis wurde dann über zwei Monate täglich zu Hause verabreicht. Im Anschluss erfolgte erneut eine orale Provokation mit EN. Der primäre Endpunkt der Studie war die Anzahl an Patienten der Verum- und Placebogruppe, die unter oraler Provokation nach OIT ≥1200 mg EN vertrugen (=„partielle Desensibilisierung“). Sowohl vor als auch nach OIT wurde ein Hautpricktest mit EN durchgeführt und EN-spezifisches IgE und IgG4 im Serum bestimmt. Außerdem wurden die Basophilenaktivierung sowie die Ausschüttung von T-Zell-spezifischen Zytokinen nach Stimulation mit EN in vitro gemessen. Anhand von Fragebögen wurde die Lebensqualität vor und nach OIT sowie die Therapiebelastung während OIT erfasst.
Ergebnisse: 62 Patienten wurden in die Studie eingeschlossen und randomisiert. Nach etwa 16 Monaten unter OIT zeigten 74,2% (23/31) der Patienten der Verumgruppe und nur 16,1% (5/31) der Placebogruppe eine „partielle Desensibilisierung“ gegenüber EN (p<0,001). Im Median vertrugen Patienten der Verumgruppe 4000 mg EN (~8 kleine EN) unter der Provokation nach OIT wohingegen Patienten der Placebogruppe nur 80 mg EN (~1/6 kleine EN) vertrugen (p<0,001). Fast die Hälfte der Patienten der Verumgruppe (41,9%) tolerierten die Höchstdosis von 18 g EN unter Provokation („komplette Desensibilisierung“). Es zeigte sich ein vergleichbares Sicherheitsprofil unter Verum- und Placebo-OIT in Bezug auf objektive Nebenwirkungen. Unter Verum-OIT kam es jedoch signifikant häufiger zu subjektiven Nebenwirkungen wie oralem Juckreiz oder Bauchschmerzen im Vergleich zu Placebo (3,7% der Verum-OIT-Gaben vs. 0,5% der Placebo-OIT-Gaben, p<0,001). Drei Kinder der Verumgruppe (9,7%) und sieben Kinder der Placebogruppe (22,6%) beendeten die Studie vorzeitig, je zwei Patienten beider Gruppen aufgrund von Nebenwirkungen. Im Gegensatz zu Placebo, zeigten sich unter Verum-OIT signifikante immunologische Veränderungen. So kam es zu einer Abnahme des EN-spezifischen Quaddeldurchmessers im Hautpricktest, einem Anstieg der EN-spezifischen IgG4-Werte im Serum sowie zu einer verminderten EN-spezifischen Zytokinsekretion, insbesondere der Th2-spezifischen Zytokine IL-4 und IL-5. Hinsichtlich der EN-spezifischen IgE-Werte sowie der EN-spezifischen Basophilenaktivierung zeigten sich hingegen keine Veränderungen unter OIT. Die Lebensqualität von Kindern der Verumgruppe war nach OIT signifikant verbessert, jedoch nicht bei Kindern der Placebogruppe. Während der OIT wurde die Therapie von fast allen Kindern (82%) und Müttern (82%) als positiv bewertet (= niedrige Therapiebelastung).
Diskussion: Die EN-OIT führte bei einem Großteil der EN-allergischen Kinder zu einer Desensibilisierung und einer deutlich erhöhten Reaktionsschwelle auf EN. Somit sind die Kinder im Alltag vor akzidentellen Reaktionen auf EN geschützt, was die Lebensqualität der Kinder deutlich verbessert. Unter den kontrollierten Studienbedingungen zeigte sich ein akzeptables Sicherheitsprofil, mit vorrangig milder Symptomatik. Die klinische Desensibilisierung ging mit Veränderungen auf immunologischer Ebene einher. Langzeitstudien zur EN-OIT müssen jedoch abgewartet werden, um die klinische und immunologische Wirksamkeit hinsichtlich einer möglichen langfristigen oralen Toleranzinduktion sowie die Sicherheit unter langfristiger OIT zu untersuchen, bevor das Therapiekonzept in die Praxis übertragen werden kann.
Die Dissertation befasst sich mit den Reformprozessen, die sich vom Zeitpunkt des System-umbruchs 1989/90 bis zum EU-Beitritt 2004 in den Ministerialverwaltungen Estlands und Polens vollzogen haben. Die Veränderungen, die während dieser Zeit stattfanden, standen im Spannungsfeld zweier Prozesse: des von innenpolitischen Erfordernissen geprägten Transformationsprozesses und des Europäisierungsprozesses, in dem die EU als einflussreicher externer Akteur hinzutrat. Konzeptionell greift die Untersuchung auf die Diskussionen aus der institutionellen Transformationsforschung und die Debatten um die Europäisierung von Regierungs- und Verwaltungssystemen zurück. Die Arbeit konzentriert sich auf die Veränderungen auf der zentralstaatlichen Ebene und betrachtet diese Veränderungen in ihrer horizontalen und sektoralen Dimension. Die horizontale Dimension umfasst Rahmenbedingungen des Verwaltungssystems insgesamt, dies sind zentrale Strukturen des Regierungsapparates, die regierungsinternen Koordinationsmechanismen und die Etablierung des öffentlichen Dienstes. In der sektoralen Dimension wird die Verwaltung im Politikfeld Landwirtschaft betrachtet. In beiden Ländern gab es einen gemeinsamen Ausgangspunkt der Entwicklungen, das sozialistische Verwaltungssystem, und einen ähnlichen Zielpunkt der Verwaltungsreformen in den 1990er Jahren: eine wie auch immer definierte „moderne Verwaltung“. Auch die Rahmenbedingungen des EU-Integrationsprozesses in Mittelosteuropa lassen eher Konvergenzen erwarten. Doch spielen nationale politische Konstellationen eine entscheidende Rolle für die Entwicklungen, so dass man bilanzierend sagen kann: Estland und Polen haben mit Beginn der Transformation unterschiedliche nationale Entwicklungspfade eingeschlagen und ihre Verwaltungssysteme unterscheiden sich mittlerweile stärker voneinander als zur Zeit des Sozialismus.
Die Entwicklung neuer Verfahren für die Rückführung von Palladium aus Altmaterialien, wie gebrauchten Autoabgaskatalysatoren, in den Stoffstromkreislauf ist sowohl aus ökologischer als auch ökonomischer Sicht erstrebenswert. In dieser Arbeit wurden neue Flüssig-Flüssig- und Fest-Flüssig-Extraktionsmittel entwickelt, mit denen Palladium(II) aus einer oxidierenden, salzsauren Laugungslösung, die neben Palladium auch Platin und Rhodium sowie zahlreiche unedle Metalle enthält, zurückgewonnen werden kann. Die neuen Extraktionsmittel ungesättigte monomere 1,2-Dithioether und oligomere Ligandenmischungen mit vicinalen Dithioether-Einheiten – sind im Gegensatz zu vielen in der Literatur aufgeführten Extraktionsmitteln hochselektiv. Aufgrund ihrer geometrischen und elektronischen Präorganisation bilden sie mit Palladium(II) stabile quadratisch-planare Chelatkomplexe. Für die Entwicklung des Flüssig-Flüssig-Extraktionsmittels wurde eine Reihe von ungesättigten 1,2-Dithioetherliganden dargestellt, welche auf einer starren 1,2-Dithioethen-Einheit, die in ein variierendes elektronenziehendes Grundgerüst eingebettet ist, basieren und polare Seitenketten besitzen. Neben der Bestimmung der Kristallstrukturen der Liganden und ihrer Palladiumdichlorid-Komplexe wurden die elektro- und photochemischen Eigenschaften, die Komplexstabilität und das Verhalten in Lösung untersucht. In Flüssig-Flüssig-Extraktionsuntersuchungen konnte gezeigt werden, dass einige der neuen Liganden industriell genutzten Extraktionsmitteln durch eine schnellere Einstellung des Extraktionsgleichgewichts überlegen sind. Anhand von Kriterien, die für eine industrielle Nutzbarkeit entscheidend sind, wie: guter Oxidationsbeständigkeit, einer hohen Extraktionsausbeute (auch bei hohen Salzsäurekonzentrationen der Speiselösung), schneller Extraktionskinetik und einer hohen Selektivität für Palladium(II) wurde aus der Reihe der sechs Liganden ein geeignetes Flüssig-Flüssig-Extraktionsmittel ausgewählt: 1,2-Bis(2-methoxyethylthio)benzen. Mit diesem wurde ein praxisnahes Flüssig-Flüssig-Extraktionssystem entwickelt. Nach der schrittweisen Adaption der wässrigen Phase von einer Modelllösung hin zu der oxidierenden, salzsauren Laugungslösung erfolgte die Auswahl eines geeigneten großtechnisch, einsetzbaren Lösemittels (1,2-Dichlorbenzen) und eines effizienten Reextraktionsmittels (0,5 M Thioharnstoff in 0,1 M HCl). Die hohe Palladium(II)-Selektivität dieses Flüssig-Flüssig-Extraktionssystems konnte verifiziert und seine Wiederverwendbarkeit und Praxistauglichkeit unter Beweis gestellt werden. Weiterhin wurde gezeigt, dass sich beim Kontakt mit oxidierenden Medien aus dem Dithioether 1,2-Bis(2-methoxyethylthio)benzen geringe Mengen des Thioethersulfoxids 1-(2-Methoxyethylsulfinyl)-2-(2-methoxyethylthio)benzen bilden. Dieses wird im sauren Milieu protoniert und beschleunigt die Extraktion wie ein Phasentransferkatalysator, ohne jedoch die Palladium(II)-Selektivität herabzusetzen. Die Kristallstruktur des Palladiumdichlorid-Komplexes des Tioethersulfoxids zeigt, dass der unprotonierte Ligand Palladium(II), analog zum Dithioether, über die chelatisierenden Schwefelatome koordiniert. Verschiedene Mischungen von Oligo(dithioether)-Liganden und der monomere Ligand 1,2-Bis(2-methoxyethylthio)benzen dienten als Extraktionsmittel für Fest-Flüssig-Extraktionsversuche mit SIRs (solvent impregnated resins) und wurden zu diesem Zweck auf hydrophilem Kieselgel und organophilem Amberlite® XAD 2 adsorbiert. Die Oligo(dithioether)-Liganden basieren auf 1,2-Dithiobenzen oder 1,2-Dithiomaleonitril-Einheiten, welche über Tris(oxyethylen)ethylen- oder Trimethylen-Brücken miteinander verknüpft sind. Mit Hilfe von Batch-Versuchen konnte gezeigt werden, dass sich strukturelle Unterschiede - wie die Art der chelatisierenden Einheit, die Art der verbrückenden Ketten und das Trägermaterial - auf die Extraktionsausbeuten, die Extraktionskinetik und die Beladungskapazität auswirken. Die kieselgelhaltigen SIRs stellen das Extraktionsgleichgewicht viel schneller ein als die Amberlite® XAD 2-haltigen. Jedoch bleiben die Extraktionsmittel auf Amberlite® XAD 2, im Gegensatz zu Kieselgel, dauerhaft haften. Im salzsauren Milieu sind die 1,2-Dithiobenzen-derivate besser als Extraktionsmittel geeignet als die 1,2-Dithiomaleonitrilderivate. In Säulenversuchen mit der oxidierenden, salzsauren Laugungslösung und wiederverwendbaren, mit 1,2-Dithiobenzenderivaten imprägnierten, Amberlite® XAD 2-haltigen SIRs zeigte sich, dass für die Realisierung hoher Beladungskapazitäten sehr geringe Pumpraten benötigt werden. Trotzdem konnte die gute Palladium(II)-Selektivität dieser Festphasenmaterialien demonstriert werden. Allerdings wurden in den Eluaten im Gegensatz zu den Eluaten, die aus Flüssig-Flüssig-Extraktion resultierten neben dem Palladium auch geringe Mengen an Platin, Aluminium, Eisen und Blei gefunden.
Im Rahmen der Dissertation wird die Anwendung und Wirkung von Kernelementen des New Public Management (NPM) am Beispiel der Bürgerdienste der sechs europäischen Hauptstädte Berlin, Brüssel, Kopenhagen, Madrid, Prag und Warschau analysiert. Hierbei steht der Vergleich von Hauptstädten der MOE-Staaten mit Hauptstädten alter EU-Mitgliedsstaaten im Vordergrund. Es wird die folgende Forschungshypothese untersucht: Die Verwaltungen in den Hauptstädten der östlichen Mitgliedsstaaten der EU haben in Folge der grundsätzlichen gesellschaftlichen und politischen Umbrüche in den 1990er Jahren bedeutend mehr Kernelemente des NPM beim Neuaufbau ihrer öffentlichen Verwaltungen eingeführt. Durch den folgerichtigen Aufbau kundenorientierter und moderner Verwaltungen sowie der strikten Anwendung der Kernelemente des New Public Management arbeiten die Bürgerdienste in den Hauptstädten östlicher EU-Mitgliedsstaaten effizienter und wirkungsvoller als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten. Zur Überprüfung der Forschungshypothese werden die Vergleichsstädte zunächst den entsprechenden Rechts- und Verwaltungstraditionen (kontinentaleuropäisch deutsch, napoleonisch und skandinavisch) zugeordnet und bezüglich ihrer Ausgangslage zum Aufbau einer modernen Verwaltung (Westeuropäische Verwaltung, Wiedervereinigungsverwaltung und Transformations-verwaltung) kategorisiert. Im Anschluss werden die institutionellen Voraussetzungen hinterfragt, was die deskriptive Darstellung der Stadt- und Verwaltungsgeschichte sowie die Untersuchung von organisatorischen Strukturen der Bürgerdienste, die Anwendung der NPM-Instrumente als auch die Innen- und Außenperspektive des NPM umfasst. Es wird festgestellt, ob und in welcher Form die Bürgerdienste der Vergleichsstädte die Kernelemente des NPM anwenden. Im Anschluss werden die Vergleichsstädte bezüglich der Anwendung der Kernelemente miteinander verglichen, wobei der Fokus auf dem persönlichen Vertriebsweg und der Kundenorientierung liegt. Der folgende Teil der Dissertation befasst sich mit dem Output der Bürgerdienste, der auf operative Resultate untersucht und verglichen wird. Hierbei stellt sich insbesondere die Frage nach den Leistungsmengen und der Produktivität des Outputs. Es werden aber auch die Ergebnisse von Verwaltungsprozessen untersucht, insbesondere in Bezug auf die Kundenorientierung. Hierfür wird ein Effizienzvergleich der Bürgerdienste in den Vergleichsstädten anhand einer relativen Effizienzmessung und der Free Disposal Hull (FDH)-Methode nach Bouckaert durchgeführt. Es ist eine Konzentration auf populäre Dienstleistungen aus dem Portfolio der Bürgerdienste notwendig. Daher werden die vergleichbaren Dienstleistungen Melde-, Personalausweis-, Führerschein- und Reisepass-angelegenheiten unter Einbeziehung des Vollzeitäquivalents zur Berechnung der Effizienz der Bürgerdienste herangezogen. Hierfür werden Daten aus den Jahren 2009 bis 2011 genutzt, die teilweise aus verwaltungsinternen Datenbanken stammen. Anschließend wird der Versuch unternommen, den Outcome in die Effizienzanalyse der Bürgerdienste einfließen zu lassen. In diesem Zusammenhang wird die Anwendbarkeit von verschiedenen erweiterten Best-Practice-Verfahren und auch eine Erweiterung der relativen Effizienzmessung und der FDH-Methode geprüft. Als Gesamtfazit der Dissertation kann festgehalten werden, dass die Bürgerdienste in den untersuchten Hauptstädten der MOE-Staaten nicht mehr Kernelemente des NPM anwenden, als die Hauptstädte der westlichen Mitgliedsstaaten der EU. Im Gegenteil wendet Prag deutlich weniger NPM-Instrumente als andere Vergleichsstädte an, wohingegen Warschau zwar viele NPM-Instrumente anwendet, jedoch immer von einer westeuropäischen Vergleichsstadt übertroffen wird. Auch die Hypothese, dass die Bürgerdienste in den Hauptstädten der MOE-Staaten effizienter arbeiten als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten wurde durch die Dissertation entkräftet. Das Gegenteil ist der Fall, da Prag und Warschau im Rahmen des Effizienzvergleichs lediglich durchschnittliche oder schlechte Performances aufweisen. Die aufgestellte Hypothese ist durch die Forschungsergebnisse widerlegt, lediglich das gute Abschneiden der Vergleichsstadt Warschau bei der Anwendungsanalyse kann einen Teil der These im gewissen Umfang bestätigen.
Der technologische Wandel stellt Organisationen vor die Herausforderung, Innovationen möglichst schnell produktiv zu nutzen und damit einen Wettbewerbsvorteil zu erzielen. Der Erfolg der Technologieeinführung hängt stark mit der Schaffung von Akzeptanz bei den Mitarbeitern zusammen. Bestehende Ansätze wie die Diffusionstheorie (Rogers, 2003) oder das Technology Acceptance Model (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003) widmen sich dem Organisationskontext jedoch nur am Rande. Ihre Modelle zielen auf die Übernahme einer Technologie in freier Entscheidung und im Marktkontext ab. Weiterhin beleuchten sie den Widerstand gegen Neuerungen nicht, welcher sich bei der verpflichtenden Übernahme bilden kann. Zur Untersuchung der Technologieeinführung und von Akzeptanzbildungsprozessen in Organisationen sind sie daher nur begrenzt nutzbar.
Das Ziel dieser Arbeit ist es daher, den spezifischen Einfluss des Kontextes Organisation auf die Akzeptanz und das Nutzungsverhalten herauszuarbeiten. Konkreter soll die Forschungsfrage geklärt werden, welchen Einfluss unterschiedliche Organisationstypen auf die Akzeptanz- und Nutzungsdynamik innerhalb von Organisationen haben. Hierfür wird die Erweiterung und Synthese bestehender Modelle der Akzeptanzforschung um organisationsspezifische Attribute vorgenommen. Das resultierende Modell erfasst die dynamische Entwicklung innerhalb der Organisation und ermöglicht damit die Beobachtung des Wandels. Die Funktionsweise des entwickelten Modells soll in einem Simulationsexperiment demonstriert und die Wirkung unterschiedlicher Organisationsformen verdeutlicht werden.
Das Modell vereint daher zwei Perspektiven: Die personale Perspektive fasst Akzeptanz als kognitiv-psychischen Prozess auf individueller Ebene. Dieser basiert auf den Kalkülen und Entscheidungen einzelner Personen. Zentral sind hierfür die Beiträge der Diffusionstheorie (Rogers, 2003) sowie das Technology Acceptance Model in seinen diversen Weiterentwicklungen und Veränderungen (Davis, 1989; Venkatesh und Davis, 1996; Venkatesh und Davis, 2000; Venkatesh, Morris u. a., 2003). Individuelle Faktoren aus unterschiedlichen Fit-Theorien (Goodhue und Thompson, 1995; Floyd, 1986; Liu, Lee und Chen, 2011; Parkes, 2013) werden genutzt, um diese Modelle anzureichern. Neben der Entwicklung
einer positiven, förderlichen Einstellung muss jedoch auch die Ablehnung und das offene Opponieren gegen die Innovation berücksichtigt werden (Patsiotis, Hughes und Webber, 2012).
Die organisatorische Perspektive hingegen sieht Akzeptanzentscheidungen eingebettet in den sozialen Kontext der Organisation. Die gegenseitige Beeinflussung basiert auf der Beobachtung der Umgebung und der Internalisierung sozialen Drucks. Dem steht in Organisationen die intendierte Beeinflussung in Form von Steuerung gegenüber. Beide Vorgänge formen das Akzeptanz- oder das Nutzungsverhalten der Mitarbeiter. Ausgehend von einem systemtheoretischen Organisationsbegriff werden unterschiedliche Steuerungsmedien (Luhmann, 1997; Fischer, 2009) vorgestellt. Diese können durch Steuerungsakteure
(Change Agents, Management) intendiert eingesetzt werden, um den Akzeptanz- und Nutzungsprozess über Interventionen zu gestalten.
Die Wirkung der Medien unterscheidet sich in verschiedenen Organisationstypen. Zur Analyse unterschiedlicher Organisationstypen werden die Konfigurationen nach Mintzberg (1979) herangezogen. Diese zeichnen sich durch unterschiedliche Koordinationsmechanismen aus, welche wiederum auf dem Einsatz von Steuerungsmedien beruhen.
Die Demonstration der Funktionsweise und Analysemöglichkeiten des entwickelten Modells erfolgt anhand eines Simulationsexperiments mittels der Simulationsplattform AnyLogic. Das Gültigkeitsspektrum wird anhand einer Sensitivitätsanalyse geprüft.
In der Simulation lassen sich spezifische Muster der Nutzung und Akzeptanzentwicklung nachweisen. Die Akzeptanz ist durch ein initiales Absinken und ein anschließendes gedämpftes Wachstum gekennzeichnet. Die Nutzung wird in der Organisation hingegen schnell durchgesetzt und verharrt dann auf einem stabilen Niveau. Für die Organisationstypen konnten unterschiedliche Effekte beobachtet werden. So eignet sich die bürokratische Steuerungsform zur Nutzungserhöhung, schafft es jedoch nicht, die Akzeptanz zu steigern. Organisationen, welche eher auf gegenseitige Abstimmung zur Koordination ausgelegt sind, erhöhen die Akzeptanz, jedoch nicht die Nutzung. Weiterhin ist die Entwicklung der Akzeptanz in diesem Organisationstyp sehr unsicher und weist einen hohen Schwankungsbereich auf.
Identifikation des mitochondrialen Proteins Frataxin als stoffwechselmodulierenden Tumorsuppressor
(2004)
Die Krebsentstehung wurde vor rund 80 Jahren auf veränderten zellulären Energiestoffwechsel zurückgeführt. Diese Hypothese konnte bisher weder experimentell bewiesen noch widerlegt werden. Durch den Einsatz zweier Modellsysteme mit unterschiedlicher Expression des mitochondrialen Proteins Frataxin konnte in der vorliegenden Arbeit gezeigt werden, dass der mitochondriale Energiestoffwechsel einen Einfluss auf die Tumorentstehung zu besitzen scheint. Eine Reduktion des mitochondrialen Energiestoffwechsels wurde durch die hepatozytenspezifische Ausschaltung des mitochondrialen Proteins Frataxin in Mäusen erreicht. Der durch das Cre-/loxP-Rekombinasesystem erreichte organspezifische Knock-out wurde auf Transkriptions- und Translationsebene nachgewiesen. Anhand verminderter Aconitaseaktivität, geringeren Sauerstoffverbrauches und reduzierten ATP-Gehaltes im Lebergewebe wurde ein signifikant verminderter Energiestoffwechsel dargestellt. Zwar entsprach die Genotypenverteilung in den Versuchsgruppen der erwarteten Mendelschen Verteilung, dennoch war die mittlere Lebenserwartung der Knock-out-Tiere mit ca. 30 Wochen stark reduziert. Bereits in jungem Alter war bei diesen Tieren die Ausbildung von präneoplastischen Herden zu beobachten. Mit proteinbiochemischen Nachweistechniken konnte in Lebergewebe 4-8 Wochen alter Tiere eine verstärkte Aktivierung des Apoptosesignalweges (Cytochrom C im Zytosol, verstärkte Expression von Bax) sowie eine Modulation stressassoziierter Proteine (geringere Phosphorylierungsrate p38-MAPK, vermehrte Expression HSP-25, verminderte Expression HSP-70) aufgezeigt werden. Im inversen Ansatz wurde eine Steigerung des mitochondrialen Energiestoffwechsels durch stabile transgene Frataxinüberexpression in zwei Kolonkarzinomzelllinien erreicht. Diese Steigerung zeigte sich durch erhöhte Aconitaseaktivität, erhöhten Sauerstoffverbrauch, gesteigertes mitochondriales Membranpotenzial und erhöhten ATP-Gehalt in den Zellen. Die frataxinüberexprimierenden Zellen wuchsen signifikant langsamer als Kontrollzellen und zeigten im Soft-Agar-Assay und im Nacktmausmodell ein deutlich geringeres Potenzial zur Ausbildung von Kolonien bzw. Tumoren. Mittels Immunoblot war hier eine vermehrte Phosphorylierung der p38-MAPK festzustellen. Die zusammenfassende Betrachtung beider Modelle zeigt, dass ein reduzierter mitochondrialer Energiestoffwechsel durch Regulation der p38-MAPK und apoptotischer Signalwege ein erhöhtes Krebsrisiko zu verursachen vermag.
Die Interdependenz formaler und informaler Strukturen im Lichte der Systemtheorie Niklas Luhmanns
(2009)
Die meisten Menschen verbringen heutzutage den Großteil ihres Daseins in Organisationen. Sie werden immer häufiger in Organisationen geboren (Krankenhaus), in Organisationen sozialisiert (Kindergärten, Schulen usw.), sind für ihre Existenzsicherung auf Lohnzahlungen von Organisationen angewiesen, und zunehmend fristen sie ihr Lebensende in Organisationen (Krankenhaus, Altenheim etc.). Aus soziologischer Sicht sind Organisationen deshalb besonders interessant und verdienen eine besondere Beachtung in der Gesellschaftsanalyse. In dieser Untersuchung soll nicht der Siegeszug der Organisation in der soziokulturellen Evolution der Gesellschaft im Mittelpunkt stehen, sondern die Frage: Wie kommt das Driften (Maturana, Varela, 1991) der Organisation zustande? Geht man davon aus, dass in der Evolution Aussterben die Regel und Anpassung die Ausnahme ist, scheint der Aspekt des Driftens organisierter Sozialsysteme besonderes Augenmerk zu verdienen. Liest man die für Deutschland veröffentlichten Zahlen der Unternehmensinsolvenzen, gerade in den heutigen Zeiten der Wirtschafts- und Finanzkrise, scheint der Fortbestand einer einmal ins Leben gerufenen Organisation eher ungewiss als gesichert zu sein. Des Weiteren scheint es so zu sein, dass Organisationen gewissen Lebenszyklen (Küpper, Felsch) unterworfen sind. In den älteren Organisationstheorien wurde noch von einem einheitlichen Zweck ausgegangen, der die gesamte Strukturierung der Organisation übergreift. Alle Organisationsmitglieder haben ihr Handeln im Hinblick auf die Verwirklichung dieses spezifischen Zwecks der Intention nach rational zu gestalten. In der Organisationsanalyse stellte man aber fest, dass Zweckverschiebungen innerhalb der formalen Organisationen eher die Regel als die Ausnahme sind. (Mayntz, 1963 u.a.) Dies Problem der rational gestalteten Organisation wurde somit den Organisationsmitgliedern zugeschrieben. Gleichsam als die andere Seite der formalen Organisation agieren die Mitglieder der formalen Organisation in der informellen Organisation als Mikropolitiker (Bosetzky, Heinrich, 1989), die die formalen Strukturen unterminieren, um ihre persönliche Nutzenmaximierung voranzutreiben. Übernimmt man diese Perspektive für die Betrachtung der formalen Organisation, kann man sich schwer der Annahme verweigern, dass die Organisationsmitglieder grundlegend feindlich gegenüber der Organisation gesinnt sind. Mit dieser Perspektive würde man all den freiwilligen Mitgliedern in Hilfsorganisationen, sozialen Vereinen usw. nicht gerecht werden. In der hier durchgeführten Analyse wird die Perspektive der Luhmannschen Systemtheorie eingenommen. Damit sind die Organisationsmitglieder nicht aus der theoretischen Betrachtung eliminiert, sondern im Gegenteil, sie werden in der Umwelt der organisierten Sozialsysteme verortet. Das hat den entscheidenden Vorteil, dass den Organisationsmitgliedern aus der theoretischen Betrachtung heraus mehr Freiheit zugestanden wird als in akteurszentrierten Theorien. Denn Systembildung bedeutet immer die Streichung mindestens eines Freiheitsgrades (Foerster von, 1997). Mit der Luhmannschen Systemtheorie wird des Weiteren davon ausgegangen, dass sich gleichsam unbeobachtet hinter dem Rücken der Anwesenden ein Netzwerk webt, ein soziales System sich bildet. Alle sozialen Systeme beruhen letztlich auf der Unterscheidung von Bewusstsein und Kommunikation. Die Kommunikation selbst kann man nicht beobachten sondern nur erschließen. Solange sie störungsfrei läuft, bleibt sie den Anwesenden unbewusst. Erst bei Störungen des Kommunikationsflusses macht sie sich bemerkbar, obgleich sie fast nie den Anwesenden bewusst wird. Denn die Kommunikation drillt den Menschen auf den Menschen, weil sie sich der Wahrnehmung entzieht (Fuchs, 1998). Die Autopoiesis der Kommunikation ist auf die Anwesenheit zweier psychischer Systeme bzw. Bewusstseinssysteme angewiesen. Sie ermöglichen überhaupt erst den Raum oder den Phänomenbereich, in dem die Autopoiesis sozialer Systeme möglich ist (Luhmann, 1990). Die Autopoiesis der Kommunikation setzt entsprechend immer Interaktion der Anwesenden voraus. In der Interaktion selbst, werden sich die Anwesenden in besonderer Weise wechselseitig bewusst und können sich entsprechend anders zur Geltung bringen, als in den Strukturzwängen einer formalern Organisation. Die Kommunikation selbst gibt den Beteiligten gewisse Changiermöglichkeiten an die Hand, z.B. das An- und Ausschalten verschiedener operativer Displacement (Fuchs, 1993), um ihren störungsfreien Ablauf zu ermöglichen und entsprechende Brüche zu vermeiden. Zum Beispiel den nahtlosen Übergang von einem Thema zu einem anderen. Die Interaktion selbst wird als zeitinstabiles Kontaktsystem (Luhmann, 1997) begriffen, das mit dem Auseinandergehen der Beteiligten erloschen ist. Die hier kurz angerissene Bedeutung der Kommunikation in der Luhmannschen Systemtheorie erklärt, warum ihr in der durchgeführten Analyse ein so breiter Raum eingeräumt wurde. Organisationen sind Sozialsysteme eines anderen Typs und besitzen damit verbunden ganz andere emergente Eigenschaften. Sie können mit der diffusen Kommunikation der Interaktion nichts anfangen. Ihre Operationen basieren auf Entscheidungen. Jede Entscheidung schließt an eine Entscheidungskommunikation an, aber sie selbst ist die Sinnverdichtung dieser Kommunikation. Und eben dieser Sachverhalt stellt ihre Effizienz, ihr Tempovorteil gegenüber allen anderen Typen sozialer Systeme dar. Erst wenn es der Organisation gelingt Entscheidungen an Entscheidungen zu knüpfen, ist sie in der Lage ihr eigenes Netzwerk ihrer eigenen Entscheidungen zu etablieren. Nur in der Form der Entscheidung kann sie ihre für sie selbst nicht weiter hintergehbaren Systemelemente (Entscheidungen) aneinander anschließen, Entscheidungen anhand von Entscheidungen produzieren. Gelingt ihr das, gewinnen die Entscheidungen füreinander Relevanz, können sich wechselseitig stützen, vorbereiten und entlasten. Jede Entscheidung muss jetzt ihre eigene Vorgängerentscheidung und den jeweiligen Kontext anderer Entscheidungen mit berücksichtigen. Es bildet sich ein Zusammenhang der Entscheidungen, der die Grenzen des Systems begründet und bezeichnet. Da jede Organisation sich immer nur jeweils im Moment ihres Entscheidens realisiert, bekommt sie ein Zeitproblem. Man muss nicht nur entscheiden, sondern man muss mit Bezug auf den Entscheidungszusammenhang korrekt und rechtzeitig entscheiden bevor sich das zu entscheidende Problem zu Ungunsten der Organisation von selbst erledigt hat. Alles was jetzt in der Organisation als relevant betrachtet werden soll, muss die Form einer Entscheidung annehmen. Dies bedeutet nicht, dass in der Entscheidungskommunikation nicht Einfluss auf die Entscheidung genommen werden kann, aber zum einen wird man aufgrund des Entscheidungsdrucks versuchen die Entscheidungskommunikation soweit wie möglich zu verkürzen, z.B durch Programmierung. Zum anderen sieht man der Entscheidung ihre Entscheidungskommunikation nicht an. Man kann sie nur noch erahnen. Organisationen kommunizieren am liebsten mit Organisationen in ihrer Umwelt, da diese gezwungen sind, selbst Entscheidungen zu produzieren, mit denen man selbst etwas anfangen kann. Man kann sie entweder in den eigenen Entscheidungszusammenhang übernehmen, oder man kann sie mit einer eigenen Entscheidung ablehnen. Aber jede Entscheidung, die die Organisation trifft bestätigt oder ändert ihre Strukturen. Dieser Gedankengang führte zu der Überlegung, dass informale Strukturen selbst organisierte Interaktionssysteme sein müssen. Sie müssen sich bereits in irgendeiner Form selbst organisieren. Sie stehen unter dem Gesetz des Wiedersehens. Die sozialen Kontakte werden sich in einem absehbaren Zeit- und Interessenhorizont wiederholen, sich verdichten und konfirmieren (Luhmann, 1997) und dies erfordert bereits ein gewisses Maß an Organisation. Man muss die nächsten Treffen planen, ein Thema auswählen usw. Letztlich produzieren sie Entscheidungen mit denen die formale Organisation etwas anfangen kann. Dies ist einer der Gründe, warum sich die formale Organisation zunehmend den Zugriff auf informale Strukturen ermöglicht.
Moderne Technologien befähigen die beteiligten Akteure eines Produktionsprozesses die Informationsaufnahme, Entscheidungsfindung und -ausführung selbstständig auszuführen. Hierarchische Kontrollbeziehungen werden aufgelöst und die Entscheidungsfindung auf eine Vielzahl von Akteuren verteilt. Positive Folgen sind unter anderem die Nutzung lokaler Kompetenzen und ein schnelles Handeln vor Ort ohne (zeit-)aufwändige prozessübergreifende Planungsläufe durch eine zentrale Steuerungsinstanz. Die Bewertung der Dezentralität des Prozesses hilft beim Vergleich verschiedener Steuerungsstrategien und trägt so zur Beherrschung komplexerer Produktionsprozesse bei.
Obwohl die Kommunikationsstruktur der an der Entscheidungsfindung beteiligten Akteure zunehmend an Bedeutung gewinnt, existiert keine Methode, welche diese als Grundlage für die Operationalisierung der Dezentralität verwendet. Hier setzt diese Arbeit an. Es wird ein dreistufiges Bewertungsmodell entwickelt, dass die Dezentralität eines Produktionsprozesses auf Basis der Kommunikations- und Entscheidungsstruktur der am Prozess beteiligten, autonomen Akteure ermittelt.
Aufbauend auf einer Definition von Dezentralität von Produktionsprozessen werden Anforderungen an eine Kennzahl erhoben und - auf Basis der Kommunikationsstruktur - eine die strukturelle Autonomie der Akteure bestimmenden Kenngröße der sozialen Netzwerkanalyse ermittelt. Die Notwendigkeit der zusätzlichen Berücksichtigung der Entscheidungsstruktur wird basierend auf der Möglichkeit der Integration von Entscheidungsfindung und -ausführung begründet.
Die Differenzierung beider Faktoren bildet die Grundlage für die Klassifikation der Akteure; die Multiplikation beider Werte resultiert in dem die Autonomie eines Akteurs beschreibenden Kennwert tatsächliche Autonomie, welcher das Ergebnis der ersten Stufe des Modells darstellt. Homogene Akteurswerte charakterisieren eine hohe Dezentralität des Prozessschrittes, welcher Betrachtungsobjekt der zweiten Stufe ist. Durch einen Vergleich der vorhandenen mit der maximal möglichen Dezentralität der Prozessschritte wird auf der dritten Stufe der Autonomie Index ermittelt, welcher die Dezentralität des Prozesses operationalisiert.
Das erstellte Bewertungsmodell wird anhand einer Simulationsstudie im Zentrum Industrie 4.0 validiert. Dafür wird das Modell auf zwei Simulationsexperimente - einmal mit einer zentralen und einmal mit einer dezentralen Steuerung - angewendet und die Ergebnisse verglichen. Zusätzlich wird es auf einen umfangreichen Produktionsprozess aus der Praxis angewendet.
Mit Seitenkettenpolystyrenen wurde ein neues Synthesekonzept für phosphoreszente polymere LED-Materialien aufgestellt und experimentell verifiziert. Zunächst erfolgten auf Grundlage strukturell einfacher Verbindungen Untersuchungen zum Einfluss von Spacern zwischen aktiven Seitengruppen und dem Polystyrenrückgrat. Es wurden Synthesemethoden für die Monomere etabliert, durch die aktive Elemente - Elektronen- und Lochleiter - mit und ohne diesen Spacer zugänglich sind. Durch Kombination dieser Monomere waren unter Hinzunahme von polymerisierbaren Iridium-Komplexen in unterschiedlicher Emissionswellenlänge statistische Terpolymere darstellbar. Es wurde gezeigt, dass die Realisierung bestimmter Verhältnisse zwischen Loch-, Elektronenleiter und Triplettemitter in ausreichender Molmasse möglich ist. Die Glasstufen der Polymere zeigten eine deutliche Strukturabhängigkeit. Auf die Lage der Grenzorbitale übten die Spacer nahezu keinen Einfluss aus. Die unterschiedlichen Makromoleküle kamen in polymeren Licht emittierenden Dioden (PLEDs) zum Einsatz, wobei ein deutlicher Einfluss der Spacereinheiten auf die Leistungscharakteristik der PLEDs festzustellen war: Sowohl Effizienz, Leuchtdichte wie auch Stromdichte waren durch den Einsatz der kompakten Makromoleküle ohne Spacer deutlich höher. Diese Beobachtungen begründeten sich hauptsächlich in der Verwendung der aliphatischen Spacer, die den Anteil im Polymer erhöhten, der keine Konjugation und damit elektrisch isolierende Eigenschaften besaß. Diese Schlussfolgerungen waren mit allen drei realisierten Emissionsfarben grün, rot und blau verifizierbar. Die besten Messergebnisse erzielte eine PLED aus einem grün emittierenden und spacerlosen Terpolymer mit einer Stromeffizienz von etwa 28 cd A-1 (bei 6 V) und einer Leuchtdichte von 3200 cd m-2 (bei 8 V). Ausgehend von obigen Ergebnissen konnten neue Matrixmaterialien aus dem Bereich verdampfbarer Moleküle geringer Molmasse in das Polystyrenseitenkettenkonzept integriert werden. Es wurden Strukturvariationen sowohl von loch- wie auch von elektronenleitenden Verbindungen als Homopolymere dargestellt und als molekular dotierte Systeme in PLEDs untersucht. Sieben verschiedene lochleitende Polymere mit Triarylamin-Grundkörper und drei elektronendefizitäre Polymere auf der Basis von Phenylbenzimidazol konnten erfolgreich in den Polymeransatz integriert werden. Spektroskopische und elektrochemische Untersuchungen zeigten kaum eine Veränderung der Charakteristika zwischen verdampfbaren Molekülen und den dargestellten Makromolekülen. Diese ladungstransportierenden Makro-moleküle wurden als polymere Matrizes molekular dotiert und lösungsbasiert zu Einschicht-PLEDs verarbeitet. Als aussichtsreichstes Lochleiterpolymer dieser Reihe, mit einer Strom-effizenz von etwa 33 cd A-1 (bei 8 V) und einer Leuchtdichte von 6700 cd m-2 (bei 10 V), stellte sich ein Triarylaminderivat mit Carbazolsubstituenten heraus. Als geeignetstes Matrixmaterial für die Elektronenleitung wurde ein meta-verknüpftes Di-Phenylbenzimidazol ausfindig gemacht, das in der PLED eine Stromeffizienz von etwa 20 cd A-1 (bei 8 V) und eine Leuchtdichte von 7100 cd m-2 (bei 10 V) erzielte. Anschließend wurden die geeignetsten Monomere zu Copolymeren kombiniert: Die lochleitende Einheit bildete ein carbazolylsubstituiertes Triarylamin und die elektronen-leitende Einheit war ein disubstituiertes Phenylbenzimidazol. Dieses Copolymer diente im Folgenden dazu, PLEDs zu realisieren und die Leistungsdaten mit denen eines Homopolymer-blends zu vergleichen, wobei der Blend die bessere Leistungscharakteristik zeigte. Mit dem Homopolymerblend waren Bauteileffizienzen von annähernd 30 cd A-1 (bei 10 V) und Leuchtdichten von 6800 cd m-2 neben einer Verringerung der Einsatzspannung realisierbar. Für die abschließende Darstellung bipolarer Blockcopolymere wurde auf die Nitroxid-vermittelte Polymerisation zurückgegriffen. Mit dieser Technik waren kontrollierte radikalische Polymersiationen mit ausgewählten Monomeren in unterschiedlichen Block-längen durchführbar. Diese Blockcopolymere kamen als molekular dotierte Matrizes in phosphoreszenten grün emittierenden PLEDs zum Einsatz. Die Bauteile wurden sowohl mit statistischen Copolymeren, wie auch mit Homopolymerblends in gleicher Zusammensetzung aber unterschiedlichem Polymerisationsgrad hinsichtlich der Leistungscharakteristik verglichen. Kernaussage dieser Untersuchungen ist, dass hochmolekulare Systeme eine bessere Leistungscharakteristik aufweisen als niedermolekulare Matrizes. Über Rasterkraft-mikroskopie konnte eine Phasenseparation in einem Größenbereich von etwa 10 nm für den hochmolekularen Homopolymerblend nachgewiesen werden. Für die Blockcopolymere war es nicht möglich eine Phasenseparation zu beobachten, was vorwiegend auf deren zu geringe Blocklänge zurückgeführt wurde.
Das serotonerge System besitzt sowohl bei Invertebraten als auch bei Vertebraten eine große Bedeutung für die Kontrolle und Modulation vieler physiologischer Prozesse und Verhaltensleistungen. Bei der Honigbiene Apis mellifera spielt Serotonin (5-Hydroxytryptamin, 5-HT) eine wichtige Rolle bei der Arbeitsteilung und dem Lernen. Die 5-HT-Rezeptoren, die überwiegend zur Familie der G-Protein gekoppelten Rezeptoren (GPCRs) gehören, besitzen eine Schlüsselstellung für das Verständnis der molekularen Mechanismen der serotonergen Signalweiterleitung. Ziel dieser Arbeit war es, 5-HT-Rezeptoren der Honigbiene zu charakterisieren. Dazu zählt die Identifizierung der molekularen Struktur, die Ermittlung der intrazellulären Signalwege, die Erstellung von pharmakologischen Profilen, die Ermittlung der Expressionsmuster und die Ermittlung der physiologischen Funktionen der Rezeptoren. Mit Hilfe der Informationen aus dem Honey Bee Genome Project, konnten drei RezeptorcDNAs kloniert werden. Vergleiche der abgeleiteten Aminosäuresequenzen mit den Aminosäuresequenzen bereits charakterisierter Rezeptoren legten nahe, dass es sich dabei um einen 5-HT1- (Am5-HT1) und zwei 5-HT2-Rezeptoren (Am5-HT2α und Am5-HT2β) handelt. Die strukturelle Analyse der abgeleiteten Aminosäuresequenz dieser Rezeptoren postuliert das Vorhandensein der charakteristischen heptahelikalen Architektur von GPCRs und zeigt starkkonservierte Motive, die bedeutend für die Ligandenbindung, die Rezeptoraktivierung und die Kopplung an G-Proteine sind. Für die beiden 5 HT2-Rezeptoren konnte zudem alternatives Spleißen nachgewiesen werden. Mit den cDNAs des Am5-HT1- und des Am5-HT2α-Rezeptors wurden HEK293-Zellen stabil transfiziert und anschließend die Rezeptoren funktionell und pharmakologisch analysiert. Am5-HT1 hemmt bei Aktivierung abhängig von der 5-HT-Konzentration die cAMPProduktion.Die Substanzen 5-Methoxytryptamin (5-MT) und 5-Carboxamidotryptamin konnten als Agonisten identifiziert werden. Methiothepin dagegen blockiert die 5-HTWirkung vollständig. Prazosin und WAY100635 stellen partielle Antagonisten des Am5-HT1-Rezeptors dar. Der Am5-HT2_-Rezeptor stimuliert bei Aktivierung die Synthese des sekundären Botenstoffs Inositoltrisphosphat, was wiederum zu einer messbaren Erhöhung der intrazellulären Ca2+-Konzentration führt. 5-MT und 8-OH-DPAT zeigen eine deutliche agonistische Wirkung auf Am5-HT2α. Dagegen besitzen Clozapin, Methiothepin, Mianserin und Cyproheptadin die Fähigkeit, die 5-HT-Wirkung um 51-64 % zu vermindern. Die bereits erwähnte alternative Spleißvariante von Am5-HT2α wurde ebenfalls in HEK293-Zellen exprimiert und analysiert, scheint jedoch eigenständig nicht funktionell zu sein. Gegen die dritte cytoplasmatische Schleife (CPL3) wurde ein polyklonales Antiserum generiert. Dieses erkennt in Western-Blot-Analysen ein Protein mit einer Masse von ca. 50 kDa. Durch immunhistochemische Analysen am Bienengehirn wurde die Verteilung des Rezeptors genauer untersucht. Dabei zeigten die optischen Neuropile, besonders die Lamina und die Ocellarnerven, stets eine starke Markierung. Außerdem wird der Rezeptor in den α- und β-Loben sowie der Lippe, dem Basalring und dem Pedunculus der Pilzkörper exprimiert. Doppelmarkierungen zeigen stets eine enge Nachbarschaft von serotonergen Fasern und dem Am5-HT1-Rezeptor. Weiterhin konnte gezeigt werden, dass der Am5-HT1-Rezeptor sehr wahrscheinlich an der Regulation des phototaktischen Verhalten der Honigbiene beteiligt ist. Verfütterung von 5-HT hat eine deutlich negative Wirkung auf das phototaktischen Verhalten. Diese kann durch den Am5-HT1-Rezeptor-Agonisten 5-CT imitiert werden. Schließlich konnte gezeigt werden, dass der Am5-HT1-Antagonist Prazosin die 5-HT-Wirkung deutlich vermindern kann.
Korrelation zwischen der genetischen und der funktionellen Diversität humaner Bitterrezeptoren
(2013)
Der Mensch besitzt ~25 funktionelle Bitterrezeptoren (TAS2R), die für die Wahrnehmung potenziell toxischer Substanzen in der Nahrung verantwortlich sind. Aufgrund der großen genetischen Variabilität der TAS2R-Gene könnte es eine Vielzahl funktionell unterschiedlicher TAS2R-Haplotypen geben, die zu Unterschieden der Bitterwahrnehmung führen. Dies konnte bereits in funktionellen Analysen und sensorischen Studien für einzelne Bitterrezeptoren gezeigt werden. In dieser Arbeit wurden die häufigsten Haplotypen aller 25 Bitterrezeptoren verschiedener Ethnien funktionell charakterisiert. Das Ziel war eine umfassende Aussage über die funktionelle Diversität der TAS2Rs, die die molekulare Grundlage für individuelle Bitterwahrnehmung bildet, treffen zu können. Fehlende Varianten wurden aus genomischer DNA kloniert oder durch gezielte Mutagenese bereits vorhandener TAS2R-Konstrukte generiert. Die funktionelle Analyse erfolgte mittels Expression der TAS2R-Haplotypen in HEK293TG16gust44 Zellen und anschließenden Calcium-Imaging-Experimenten mit zwei bekannten Agonisten. Die Haplotypen der fünf orphanen TAS2Rs wurden mit über hundert Bitterstoffen stimuliert. Durch die gelungene Deorphanisierung des TAS2R41 in dieser Arbeit, wurden für die 21 aktivierbaren TAS2Rs 36 funktionell-unterschiedliche Haplotypen identifiziert. Die tatsächliche funktionelle Vielfalt blieb jedoch deutlich hinter der genetischen Variabilität der TAS2Rs zurück. Neun Bitterrezeptoren wiesen funktionell homogene Haplotypen auf oder besaßen nur eine weltweit vorherrschende Variante. Funktionell heterogene Haplotypen wurden für zwölf TAS2Rs identifiziert. Inaktive Varianten der Rezeptoren TAS2R9, TAS2R38 und TAS2R46 sollten die Wahrnehmung von Bitterstoffen wie Ofloxacin, Cnicin, Hydrocortison, Limonin, Parthenolid oder Strychnin beeinflussen. Unterschiedlich sensitive Varianten, besonders der Rezeptoren TAS2R47 und TAS2R49, sollten für Agonisten wie Absinthin, Amarogentin oder Cromolyn ebenfalls zu phänotypischen Unterschieden führen. Wie für den TAS2R16 bereits gezeigt, traten Haplotypen des funktionell heterogenen TAS2R7 und TAS2R41 ethnien-spezifisch auf, was auf lokale Anpassung und verschiedene Phänotypen hinweisen könnte. Weiterführend muss nun eine Analyse der funktionell-variablen TAS2Rs in sensorischen Tests erfolgen, um ihre phänotypische Relevanz zu prüfen. Die Analyse der funktionsmodulierenden Aminosäurepositionen, z.Bsp. des TAS2R44, TAS2R47 oder TAS2R49, könnte weiterführend zum besseren Verständnis der Rezeptor-Ligand- und Rezeptor-G-Protein-Interaktion beitragen.
Die Ausstattung der gastrointestinalen Mukosa des Menschen und der Ratte mit Sulfotransferasen wurde mit Hilfe von Immunodetektion und Enzymaktivitätsmessungen untersucht. In Proben aus Colon und Rektum von 39 Personen wurden die Formen h1A1, h1A3 und h1B1 identifiziert, wobei in einer weiteren Probe, die als einzige von einem an Colitis Ulcerosa erkrankten Patienten stammte, keine Sulfotransferasen nachgewiesen werden konnten. Bei der Immunblot-Analyse war das Expressionsmuster der einzelnen Formen in allen Proben ähnlich. In wenigen Proben waren die relativen Signalintensitäten der h1A1 und der h1B1 um die Hälfte erniedrigt. Der Gehalt von SULT an zytosolischem Protein zeigte einen bis zu 8 - 10fachen Unterschied, er betrug jedoch bei zwei Dritteln der Proben zwischen 0,15 und 0,3 (h1A1 und h1A3) bzw. 0,6 und 0,8 Promille (h1B1). Die Variation konnte nicht auf Alter, Geschlecht oder Krankheitsbild der Patienten zurückgeführt werden. Auch der für die allelischen Varianten der h1A1 beschriebene Effekt auf die Enzymaktiviät bzw. Stabilität konnte in der Menge an immunreaktivem Protein nicht in diesem Ausmaß detektiert werden. Die Allelhäufigkeit von h1A1*R und h1A1*H war gegenüber der gesunden Bevölkerung nicht verändert. In den sieben Proben aus dem Dünndarm (Coecum, viermal Ileum, Jejunum) konnten zusätzlich die Formen h1E1 und h2A1 identifiziert werden. Ein möglicherweise der Form h1C1 entsprechendes Protein wurde im Magen detektiert. Im Vergleich zum Menschen war die Expression in der Ratte stärker auf die Leber konzentriert. Während beim Menschen in allen untersuchten Abschnitten Sulfotransferasen in Mengen detektiert wurden, die in zwei Fällen (h1B1 und h1A3) sogar den Gehalt in der Leber überstiegen, beschränkte sich die Expression in der Ratte auf im Vergleich zur Leber geringe Mengen im Magen und Dickdarm. Nachgewiesen wurden die r1B1, r1A1 sowie eine nicht identifizierte Form von 35kD, bei der es sich vermutlich um die r1C2 handelt. Im Vergleich zur Leber enthielt der Dickdarm der Ratte 20 - 30 % an r1B1 und 3 % an r1A1, während im Dickdarm des Menschen die 3 - 5fache Menge an h1B1 und 25 - 50 % an h1A1 gefunden wurden. Die nicht identifizierte Form verhielt sich wie die r1B1. Die für die Leber der Ratte bekannte geschlechtsabhängige Expression wurde im Gastrointestinaltrakt nicht beobachtet. Die Verteilung der Sulfotransferasen im Colon und Ileum des Menschen wurde immunhistochemisch untersucht; für die Gewebe der Ratte war die Spezifität der zur Verfügung stehenden Antiseren nicht ausreichend. Im Colon traten h1B1-spezifische Färbungen in den differenzierten Enterozyten am oberen Ende der Krypten auf, im Dünndarm wurden die Epithelzellen der Zotten gefärbt. Die Färbung konzentrierte sich auf das Zytoplasma. Eine ähnliche Verteilung zeigte sich für h1A1 und h1A3, außer daß zusätzlich eine intensive Färbung der Endothelzellen der Kapillaren in der Submukosa des Ileums auftrat. Im Dickdarm war dies nur bei den Kapillaren in den Lymphfollikeln zu erkennen. Die h2A1 war lediglich im Zytoplasma der Epithelzellen der Zotten des Ileums nachzuweisen, während im Colon keine Farbreaktion auftrat. Durch die Verwendung der rekombinanten Indikatorstämme TA1538-h1A1, -h1A3 und -h1B1 und des Ausgangsstammes Salmonella typhimurium TA1538 im Ames-Test wurde gezeigt, daß verschiedene benzylische und allylische Alkohole durch im humanen Colon exprimierte Sulfotransferasen zu Mutagenen aktiviert werden. In den meisten Fällen erwies sich eine der drei Sulfotransferasen als besonders effizient in der Bioaktivierung, während durch die anderen Formen kein oder nur ein schwacher Effekt verursacht wurde. Die Bioaktivierung von Promutagenen durch Sulfotransferasen im Colon muß im Zusammenhang mit der Lokalisation diskutiert werden. Die Zellen im Darm, in denen immunhistochemisch Sulfotransferasen detektiert wurden, haben mit Ausnahme des Endothels je nach Abschnitt eine Lebensdauer von maximal fünf Tagen und machen keine weiteren Zellteilungen mehr durch. Daher sind DNA-Schäden in diesen Zellen ein sehr geringes Risiko für den Organismus. Soweit die reaktiven Metabolite in diesen Zellen gefangen bleiben, kann die Bioaktivierung in diesen Zellen und die Bildung von Addukten als protektiv betrachten werden, da letztere nach wenigen Tagen mit den toten Zellen in das Darmlumen abgegeben werden. Für den Vergleich der Bioaktiverung von Promutagenen durch die Form 1B1 des Menschen und der Ratte wurden aus V79 Lungenfibroblasten des Chinesischen Hamsters abgeleitete Zellinien hergestellt, die je eine der beiden Formen stabil exprimieren. Damit standen 1B1-profiziente Indikatorzellen für den HPRT-Genmutationstest zur Verfügung, und die 1B1-abhängige Bioaktivierung konnte in einem System untersucht werden, die dem eukaryontischen Organismus näher steht als die für die Ames-Tests verwendeten Bakterien. So war z.B. die Sulfotransferase wie im Gewebe im Zytoplasma lokalisiert. Als Modellsubstanzen wurden hierbei die bereits in TA1538-h1B1 mutagen wirkenden benzylischen Alkohole 6-Hydroxymethylbenzo[a]pyren und 4-Hydroxycyclopenta-[def]chrysen getestet. Da die Sensitivität einer Sulfotransferase-exprimierenden V79-Zellinie sowohl durch die Menge an Sulfotransferase als auch durch die Verfügbarkeit des Sulfodonors limitiert sein könnte, wurden die Mutagenitätsexperimente mit V79-r1B1-Zellinien durchgeführt, die sich in ihrer Enzymaktivität um das Zwanzigfache unterschieden: V79-r1B1/A und -/B. Eine starke Erhöhung der Mutantenfrequenz wurde nur in der hoch exprimierenden Zellinie V79-r1B1/A (1019 ± 224 pmol/mg/min) beobachtet, so daß eine gravierende Beeinträchtigung der Sensitivität durch einen Mangel an Kosubstrat ausgeschlossen wurde. In der niedriger exprimierenden Zellinie V79-r1B1/B (57 ± 9 pmol/mg/min) war nur mit 6-Hydroxymethylbenzo[a]pyren ein schwacher Anstieg der Mutantenfrequenz zu erkennen, der mit 0,3 µM bei einer in etwa 100fach höheren Konzentration begann als bei V79-r1B1/A. Die zytosolische Fraktion aus V79-r1B1/B-Zellen enthielt in etwa die dreifache Menge an r1B1-Protein wie die aus Colonmucosa der Ratte. Da zumindest für die humane Mukosa gezeigt wurde, daß die 1B1 nur im einschichtigen Epithel, nicht aber in allen Zellen der Mukosa exprimiert wird, repräsentiert die zytosolische Fraktion aus der Mukosa nur bedingt die Expression in den Epithelzellen und der Vergleich mit den V79-1B1-Zellen ist grob. Im Gegensatz zu V79-r1B1/B war die Zellinie V79-h1B1, die ebenfalls nur mit Darm und Leber vergleichbare Mengen an h1B1 exprimierte, in der Lage, beide benzylischen Alkohole zu aktivieren. Der Erhöhung der Mutantenfrequenz im Vergleich zur KontrollZellinie war ähnlich wie bei der stark exprimierenden Zellinie V79-r1B1/A, erforderte aber 10fach höhere Konzentrationen. Somit unterscheiden sich Mensch und Ratte nicht nur insgesamt in ihrer Ausstattung des Gastrointestinaltrakts mit Sulfotransferasen, auch bei Betrachtung einer einzelnen Form zeigten sich deutliche Unterschiede in der Aktivierung von zwei Promutagenen. Die Ratte ist daher ein ungeeignetes Modell, um die Rolle von Sulfotransferasen bei tumorinitiierenden Prozessen im Darm zu untersuchen. Dies unterstreicht die Bedeutung von rekombinanten in-vitro-Systemen für die Erfassung des humanen Metabolismus von Fremdstoffen. Insgesamt kennt man nur eine geringe Anzahl von Substanzen, die im Tierexperiment Colontumore erzeugen, und mit Ausnahme der heterozyklischen aromatischen Amine sind diese lediglich von experimenteller Bedeutung. Dies spricht für effiziente Schutzmechanismen der Darmmukosa gegenüber Mutagenen und läßt die Frage nach der hohen Inzidenz des Kolorektalkarzinoms offen.
Als Schnittstelle zwischen der Lokal- und der Staatsebene konnten die Landkreise ihre Stellung im politischen System Deutschlands bewahren und ausbauen. Optimierungsbedarf hat sich aufgrund des sozioökonomischen, technischen und demographischen Wandel sowie der öffentlichen Finanzkrise ergeben. Kreisgebietsreformmodelle und die Ausweitung der Aufgabenkooperation dominieren die Reformdebatte. Neben den verfassungsrechtlichen Anforderungen und der Akzeptanz der Reform bei den Betroffenen ist der Reformerfolg wesentlich von der Qualität der Umsetzungsstrategie abhängig. Der aktivierenden Einbeziehung der Mitarbeiter in den Reformprozess kommt dabei eine besondere Bedeutung zu.
In dieser Arbeit wurden zwei Themenbereiche bearbeitet: 1. Ellipsometrie an Adsorpionsschichten niedermolekularer Tenside an der Wasser/Luft-Grenzfläche (Ellipsometrie ist geeignet, adsorbierte Mengen von nicht- und zwitterionischen Tensiden zu messen, bei ionischen werden zusätzlich die Gegenionen mit erfaßt; Ellipsometrie mißt sich ändernde Gegenionenverteilung). 2. Ellipsometrische Untersuchung von endadsorbierten Polymerbürsten an der Wasser/Öl-Grenzfläche (Ellipsometrie ist nicht in der Lage, verschiedene Segmentkonzentrationsprofile innerhalb der Bürste aufzulösen, ist aber sehr wohl geeignet, Skalengesetze für Dicken und Drücke in Abhängigkeit von Ankerdichte und Kettenlänge der Polymere zu überprüfen; für in Heptan gequollene Poly-isobuten-Bürsten konnte gezeigt werden, daß sie sich entsprechend den theoretischen Vorhersagen für Bürsten in einem theta-Lösungsmittel verhalten)
In dieser Arbeit wird die Entwicklung eines bifunktionellen Biosensors nach dem Vorbild eines Baukastensystems beschrieben. Das Ziel wird durch die Kombination verschiedenster molekularer Erkennungselemente erreicht. Solche molekularen Erkennungselemente im verwendeten System sind: • Propidium und die periphere anionische Bindungsstelle der Acetylcholinesterase (AChE) • Organophosphate und das aktive Zentrum der AChE • ein an die AChE gekoppeltes Hapten und das Epitop eines Antikörpers • ein an die AChE gekoppeltes Hapten, das als Ligand ein weiteres Enzym bindet Neben dem molekularen Erkennungselement wird ein Biosensor ebenso durch die Art des Transducers charakterisiert. Hier werden Quarzplättchen mit Goldelektroden zur Signalumwandlung eingesetzt. Die Verwendung solcher Sensoren mit einem EQCM-Gerät (electrochemical quartz crystal microbalance) ermöglicht es zwei Messsignale gleichzeitig aufzunehmen: die piezoelektrische Bestimmung einer Massebeladung und die amperometrische Detektion von Enzymaktivität auf der Sensoroberfläche. Für die Analytik stehen somit zwei verschiedene Assay-Varianten zur Verfügung: die Bestimmung der Inhibition der ACHE-Aktivität und ein Bindungstest über das Hapten. Die Basis beider Tests ist die Modifizierung der piezoelektrischen Kristalle mit Propidium – einem reversiblen Inhibitor der Acetylcholinesterase. Dies ermöglicht die Beladung des Sensors mit AChE über die Wechselwirkung mit der peripheren anionischen Bindungsstelle des Enzyms. Die Aktivität der so immobilisierten AChE und die Inhibition durch Organophosphate (Pestizide) werden amperometrisch bestimmt. Durch die chemische Kopplung eines Hapten an die Cholinesterase wird ein weiteres Erkennungselement eingeführt. Das eröffnet die Möglichkeit, an die auf dem Propidium-modifizierten Sensor immobilisierte, haptenisierte Cholinesterase einen Antikörper zu binden. Als Voraussetzung für elektrochemische Bestimmung der AChE-Aktivität wurde zunächst die Optimierung der amperometrischen Messmethode vorgenommen. Die Oxidatationspotentiale für die Detektion von Thiocholin wurden im Bereich von 150 mV bis 300 mV variiert. Dabei wurde für die nachfolgenden Untersuchungen eine Arbeitspotential von 200 mV (vs. Ag/AgCl) festgelegt, da hier das beste Verhältnis von gemessenem Oxidationsstrom und Langzeitstabilität der Propidium-modifizierten Sensoren erzielt wurde. Dieses Potential war deutlich geringer als die bisher publizierten Mediator-freien AChE-Biosensoren. Es wurde ein Vergleich verschiedener Organophosphate über ihre Inhibitionskonstanten durchgeführt, um diejenigen herauszufinden, die möglichst schnell mit dem aktiven Zentrum der Acetylcholinesterase reagieren. Das verwendete Messsystem beruht nicht auf der Vorinkubation der AChE und damit einer Einstellung des Inhibitionsgleichgewichts. Stattdessen wurde die Inhibition der AChE direkt im Fließsystem verfolgt. Daher war eine schnelle Inhibitionskinetik für einen empfindlichen Organophosphat-Nachweis erforderlich. Da einige Inhibitoren nur als Phosphothionat vorlagen, wurde die Überführung dieser Substanzen in die entsprechenden Oxo-Formen mittels N-Bromsuccinimid untersucht. Die NBS-Aktivierung wurde erfolgreich durchgeführt, die erwartete Inhibitionsstärke konnte jedoch aufgrund hydrolytischer Vorgänge nicht erreicht werden. Untersuchungen mit Diisopropylfluorophosphat (DFP) und Chlorpyriphos-oxon (CPO) konnten die Voruntersuchungen über die Inhibitionskinetik in Bezug auf die erreichten Nachweisgrenzen von 2E-06 M für DFP und 5E-08 M für CPO bestätigen. Für die chemische Modifizierung der Acetylcholinesterase wurde zunächst 2,4-Dichlorphenoxyessigsäure (2,4-D) als Hapten ausgewählt. 2,4-D wird als Herbizid eingesetzt und in der EU über die Gewässerschutzrichtlinie reguliert. 2,4-D konnte in unterschiedlichen molaren Verhältnissen von 2,6 : 1 bis 260 : 1 (2,4-D : AChE) nach Aktivierung mit einem Norbornendicarboximido-Derivat an die AChE gekoppelt werden. Dabei konnte die spezifische Aktivität der Acetylcholinesterase erhalten und die Bindung eines anti-2,4-D-Antikörpers ermöglicht werden. Zur Verstärkung des piezolelektrischen Signals der Antikörperbindung wurden die Immunoglobuline zunächst an Goldnanopartikel gekoppelt. Damit konnte eine Verstärkung um den Faktor 10 erreicht werden. Allerdings waren die Antikörper-modifizierten Goldnanopartikel nicht langzeitstabil. Daher wurden auch Silica-Nanopartikel als Matrix für die Antikörperkopplung getestet. Mit diesem System konnte eine Verstärkung um den Faktor von 5 bis 13 je nach Grad der Beladung den Nanopartikel mit Antikörper bestimmt werden. Die hohe unspezifische Bindung der Antikörper-Nanopartikel-Konjugate an den Propidium-modifizierten QCM-Sensor konnte keinen empfindlichen 2,4-D-Nachweis ermöglichen. Als Alternative wurde Kokain (Benzoylecgonin, BZE) als Hapten an die Aceytlcholinesterase gekoppelt. Da Kokain selbst auch als Inhibitor im aktiven Zentrum der AChE binden kann, wurden zwei verschiedene Strategien zur Konjugatsynthese verfolgt. Durch Zugabe von Kokain während der Kopplung sollte die kovalente Fixierung des Kokain-Derivats BZE-DADOO im aktiven Zentrum verhindert werden (Konjugat B). In der Tat konnten mit dieser Synthesestrategie 67% der spezifischen Cholinesterase-Aktivität erhalten werden, während im Kokain-freien Ansatz (Konjugat A) nur 2% der Ausgangsaktivität wiedergefunden wurden. Das BZE-AChE-Konjugat ermöglichte auch die Untersuchung der Bindungskinetik der anti-BZE-Antikörper. Dabei konnte eine Assoziationsgeschwindigkeitskonstante ka von 12911 l/(mol•s) berechnet werden. Dieser Wert ist trotz der vergleichsweise geringen Oberflächenbeladung vergleichbar mit den in der Literatur angegebenen Werten. Die Dissoziationsgeschwindigkeitskonstante ist mit 2,89E−3 1/s um den Faktor 30 höher als der Literaturwert. Diese Abweichung ist auf Unterschiede im Bindungsmodell zurückzuführen. Mit beiden BZE-AChE-Konjugaten konnte ein kompetetiver Immunoassay mit Kokain im Fließsystem durchgeführt werden. Dabei zeigte sich für beide Konjugate ein ähnlicher Testmittelpunkt: IC50 = 4,40E−8 mol/l für Konjugat A bzw. IC50 = 1,77E−8 mol/l für Konjugat B. Diese Werte sind vergleichbar zu bereits publizierten Kokainassays im Fließsystem. Wie vorstehend beschrieben, bindet Kokain als Inhibitor auch im aktiven Zentrum von Cholinesterasen. Diese Eigenschaft wurde genutzt, um ein zweites Enzym – Butyrylcholinesterase (BChE) – an die BZE-AChE zu binden. Die Spezifität dieser Bindung konnte durch die Abwesenheit einer Affinität der BChE zum Propidium und durch die Blockierbarkeit der Bindung von BChE und BZE-AChE durch Kokain nachgewiesen werden. Damit konnte erfolgreich die Kombination mehrere molekularer Erkennungselemente demonstriert werden. Die Propidium-Plattform ermöglicht den Aufbau einer Architektur aus verschiedenen Cholinesterasen, die über unterschiedliche Bindungsstellen wechselwirken. Sowohl freie als auch BZE-modifizierte AChE können über die Affinität zum Propidium auf dem EQCM-Sensor immobilisiert werden. Mit Kokain als Substrat der Butyrylcholinesterase kann Benzoylecgonin nicht nur als Epitop für die Bindung eines Antikörpers, sondern auch als Erkennungselement für die BChE genutzt werden. Auf der anderen Seite erschwert die geringe Affinität der BChE im Gegensatz zum anti-BZE-Antikörper den Einsatz dieses Systems für analytische Zwecke. Durch die Verwendung anderer Ligand-Enzym-Kombinationen läßt sich das in dieser Arbeit vorgestellte Konzept noch weiter ausbauen und ermöglicht damit eine Entwicklung ausgehend von „einfachen“ molekularen Erkennungselementen (MRE) hin zu „multifunktionellen“ Erkennungselementsystemen. In dieser Arbeit konnte demonstriert werden, dass der Aufbau solch komplexe Systeme möglich ist, ohne Abstriche in Bezug auf die Empfindlichkeit der einzelnen Assays hinzunehmen.
Variationen der stratosphärischen Residualzirkulation und ihr Einfluss auf die Ozonverteilung
(2006)
Die Residualzirkulation entspricht der mittleren Massenzirkulation und beschreibt die im zonalen Mittel stattfindenden meridionalen Transportprozesse. Die Variationen der Residualzirkulation bestimmen gemeinsam mit dem anthropogen verursachten Ozonabbau die jährlichen Schwankungen der Ozongesamtsäule im arktischen Frühling. In der vorliegenden Arbeit wird die Geschwindigkeit des arktischen Astes der Residualzirkulation aus atmosphärischen Daten gewonnen. Zu diesem Zweck wird das diabatische Absinken im Polarwirbel mit Hilfe von Trajektorienrechnungen bestimmt. Die vertikalen Bewegungen der Luftpakete können mit vertikalen Windfeldern oder entsprechend einem neuen Ansatz mit diabatischen Heizraten angetrieben werden. Die Eingabedaten stammen aus dem 45 Jahre langen Reanalyse-Datensatz des "European Centre for Medium Range Weather Forecast" (ECMWF). Außerdem kann für die Jahre ab 1984 die operationelle ECMWF-Analyse verwendet werden. Die Qualität und Robustheit der Heizraten- und Trajektorienrechnungen werden durch Sensitivitätsstudien und Vergleiche mit anderen Modellen untermauert. Anschließend werden umfangreiche Trajektorienensemble statistisch ausgewertet, um ein detailliertes, zeit- und höhenaufgelöstes Bild des diabatischen Absinkens zu ermitteln. In diesem Zusammenhang werden zwei Methoden entwickelt, um das Absinken gemittelt im Polarwirbel oder als Funktion der äquivalenten Breite zu bestimmen. Es wird gezeigt, dass es notwendig ist den Lagrangeschen auf Trajektorienrechnungen basierenden Ansatz zu verfolgen, da die einfachen Eulerschen Mittel Abweichungen zu den Lagrangeschen Vertikalgeschwindigkeiten aufweisen. Das wirbelgemittelte Absinken wird für einzelne Winter mit dem beobachteten Absinken langlebiger Spurengase und anderen Modellstudien verglichen. Der Vergleich zeigt, dass das Absinken basierend auf den vertikalen Windfeldern der ECMWF-Datensätze den Nettoluftmassentransport durch die Residualzirkulation sehr stark überschätzt. Der neue Ansatz basierend auf den Heizraten ergibt hingegen realistische Ergebnisse und wird aus diesem Grund für alle Rechnungen verwendet. Es wird erstmalig eine Klimatologie des diabatischen Absinkens über einen fast fünf Jahrzehnte umfassenden Zeitraum erstellt. Die Klimatologie beinhaltet das vertikal und zeitlich aufgelöste diabatische Absinken gemittelt über den gesamten Polarwirbel und Informationen über die räumliche Struktur des vertikalen Absinkens. Die natürliche Jahr-zu-Jahr Variabilität des diabatischen Absinkens ist sehr stark ausgeprägt. Es wird gezeigt, dass zwischen der ECMWF-Zeitreihe des diabatischen Absinkens und der Zeitreihe aus einem unabhängig analysierten Temperaturdatensatz hohe Korrelationen bestehen. Erstmals wird der Einfluss von Transportprozessen auf die Ozongesamtsäule im arktischen Frühling direkt quantifiziert. Es wird gezeigt, dass die Jahr-zu-Jahr Variabilität der Ozongesamtsäule im arktischen Frühling zu gleichen Anteilen durch die Variabilität der dynamischen Komponente und durch die Variabilität der chemischen Komponente beeinflusst wird. Die gefundenen Variabilitäten von diabatischem Absinken und Ozoneintrag in hohen Breiten werden mit der vertikalen Ausbreitung planetarer Wellen aus der Troposphäre in die Stratosphäre in Beziehung gesetzt.
Aufstiege aus der Mittelschicht : soziale Aufstiegsmobilität von Haushalten zwischen 1984 und 2010
(2012)
Die Dissertation widmet sich den intragenerationalen Aufstiegsprozessen von Haushalten aus der Mittelschicht zu den Wohlhabenden. Intragenerationale Mobilitätsforschung wird bislang vor allem als arbeitsmarktbezogene Inidivualmobilität angesehen. Diese Dissertation erweitert den Ansatz auf die Ebene des Haushaltes. Dem liegt der Gedanke zugrunde, dass die soziale Position eines Individuums nicht allein durch sein Erwerbseinkommen determiniert wird. Ebenso entscheidend ist der Kontext des Haushaltes. Dieser bestimmt darüber, wie viele Personen zum Einkommen beitragen können und wie viele daran partizipieren. Weiterhin kommt der Haushaltsebene in Paar-Haushalten die Rolle des Aushandlungsortes zu. Hier wird über Familienplanung, Kinderwunsch und damit in Zusammenhang stehend auch über die Erwerbsbeteiligung der Partner entscheiden. Die vorliegende Dissertation untersucht diese Annahmen mithilfe von Daten des Sozioökonomischen Panels (SOEP) der Jahre 1984 bis 2010. Der Fokus liegt auf der Erwerbsbeteiligung und dem Bildungsniveau des Haushaltes, seiner Struktur, sowie dem Beruf des Haushaltsvorstandes. Es wird davon ausgegangen, dass dies die Hauptfaktoren sind, die über die finanziellen Möglichkeiten eines Haushaltes entscheiden. Ein weiterer Schwerpunkt der Arbeit liegt in der Berücksichtigung des historischen Kontextes, da anzunehmen ist, dass die oben benannten Faktoren sich und ihren Einfluss auf die Aufstiegsmöglichkeiten von Haushalten im historischen Verlauf verändert haben.
Politik des Projektmanagements : mikropolitische Analysen zu Entscheidungsprozessen in IT-Projekten
(2008)
In der hier vorliegenden Dissertation wurden anhand einer empirischen Fallstudie die Entscheidungs- und Aushandlungsprozesse zwischen Auftraggeber und Auftragnehmer in IT-Projekten analysiert und auf diesem Wege die Handlungszwänge des Projektmanagements beleuchtet. Damit sollte ein Beitrag zum näheren Verständnis der Eigendynamik von IT-Projekten und zur Wirkungsweise der gängigen Ansätze von Projektmanagement und QM geleistet werden. In dieser Arbeit wurden IT-Projekte und die Empfehlungen zum Projektmanagement aus politik- und organisationstheoretischer Perspektive beleuchtet, um Effekte begrenzter Rationalität, opportunistischen Verhalten und Inkrementalismus mit berücksichtigen zu können. Theoretische Ausgangspunkte für die Untersuchung sind auf der einen Seite die mikropolitischen Ansätze und auf der anderen Seite die Agenturtheorie. Gemeinsam ist diesen Ansätzen, die Auffassung, wonach das Handeln der Akteure in ergebnisoffenen, interdependenten Handlungskonstellationen stattfindet, in denen die Auswirkungen von Entscheidungen wenig bekannt sind und die benötigten Informationen den Akteuren in unterschiedlichem Maße zur Verfügung stehen. Bezüglich der Empfehlungen des Projektmanagements wurde auf Normen und Richtlinien sowie die Einführungs- und Praxisliteratur zum Projekt- und Qualitätsmanagement und zur Verwaltungs- und Organisationsberatung Bezug genommen. Die Fallstudie bezieht sich auf ein Realisierungsprojekt zur Einführung eines Personalmanagementsystems in einem Ministerium und seinen nachgeordneten Behörden. Das Projekt fand im Rahmen eines umfassenden Modernisierungsprogramms nach dem NSM statt und legte erstmals einen Schwerpunkt auf das Personalmanagement. Das Vorhaben war ursprünglich in drei Phasen von jeweils einem Jahr Laufzeit geplant. Mit der Realisierung wurde ein Konsortium aus drei Firmen beauftragt. Die Studie bezieht sich auf die erste der drei Phasen der Systemeinführung, die Pilotierungsphase in drei Pilotbehörden. Diese Phase beanspruchte insgesamt zwei Jahre und acht Monate und hatte damit ein Jahr und acht Monate Verspätung vor allem wegen wechselnden Ziel- und Aufgabenstellungen durch das Ministerium und aufgrund interner Steuerungsdefizite und Entscheidungsblockaden auf beiden Seiten. Die Entwicklung einer Schnittstelle in die Personalabrechnung wurde erfolglos abgebrochen. Hauptergebnis der Arbeit ist, dass die Anwendung von Methoden und Instrumenten, die in den Projektmanagement-Leitfäden bereitgestellt werden, stets den jeweils individuellen Interessen der Akteure unterliegen und als Bausteine der akteursspezifischen Strategien fungieren. Dabei führen insbesondere Strategien der Unsicherheitsabsorption, die auf die gegenseitige Kontrolle von Auftraggeber und Auftragnehmer hinauslaufen, zu unproduktiven, sich selbst verstärkende Blockadezyklen („Circuli vitiosi“), aus denen die Akteure nur durch Strategiewechsel ausbrechen können. Zwischen Auftraggeber und Auftragnehmer besteht eine strukturelle Informationsasymmetrie, weil der Auftragnehmer über die fachlichen-technischen Aspekte und über den aktuellen Projektstand besser informiert ist als der Auftraggeber. Gleichzeitig besteht jedoch auch eine entgegen gesetzte Entscheidungsasymmetrie, bei der der Auftraggeber formale Entscheidungsbefugnisse an sich ziehen kann und im Konfliktfall über das größere Drohpotenzial verfügt. Diese wird durch die Rechtsform des Werkvertrags verstärkt. Die Leitfäden des Projektmanagements werden hierbei zwar angewendet, doch die Anwendung beschränkt sich auf fachlich-operative Aspekte der Projektdurchführung, in denen die Empfehlungen einen hinreichenden Konkretisierungsgrad erreicht haben. Nur unzureichend umgesetzt werden jedoch die Empfehlungen zu politisch-strategischen Problemen, deren Anwendung entweder einen komplexen strategischen Entscheidungsprozess erfordert oder zwischen den Vertragsparteien strittig ist. Als äußerst kritisch lässt sich vor allem der Umgang mit dem Leistungsumfang im Projektverlauf bezeichnen, die von Seiten des Auftraggebers häufig im Projektverlauf verändert wird. Hier kollidiert das Gebot der Unabänderlichkeit der Leistungsbeschreibung mit den vitalen Interessen des Auftraggebers, und es zeigt sich anhand der Fallstudie, dass die vertrauensvolle Zusammenarbeit beider Vertragsparteien nötig ist, um zu eine befriedigenden Lösung zu gelangen. Gelingt dies nicht, so kann das Projekt nur mit Hilfe so genannter starker Ideologien wie dem NSM in einer Art Krisenmanagement fortgeführt werden, bedarf aber dann der strategischen Neuorientierung z.B. in Form von Personalwechsel oder Reorganisationen. Im Fallstudienprojekt hat sich herausgestellt, dass, eine Analyse der spezifischen Akteursstrategien (Policy-Analyse) den Akteuren helfen kann, die Ausgangskonstellationen besser zu verstehen und die eigene Strategie auf ihre Konsens- oder Durchsetzungsfähigkeit hin zu justieren. Hier halten die Leitfäden zum Projektmanagement jedoch keine befriedigenden Handlungsanweisungen bereit.
Die Studie untersucht, wie Lehrpersonen auf Primarstufe ihre Anleitungsstrategien bei der Durchführung von musikalischen Gestaltungsprozessen in ihren Schulklassen entwickeln. Die Entwicklungsprozesse wurden vom Forscher begleitet und mit Reflexionsimpulsen unterstützt. Lehrende und Forscher analysieren und diskutieren regelmässig das Unterrichtsgeschehen, um neue Wege der Anleitung anzubahnen. Im Fokus stehen die Lehrpersonen, ihr Wirken und ihre im Prozess sich vollziehende Professionalisierung.
Die Studie gliedert sich in vier Teile. Der erste Teil legt die musikfachlichen und professionstheoretischen Fundierungen dar. Diese Fundierungen bilden die Grundlage vorliegender fachgegenstandsspezifischer Professionalisierung. Der zweite Teil stellt das Forschungsformat von Design-based Research sowie dessen konkrete Adaption vor. Der dritte Teil expliziert das empirische Vorgehen im Feld. Der vierte Teil berichtet die Ergebnisse in Form von Designprinzipien und Designprodukten.
Die leitende Forschungsfrage lautet:
Wie verläuft der Kompetenzerwerb von Klassenlehrpersonen auf der Primarstufe beim Anleiten musikalischer Gestaltungsprozesse und wie lässt sich dieser Kompetenzerwerb mittels Reflexionstools unterstützen?
Das Forschungsziel ist demnach ein doppeltes: Erstens Erkenntnisgewinnung zur Struktur des Kompetenzerwerbs im begleiteten Selbstlernprozess der Lehrer:innen. Zweitens die Generierung von Reflexionstools, die Klassenlehrpersonen bei der Initiierung und Moderation musikalischer Gestaltungsprozesse in der Praxis unterstützen.
Die Untersuchung nimmt eine offene Herausforderung aus der Bildungspraxis als Ausgangspunkt für fachspezifische Professionalisierung an. Das Forschungsformat von Design-based Research erwies sich als sinnvolle Strategie, da die Lehrkräfte ihre Professionalisierung als theoriegestützten Selbstlernprozess in ihrem angestammten Praxisfeld angehen konnten.
Die Auswertung der Befragungen, die im Rahmen der Designprozesse erfolgten, zeigt, dass die Untersuchungsteilnehmenden ihr sozial-kommunikatives Verhalten sowie ihre fachdidaktischen Zugänge und Vorgehensweisen veränderten und in Richtung einer didaktisch-improvisierenden Handlungsweise zu erweitern vermochten.
Am Ende der Untersuchung entstanden drei Reflexionstools in unterschiedlichen Formaten und auf unterschiedlichen Abstraktionsniveaus: Das Reflexionstool try-outs beinhaltet konkrete Reflexionsimpulse (Handlungsanregungen und Reflexionsfragen) für das unterrichtliche Lehrer:innen-Handeln. Das dynamische Kompetenzmodell Kompetenzflyer bietet eine Reflexionsfolie für die Ansteuerung eigenständiger Kompetenzerwerbsschritte. Das online-Tool improspider ist ein Selbstreflexionsinstrument zur Einschätzung personaler Orientierungen und bildet, auf Basis empirisch erarbeiteter Merkmale einer didaktisch-improvisierenden Handlungsweise beim Anleiten musikalischer Gestaltungsprozesse, Improvisationskompetenz individuell ab.
Die Fluoreszenz-Calcium-Imaging-Methode wird auch heute noch als gängige Methode verwendet, vor allem wegen der geringeren Kosten für das Wirkstoffscreening in der pharmazeutischen Forschung, wobei Ionenkanäle sowie einige der G-Protein gekoppelte Rezeptoren (GPCRs) die Mehrzahl der Wirkstoffziele ansprechen. Die zellfreie Synthese eukaryotischer Proteine hat nicht die Nachteile, die bei der Überexpression dieser ionenpermeablen Proteine in Zellen auftreten können, wie z. B. Zelltoxizität, geringere Proteinexpression und die Beseitigung der exprimierten Proteine aufgrund veränderter Domänen sowie die zeitaufwändige Pflege von Zelllinien. Die Synthese von Ionenkanälen in zellfreien Proteinsyntheseplattformen für das künftige Wirkstoffscreening ist noch in der Grundlagenforschung. Obwohl die Fluoreszenz-Calcium-Imaging-Methode in zellbasierten Assays weit verbreitet ist, wurde diese Methode bisher noch nicht in zellfreien Proteinexpressionssystemen verwendet. Insgesamt ist die neue Anwendung der Calcium-Imaging-Methode in eukaryontischen zellfreien Systemen eine Voraussetzung für die schnelle pharmakologische Analyse von Wirkstoffen. Das erste Ziel dieser wissenschaftlichen Arbeit bestand darin, die grundlegenden Prinzipien der Calcium-Imaging-Methode zur Untersuchung von Ionenkanälen in zellbasierten Systemen zu untersuchen. Hierfür wurden zwei Tumorzelllinien des Auges verwendet, und zwar benigne Pterygiumzellen und maligne Aderhautmelanom 92.1 Zellen. In diesen Studien wurde die Interaktion zwischen den nativ überexprimierten transient-receptor-potential-Ionenkanälen (TRPs) wie TRP Vanilliod 1 (TRPV1) (Capsaicinrezeptor) und TRP Melastatin 8 (TRPM8) (Mentholrezeptor) in diesen Tumorzellen nach Zugabe von verschiedenen Medikamenten und Hormonen untersucht. Das zweite Ziel dieser Arbeit war es, den Calcium-Mechanismus von GPCRs in den Zellen zu untersuchen. Zu diesem Zweck wurde Mas, ein GPCR und Angiotensin (1-7) -Hormonrezeptor, aus dem renin-angiotensin-aldosteron-system (RAAS) in der Human Embryonic Kidney-293 (HEK293) Zelllinie überexprimiert. In dieser Studie wurden insbesondere die Aktivierung klassischer GPCR-Signalwege wie Phospholipase C und Proteinkinase C durch Angiotensin-(1-7) über Mas und die Beteiligung von TRP-Kanälen nachgewiesen. Die zellbasierte-Calcium-Imaging-Methode für chemische Calcium-Indikatoren ließ sich aufgrund der Anwesenheit einer großen Menge cytosolischer Carboxylesterasen gut anwenden. Carboxylesterase ist das wichtigste Enzym in der Calcium Imaging Methode, das die Verarbeitung chemischen Calcium-Farbstoffe behandelt. Dieses Enzym fehlt jedoch in Mikrosomen, die als Basismembran für die Integration synthetisierter Ionenkanäle in eukaryontischen zellfreien Systemen verwendet werden. Das dritte Ziel dieser Forschungsarbeit war die Umsetzung der zellbasierten Calcium-Imaging Methode und der Calcium-Signalwege in zellfreie Systeme. Hier wurde die zellfrei synthetisierte Carboxylesterase in Mikrosomen von Spodoptera frugiperda (Sf21) als praktikables Calcium-Imaging-Werkzeug etabliert, um sowohl native ionenpermeable Proteine als auch zellfrei-synthetisierte Ionenkanäle zu untersuchen. Die Enzymaktivität der zellfrei-synthetisierten Carboxylesterase in Mikrosomen wurde durch Esterase-Assays und den Calcium-Fluoreszenzfarbstoff Fluo-5N Acetoxymethylester (Fluo-5N AM) Belastungstests nachgewiesen. Das Calcium-Imaging der nativ vorhandenen Ca2+-ATPase des sarkoplasmatischen/endoplasmatischen Retikulums (SERCA) und der Ryanodin-Rezeptoren (RyR) in den Mikrosomen sowie der zell-frei exprimierten TRP-Ionenkanäle wurden mit dem Fura-5N-AM- Fluoreszenzfarbstoff in mit Carboxylesterase vorsynthetisierten Mikrosomen nachgewiesen.
Zusammenfassend lässt sich sagen, dass das Prinzip der zellbasierten Calcium-Imaging -Methode vielversprechend an das eukaryotische zellfreie Sf21-System angepasst werden konnte, um Ionenkanäle zu analysieren. Nach entsprechender Forschung könnte die etablierte Methode in Zukunft auch auf andere Membranproteine ausgeweitet werden. Dies umfasst die Untersuchung anderer zell-frei exprimierte GPCRs oder anderer Ionenkanäle wie Kalium-, Natrium- und Chlorid-Ionenkanäle.
Hämoglobin-A1c (HbA1c) ist ein Hämoglobin (Hb)-Subtypus, der durch nicht-enzymatische Glykierung des N-terminalen Valinrestes der Hämoglobin-beta-Kette entsteht. Das gemessene Verhältnis von HbA1c zum Gesamt-Hämoglobin (5-20 % bei Diabetikern) repräsentiert den Mittelwert der Blutglucosekonzentration über einen zweimonatigen Zeitraum und stellt zur Beurteilung der diabetischen Stoffwechsellage eine Ergänzung zur Akutkontrolle der Glukosekonzentration dar. Ziel der vorliegenden Arbeit war es, einen amperometrischen Biosensor für die Bestimmung des medizinisch relevanten Parameters HbA1c zu entwickeln. Durch Selektion geeigneter Bioerkennungselemente und deren Immobilisierung unter Erhalt der Bindungsfunktion für die Zielmoleküle Hämoglobin bzw. HbA1c wurden spezifische, hochaffine und regenerationsstabile Sensoroberflächen geschaffen. Für die Entwicklung des HbA1c-Biosensors wurden zwei Konzepte - Enzymsensor und Immunosensor - miteinander verglichen. Die enzymatische Umsetzung von HbA1c erfolgte mit der Fructosylamin Oxidase (FAO) aus Pichia pastoris N 1-1 unter Freisetzung von H2O2, welches sowohl optisch über eine Indikatorreaktion als auch elektrochemisch nach Einschluss der FAO in PVA-SbQ und Fixierung des Immobilisats vor einer H2O2-Elektrode nachgewiesen wurde. Die Kalibration des Enzymsensors mit der HbA1c-Modellsubstanz Fructosyl-Valin ergab Nachweisgrenzen, die ausserhalb des physiologisch relevanten HbA1c-Konzentrationsbereich lagen. Aus der Umsetzung von glykierten Peptiden mit einer nicht HbA1c analogen Aminosäurensequenz, z.B. Fructosyl-Valin-Glycin wurde zudem eine geringe HbA1c-Spezifität abgeleitet. Für den Immunosensor wurden zwei heterogene Immunoassay-Formate unter Verwendung von hochaffinen und spezifischen Antikörpern in Kombination mit Glucose Oxidase (GOD) als Markerenzym zum Nachweis von HbA1c untersucht. Beim indirekt-kompetitiven Immunoassay wurde anstelle des kompletten HbA1c-Moleküls das glykierte Pentapeptid Fructosyl-Valin-Histidin-Leucin-Threonin-Prolin (glkPP) als Kompetitor und Affinitätsligand immobilisiert und so eine regenerierfähige Oberfläche geschaffen. Beim Sandwich-Immunoassay wurde im ersten Schritt Gesamt-Hämoglobin an die mit Haptoglobin (Hp) modifizierte Festphase angereichert und im zweiten Schritt der gebundene HbA1c-Anteil nachgewiesen. Für die Konstruktion des HbA1c-Immunosensors wurden Affinitätsmatrizen durch Modifizierung von Cellulose-Dialysemembranen mit glkPP bzw. Hp hergestellt. Grundlegend studiert wurde die Aktivierung der Cellulose-Membranen mit 1,1'-Carbonyldiimidazol (CDI) und 1-Cyano-4-dimethylaminopyridintetrafluoroborat (CDAP) als Aktivierungsagenzien. Eine gerichtete Immobilisierung der Liganden wurde realisiert, indem glkPP über dessen C-Terminus (einzige Carboxylatgruppe) und Hp über dessen periodat-oxidiertem Kohlenhydratrest an die amino- oder hydrazidfunktionalisierte Membranen kovalent gekoppelt wurden. Mit dem Einsatz der glkPP- und Hp-modifizierten Membranen in der elektrochemischen Messzelle war erstmalig der biosensorische Nachweis von HbA1c möglich. Als Transduktor diente eine Pt-Elektrode, an der das von der GOD generierte H2O2 umgesetzt und ein mit der HbA1c-Konzentration korrelierendes Stromsignal erzeugt wurde. Die Immunosensoren zeigten Ansprechzeiten von 3 s. Mit dem Immunosensor auf Basis des indirekt-kompetitiven Testprinzips wurde eine Kalibrationskurve für HbA1c im Bereich von 0,25-30 µg/ml (3,9-465 nM, CV 3-9 %) mit Assayzeiten von 60 min und mit dem Immunosensor im Sandwich-Format eine Kalibrationskurve im Bereich von 0,5-5 µg/ml (7,8-78 nM; 5-50 % HbA1c vom Gesamt-Hb, CV 6-10 %, 3 h) aufgenommen.
Wasserdampf in der Stratosphäre und Troposphäre ist eines der wichtigsten atmosphärischen Treibhausgase. Neben seiner Bedeutung für das Klima hat es großen Einfluss auf die Bildung von polaren stratosphärischen Wolken sowie auf die atmosphärische Chemie. Weltweit erstmalig soll innerhalb eines Forscherverbundes in Deutschland ein leistungsstarkes, mobiles, abtastendes Wasserdampf-DIAL zur dreidimensional hochaufgelösten Messung des atmosphärischen Wasserdampfs entwickelt werden. Mit dem Wasserdampf-DIAL können Wasserdampfkonzentrationen in der Atmosphäre mit hoher zeitlicher und räumlicher Auflösung gemessen werden. Das DIAL basiert auf einem Titan-Saphir-Laser oder einem dazu alternativen OPO-Laser (optisch parametrischer Oszillator). Der für das optische Pumpen dieser Laser nötige Pumplaser wurde im Rahmen dieser Arbeit in der Arbeitsgruppe Nichtlineare Optik des Instituts für Physik der Universität Potsdam entwickelt. Ein hochauflösendes, mobiles DIAL erfordert einen Pumplaser mit großen Pulsenergien, guter Strahlqualität und einer hohen Effizienz. Um diese Ziele zu erreichen, wurde ein MOPA-System (Master Oscillator Power Amplifier) mit Frequenzstabilisierung auf der Basis von doppelbrechungskompensierten, transversal diodengepumpten Laserstäben entwickelt und untersucht. Auf dem Weg dahin wurden unterschiedliche Realisierungsmöglichkeiten des MOPA-Systems geprüft. Im Rahmen dessen wurden die Festkörperlasermaterialien Yb:YAG [1], kerndotierte Nd:YAG-Keramik [2] und herkömmliches Nd:YAG vorgestellt und hinsichtlich ihrer Eignung für dieses MOPA-System untersucht. Nachdem die Entscheidung für Nd:YAG als laseraktives Material gefallen war, konnte darauf aufbauend die Konzeptionierung des Lasersystems auf der Basis von Verstärkungsrechnungen vorgenommen werden. Die entwickelte Verstärkungsrechnung trägt den Tatbeständen von realen Systemen Rechnung, indem radiusabhängige Intensitäten und eine radiale, nicht homogene Inversionsdichte berücksichtigt werden. Die Frequenzstabilisierung des gepulsten Oszillators (Frequenzstabilität von 1 MHz) wurde mittels des Pound-Drever-Hall-Verfahrens vorgenommen. Mit der Heterodynmethode wird die Frequenzstabilität des Oszillators gemessen. Nach Untersuchungen über verschiedene Konfigurationen für lineare und ringförmige Oszillatoren, wurde ein Ringoszillator mit zwei Laserköpfen aufgebaut, in welchen von außen mit einem Laser fester Frequenz eingestrahlt wird. Dieser emittiert bei einer Wiederholrate von 400 Hz eine Pulsenergie von Eout = 21 mJ bei nahezu beugungsbegrenzter Strahlqualität (M2 < 1,2). Die Verstärkung dieser Laserpulse erfolgte zunächst durch eine Vorverstärkerstufe und anschließend durch zwei doppelbrechungskompensierte Hauptverstärker im Doppeldurchgang. Eine gute Strahlqualität (M2 = 1,75) konnte unter anderem erzielt werden, indem der Doppeldurchgang durch die Hauptverstärker mit einem phasenkonjugierenden Spiegel (SF6), auf der Basis der stimulierten Brillouin Streuung, realisiert wurde. Der entwickelte Laser emittiert Pulse mit einer Länge von 25 ns und einer Energie von 250 mJ. Insgesamt wurde ein bisher einmaliges Lasersystem entwickelt. In der Literatur sind die erreichte Frequenzstabilität, Strahlqualität und Leistung in dieser Kombination bisher nicht dokumentiert. In der Zukunft soll durch den Einsatz von kerndotierten, keramischen Lasermaterialien, höheren Pumpleistungen der Hauptverstärker und phasenkonjugierenden Spiegeln aus Quarz die Pulsenergie des Systems weiter erhöht werden. [1] M. Ostermeyer, A. Straesser, “Theoretical investigation of Yb:YAG as laser material for nanosecond pulse emission with large energies in the joule range”, Optics Communications, Vol. 274, pp. 422-428 (2007) [2] A. Sträßer and M. Ostermeyer, “Improving the brightness of side pumped power amplifiers by using core doped ceramic rods”, Optics Express, Vol. 14, pp. 6687- 6693 (2006)
1. Die Deacetylierung von crabshell – Chitosan führte gleichzeitig zu einem drastischen Abfall der mittleren viscosimetrischen Molmasse ( Mv), insbesondere wenn die Temperatur und die Konzentration an NaOH erhöht werden. Diese Parameter beeinflussten jedoch nicht den Grad der Deacetylierung (DD). Wichtig ist jedoch die Quelle des Ausgangsmaterials: Chitin aus Pandalus borealis ist ein guter Rohstoff für die Herstellung von Chitosan mit niedrigem DD und gleichzeitig hoher mittlerer Mv, während Krill-Chitin (Euphausia superba) ein gutes Ausgangsmaterial zur Herstellung von Chitosan mit hohem DD und niedrigem Mv ist. Chitosan, das aus Insekten (Calliphora erythrocephala), unter milden Bedingungen (Temperatur: 100°C, NaOH-Konzentration: 40 %, Zeit: 1-2h ) hergestellt wurde, hatte die gleichen Eigenschaften hinsichtlich DD und Mv wie das aus Krill hergestellte Chitosan. Der Bedarf an Zeit, Energie und NaOH ist für die Herstellung von Insekten-Chitosan geringer als für crabshell-Chitosan vergleichbare Resultaten für DD und Mv. 2. Chitosan wurde durch den Schimmelpilz Aspergillus fumigatus zu Chitooligomeren fermentiert. Die Ausbeute beträgt 25%. Die Chitooligomere wurden mit Hilfe von HPLC und MALDI-TOF-Massenspektrmetrie identifiziert. Die Fermentationsmischung fördert die Immunität von Pflanzen gegen Bakterien und Virusinfektion. Die Zunahme der Immunität schwankt jedoch je nach System Pflanze-Pathogen. Die Fermentation von Chitosan durch Aspergillus fumigatus könnte eine schnelle und billige Methode zur Herstellung von Chitooligomeren mit guter Reinheit und Ausbeute sein. Eine partiell aufgereinigte Fermentationsmischung dieser Art könnte in der Landwirtschaft als Pathogeninhibitor genutzt werden. Durch kontrollierte Fermentation, die Chitooligomere in definierter Zusammensetzung (d.h. definierter Verteilung des Depolymerisationsgrades) liefert, könnte man zu Mischungen kommen, die für die jeweilige Anwendung eine optimale Bioaktivität besitzen. 3. Die aus Chitosan-Dispersionen hergestellten MCChB-Filme weisen bessere mechanische Eigenschaften (Bruchfestigkeit, Dehnung) und eine höhere Wasseraufnahmefähigkeit auf als Filme, die nach herkömmlichen Methoden aus sauerer Lösung hergestellt werden. Die Einführung von Proteinen ändert die mechanischen Eigenschaften der MCChB-Filme abhängig von der Art, der Proteine sowie des DD und der Mv des eingesetzte Chitosan. Die Zugabe von Protein beschleunigt den biologischen Abbau der MCChB-Filme. Aus den untersuchten MCChB-Filmen mit Proteinzusatz können leichte, reißfeste und dennoch elastische Materialen hergestellt werden. 4. Mit Hilfe von MCChB-Dispersion kann Papier modifiziert werden. Dadurch werden die mechanischen Eigenschaften verbessert und die Wasseraufnahme wird verringert. Die Zugabe von Proteinen verringert das Wasseraufnahmevermögen noch weiter. Ein geringes Wasseraufnahmevermögen ist der bedeutendste Faktor bei der Papierherstellung. Auch Papier, das mit einem MCChB-Protein-Komplexe modifiziert wurde, zeigt gute mechanische Eigenschaften. 5. Wird Chitosan durch unmittelbare Einführung von MCChB auf Cellulose-Fasern aufgebracht, so erhält man eine netzartige Struktur, während durch Ausfällung aufgebrachtes Chitosan eine dünne Schicht auf den Cellulose-Fasern bildet. Die netzartige Struktur erleichtert die Bioabbaubarkeit, während die Schichtstruktur diese erschwert. 6. Die guten mechanischen Eigenschaften, die geringe Wasseraufnahmefähigkeit und die mit Cellulose vergleichbare Bioabbaubarkeit von Papier, das mit MCChB modifiziert wurde, lassen MCChB für die Veredlung von Papier nützlich erscheinen.
In der vorliegenden Arbeit werden Wege zur Gewinnung verschiedener phenolischer Substanzen wie Lignin, Diarylheptanoide und 4-(3-Oxobutyl)phenol (Himbeerketon) aus dem Stamm der Hängebirke (Betula pendula) aufgezeigt. Durch Methacrylierung des 4-(3-Oxobutyl)phenols wurde ein Monomer erzeugt, welches mittels freier radikalischer Masse- und Lösungspolymerisation, sowie enzymatischer Polymerisation polymerisiert werden kann.
Eine erste Isolierung von Bestandteilen wurde durch Extraktion von Innenholz bzw. Rinde mit Methanol erzielt. Die in Methanol unlöslichen Bestandteile des Innenholzes und der Rinde wurden anschließend mit ausgewählten ionischen Flüssigkeiten extrahiert. Es wurde ein Verfahren zum selektiven Trennen der mit diesen ionischen Flüssigkeiten extrahierten Bestandteile in Cellulose, Hemicellulose, Lignin und mit Ethylacetat extrahierbare Bestandteile entwickelt. Hierdurch war es möglich, sowohl die verwendeten ionischen Flüssigkeiten als auch das Innenholz und die Rinde hinsichtlich ihres Extraktionsverhaltens miteinander zu vergleichen.
Ferner wurden verschiedene Strategien aufgezeigt, um insgesamt drei Spezies an Diarylheptanoiden aus dem methanolischen Extrakt der Rinde zu isolieren. Eines der gefundenen Diarylheptanoide (5 Hydroxy-1,7-bis(4-hydroxyphenyl)-3-heptanon) wurde via Retroaldolreaktion in 4 (3 Oxobutyl)phenol (Himbeerketon) und 3 (4 Hydroxyphenyl)propanal gespalten.
Es wurde die Verwendung des 4-(3-Oxobutyl)phenol als Monomerbestandteil untersucht. Hierfür wurde 4-(3-Oxobutyl)phenylmethacrylat synthetisiert und Wege zur Reinigung mittels Säulenchromatographie und Umkristallisation aufgezeigt. Anschließend wurde Poly(4-(3-oxobutyl)phenylmethacrylat) (PObMA) und Polybenzylmethacrylats (PBzMA) aus Massen- und Lösungspolymerisation hergestellt. Die Ausbeuten an PObpMA im Vergleich zum PBzMA liegen bei gleichen Reaktionsbedingungen auf gleichem Niveau. Im Kontrast hierzu ist der Polymerisationsgrad aus freier radikalischer Polymerisation in Masse des PObpMA im Vergleich zum PBzMA um den Faktor 3,7 größer. Die Glasübergangstemperaturen des PObpMA liegen bei gleichen Reaktionsbedingungen sowohl bei freier radikalischer Polymerisation in Masse, als auch bei Lösungspolymerisation über denen des PBzMA. Darüber hinaus wurde die Polymerisation von 4-(3-Oxobutyl)phenylmethacrylat und Benzylmethacrylat mit einem Initiatorsystem bestehend aus Meerrettichperoxidase, Acetylaceton und Wasserstoffperoxid bei Raumtemperatur beschrieben. Die mit enzymatischem Initiatorsystem erzeugten Produkte zeigten starke Übereinstimmung mit Produkten aus Lösungspolymerisationen, welche mit Azobis(isobutyronitril) initiiert wurden.
Die adipositasbedingte Insulinresistenz geht mit einer unterschwelligen Entzündungsreaktion einher. Als Antwort auf dieses Entzündungsgeschehen wird PGE2 unter anderem von Kupffer Zellen der Leber freigesetzt und kann seine Wirkung über vier PGE2-Rezeptorsubtypen (EP1-EP4) vermitteln. In vorangegangenen Arbeiten konnte gezeigt werden, dass PGE2 in Rattenhepatozyten über den EP3 R ERK1/2-abhängig die intrazelluläre Weiterleitung des Insulinsignals hemmt. Über die Modulation der Insulinrezeptorsignalkette durch andere EP-Rezeptoren war bisher nichts bekannt. Daher sollte in stabil transfizierten Zelllinien, die jeweils nur einen der vier EP-Rezeptorsubtypen exprimierten, der Einfluss von PGE2 auf die Insulinrezeptorsignalkette untersucht werden. Es wurden HepG2-Zellen, die keinen funktionalen EP-Rezeptor aufwiesen, sowie HepG2-Zellen, die stabil den EP1-R (HepG2-EP1), den EP3β-R (HepG2 EP3β) oder den EP4-R (HepG2 EP4) exprimierten, sowie die humane fötale Hepatozytenzelllinie, Fh hTert, die den EP2- und den EP4-R exprimierte, für die Untersuchungen verwendet. Die Zellen wurden für 330 min mit PGE2 (10 µM) vorinkubiert, um die pathophysiologische Situation nachzustellen und anschließend mit Insulin (10 nM) für 15 min stimuliert. Die insulinabhängige Akt- und ERK1/2-Phosphorylierung wurde im Western-Blot bestimmt. In allen Hepatomzelllinien die EP-R exprimierten, nicht aber in der Zelllinie, die keinen EP R exprimierte, hemmte PGE2 die insulinstimulierte Akt-Phosphorylierung. In allen drei stabil transfizierten Zelllinien, nicht jedoch in den Fh-hTert-Zellen, steigerte PGE2 die basale und insulinstimulierte Phosphorylierung der Serin/Threoninkinase ERK1/2. In den HepG2 EP1- und den HepG2-EP3β-Zellen steigerte PGE2 mutmaßlich über die ERK1/2-Aktivierung die Serinphosphorylierung des IRS, welche die Weiterleitung des Insulinsignals blockiert. Die Hemmung der Aktivierung von ERK1/2 hob in EP3 R-exprimierenden Zellen die Abschwächung der Insulinsignalübertragung teilweise auf. In diesen Zellen scheint die ERK1/2-Aktivierung die größte Bedeutung für die Hemmung der insulinstimulierten Akt-Phosphorylierung zu haben. Da durch die Hemmstoffe die PGE2-abhängige Modulation nicht vollständig aufgehoben wurde, scheinen darüber hinaus aber noch andere Mechanismen zur Modulation beizutragen. In den Fh hTert-Zellen wurde die Insulinrezeptorsignalkette offensichtlich über einen ERK1/2-unabhängigen, bisher nicht identifizierten Weg unterbrochen. Eine gesteigerte PGE2-Bildung im Rahmen der Adipositas ist nicht auf die peripheren Gewebe beschränkt. Auch im Hypothalamus können bei Adipositas Zeichen einer Entzündung nachgewiesen werden, die mit einer gesteigerten PGE2-Bildung einhergehen. Daher wurde das EP R-Profil von primären hypothalamischen Neuronen und neuronalen Modellzelllinien charakterisiert, um zu prüfen, ob PGE2 in hypothalamischen Neuronen die Insulinsignalkette in ähnlicher Weise unterbricht wie in Hepatozyten. In allen neuronalen Zellen hemmte die Vorinkubation mit PGE2 die insulinstimulierte Akt-Phosphorylierung nicht. In der neuronalen hypothalamischen Zelllinie N 41 wirkte PGE2 eher synergistisch mit Insulin. In durch Retinsäure ausdifferenzierten SH SY5Y-Zellen waren die Ergebnisse allerdings widersprüchlich. Dies könnte darauf zurückzuführen sein, dass die Expression der EP Rezeptoren im Verlauf der Kultur stark schwankte und somit die EP R-Ausstattung der Zellen zwischen den Zellversuchen variierte. Auch in den primären hypothalamischen Neuronen variierte die EP R-Expression abhängig vom Differenzierungszustand und PGE2 beeinflusste die insulinstimulierte Akt-Phosphorylierung nicht. Obwohl in allen neuronalen Zellen die Akt-Phosphorylierung durch Insulin gesteigert wurde, konnte in keiner der Zellen eine insulinabhängige Regulation der Expression von Insulinzielgenen (POMC und AgRP) nachgewiesen werden. Das liegt wahrscheinlich an dem niedrigen Differenzierungsgrad der untersuchten Zellen. Im Rahmen der Adipositas kommt es zu einer Überaktivierung des Endocannabinoidsystems. Endocannabinoidrezeptoren sind mit den EP Rezeptoren verwandt. Daher wurde geprüft, ob Endocannabinoide die Insulinsignalweiterleitung in ähnlicher Weise beeinflussen können wie PGE2. Die Vorinkubation der N 41-Zellen für 330 min mit einem Endocannabinoidrezeptoragonisten steigerte die insulinstimulierte Akt-Phosphorylierung, was auf einen insulinsensitiven Effekt von Endocannabinoiden hindeutet. Dies steht im Widerspruch zu der in der Literatur beschriebenen endocannabinoidabhängigen Insulinresistenz, die aber auf indirekte, durch Endocannabinoide ausgelöste Veränderungen zurückzuführen sein könnte.
Bestimmung von Ozonabbauraten über der Arktis und Antarktis mittels Ozonsonden- und Satellitendaten
(2005)
Diese Arbeit beschäftigt sich mit der chemischen Ozonzerstörung im arktischen und antarktischen stratosphärischen Polarwirbel. Diese wird durch Abbauprodukte von anthropogen emittierten Fluorchlorkohlenwasserstoffen und Halonen, Chlor- und Bromradikale, verursacht. Studien in denen der gemessene und modellierte Ozonabbau verglichen wird zeigen, dass die Prozeße bekannt sind, der quantitative Verlauf allerdings nicht vollständig verstanden ist. Die Prozesse, die zur Ozonzerstörung führen sind in beiden Polarwirbeln ähnlich. Allerdings fällt als Konsequenz unterschiedlicher meteorologischer Bedingungen der chemische Ozonabbau im arktischen Polarwirbel weniger drastisch aus als über der Antarktis. Der arktische Polarwirbel ist im Mittel stärker dynamisch gestört als der antarktische und weist eine stärkere Jahr-zu-Jahr Variabilität auf. Das erschwert die Messung des chemischen Ozonabbaus. Zur Trennung des chemischen Ozonabbaus von der dynamischen Umverteilung des Ozons im arktischen Polarwirbel wurde die Matchmethode entwickelt. Bei dieser Methode werden Luftpakete innerhalb des Polarwirbels mehrfach beprobt, um den chemischen Anteil der Ozonänderung zu quantifizieren. Zur Identifizierung von doppelt beprobten Luftpaketen werden Trajektorien aus Windfeldern berechnet. Können zwei Messungen im Rahmen bestimmter Qualitätskriterien durch eine Trajektorie verbunden werden, kann die Ozondifferenz zwischen beiden Sondierungen berechnet und als chemischer Ozonabbau interpretiert werden. Eine solche Koinzidenz wird Match genannt. Der Matchmethode liegt ein statistischer Ansatz zugrunde, so dass eine Vielzahl solcher doppelt beprobter Luftmassen vorliegen muss, um gesicherte Aussagen über die Ozonzerstörung gewinnen zu können. So erhält man die Ozonzerstörung in einem bestimmten Zeitintervall, also Ozonabbauraten. Um die Anzahl an doppelt beprobten Luftpackten zu erhöhen wurde eine aktive Koordinierung der Ozonsondenaufstiege entwickelt. Im Rahmen dieser Arbeit wurden Matchkampagnen während des arktischen Winters 2002/2003 und zum ersten Mal während eines antarktischen Winter (2003) durchgeführt. Aus den gewonnenen Daten wurden Ozonabbauraten in beiden Polarwirbeln bestimmt. Diese Abbauraten dienen zum einen der Evaluierung von Modellen, ermöglichen aber auch den direkten Vergleich von Ozonabbauraten in beiden Polarwirbeln. Der Winter 2002/2003 war zu Beginn durch sehr tiefe Temperaturen in der mittleren und unteren Stratosphäre charakterisiert, so dass die Matchkampagne Ende November gestartet wurde. Ab Januar war der Polarwirbel zeitweise stark dynamisch gestört. Die Kampagne ging bis Mitte März. Für den Höhenbereich von 400 bis 550 K potentieller Temperatur (15-23 km) konnten Ozonabbauraten und der Verlust in der Gesamtsäule berechnet werden. Die Ozonabbauraten wurden in verschiedenen Tests auf ihre Stabilität überprüft. Der antarktische Polarwirbel war vom Beginn des Winters bis Mitte Oktober 2003 sehr kalt und stellte Ende September kurzzeitig den Rekord für die größte bisher aufgetretene Ozonloch-Fläche ein. Es konnten für den Kampagnenzeitraum, Anfang Juni bis Anfang Oktober, Ozonabbauraten im Höhenbereich von 400 bis 550 K potentieller Temperatur ermittelt werden. Der zeitliche Verlauf des Ozonabbaus war dabei auf fast allen Höhenniveaus identisch. Die Zunahme des Sonnenlichtes im Polarwirbel mit der Zeit führt zu einem starken Anwachsen der Ozonabbauraten. Ab Mitte September gingen die Ozonabbauraten auf Null zurück, da bis zu diesem Zeitpunkt das gesamte Ozon zwischen ca. 14 und 21 km zerstört wurde. Im letzten Teil der Arbeit wird ein neuer Algorithmus auf Basis der multivariaten Regression vorgestellt, mit dem Ozonabbauraten aus Ozonprofilen verschiedener Sensoren gleichzeitig berechnet werden können. Dabei können neben der Ozonabbaurate die systematischen Fehler zwischen den einzelnen Sensoren bestimmt werden. Dies wurde exemplarisch am antarktischen Winter 2003 für das 475 K potentielle Temperatur Niveau gezeigt. Neben den Ozonprofilen der Sonden wurden Daten von zwei Satellitenexperimenten verwendet. Die mit der multivariaten Matchtechnik berechneten Ozonabbauraten stimmen gut mit den Ozonabbauraten der Einzelsensor-Matchansätze überein.
Die Qualität von Nutzpflanzen ist von zahlreichen Einflussfaktoren wie beispielsweise Lagerbedingungen und Sorteneigenschaften abhängig. Um Qualitätsmängel zu minimieren und Absatzchancen von Nutzpflanzen zu steigern sind umfangreiche Analysen hinsichtlich ihrer stofflichen Zusammensetzung notwendig. Chromatographische Techniken gekoppelt an ein Massenspektrometer und die Kernspinresonanzspektroskopie wurden dafür bislang verwendet. In der vorliegenden Arbeit wurde ein Gaschromatograph an ein Flugzeitmassenspektrometer (GC-TOF-MS) gekoppelt, um physiologische Prozesse bzw. Eigenschaften (die Schwarzfleckigkeit, die Chipsbräunung, das Physiologische Alter und die Keimhemmung) von Nutzpflanzen aufzuklären. Als Pflanzenmodell wurde dafür die Kartoffelknolle verwendet. Dazu wurden neue analytische Lösungsansätze entwickelt, die eine zielgerichtete Auswertung einer Vielzahl von Proben, die Etablierung einer umfangreichen Referenzspektrenbibliothek und die sichere Archivierung aller experimentellen Daten umfassen. Das Verfahren der Probenvorbereitung wurde soweit modifiziert, dass gering konzentrierte Substanzen mittels GC-TOF-MS analysiert werden können. Dadurch wurde das durch die Probenvorbereitung limitierte Substanzspektrum erweitert. Anhand dieser Lösungsansätze wurden physiologisch relevante Stoffwechselprodukte identifiziert, welche indikativ (klassifizierend) bzw. prädiktiv (vorhersagend) für die physiologischen Prozesse sind. Für die Schwarzfleckigkeitsneigung und die Chipseignung wurde jeweils ein biochemisches Modell zur Vorhersage dieser Prozesse aufgestellt und auf eine Züchtungspopulation übertragen. Ferner wurden für die Schwarzfleckigkeit Stoffwechselprodukte des Respirationsstoffwechsels identifiziert sowie Aminosäuren, Glycerollipide und Phenylpropanoide für das Physiologische Alter als relevant erachtet. Das physiologische Altern konnte durch die Anwendung höherer Temperaturen beschleunigt werden. Durch Anwendung von Keimhemmern (Kümmelöl, Chlorpropham) wurde eine Verzögerung des physiologischen Alterns beobachtet. Die Applikation von Kümmelöl erwies sich dabei als besonders vorteilhaft. Kümmelöl behandelte Knollen wiesen im Vergleich zu unbehandelten Knollen nur Veränderungen im Aminosäure-, Zucker- und Sekundärstoffwechsel auf. Chlorpropham behandelte Knollen wiesen einen ähnlichen Stoffwechsel wie die unbehandelten Knollen auf. Für die bislang noch nicht identifizierten Stoffwechselprodukte wurden im Rahmen dieser Arbeit das Verfahren der „gezielten An-/Abreicherung“, der „gepaarten NMR/GC-TOF-MS Analyse“ und das „Entscheidungsbaumverfahren“ entwickelt. Diese ermöglichen eine Klassifizierung von GC-MS Signalen im Hinblick auf ihre chemische Funktionalität. Das Verfahren der gekoppelten NMR/GC-TOF-MS Analyse erwies sich dabei als besonders erfolgversprechend, da es eine Aufklärung bislang unbekannter gaschromatographischer Signale ermöglicht. In der vorliegenden Arbeit wurden neue Stoffwechselprodukte in der Kartoffelknolle identifiziert, wodurch ein wertvoller Beitrag zur Analytik der Metabolomik geleistet wurde.
Der Bittergeschmack warnt den Organismus vor potentiell verdorbener oder giftiger Nahrung und ist somit ein wichtiger Kontrollmechanismus. Die initiale Detektion der zahlreich vorkommenden Bitterstoffe erfolgt bei der Maus durch 35 Bitterrezeptoren (Tas2rs), die sich im Zungengewebe befinden. Die Geschmacksinformation wird anschließend von der Zunge über das periphere (PNS) ins zentrale Nervensystem (ZNS) geleitet, wo deren Verarbeitung stattfindet. Die Verarbeitung der Geschmacksinformation konnte bislang nicht gänzlich aufgeklärt werden. Neue Studien deuten auf eine Expression von Tas2rs auch im PNS und ZNS entlang der Geschmacksbahn hin. Über Vorkommen und Aufgaben dieser Rezeptoren bzw. Rezeptorzellen im Nervensystem ist bislang wenig bekannt.
Im Rahmen dieser Arbeit wurde die Tas2r-Expression in verschiedenen Mausmodellen untersucht, Tas2r-exprimierende Zellen identifiziert und deren Funktionen bei der Übertragung der Geschmacksinformationen analysiert. Im Zuge der Expressionsanalysen mittels qRT-PCR konnte die Expression von 25 der 35 bekannten Bittergeschmacksrezeptoren im zentralen Nervensystem der Maus nachgewiesen werden. Die Expressionsmuster im PNS sowie im ZNS lassen darüber hinaus Vermutungen zu Funktionen in verschiedenen Bereichen des Nervensystems zu. Basierend auf den Ergebnissen der Expressionsanalysen war es möglich, stark exprimierte Tas2rs mittels In-situ-Hybridisierung in verschiedenen Zelltypen zu visualisieren. Des Weiteren konnten immunhistochemische Färbungen unter Verwendung eines genetisch modifizierten Mausmodells die Ergebnisse der Expressionsanalysen bestätigen. Sie zeigten eine Expression von Tas2rs, am Beispiel des Tas2r131-Rezeptors, in cholinergen, dopaminergen, GABAergen, noradrenergen und glycinerg-angesteuerten Projektionsneuronen sowie in Interneuronen. Die Ergebnisse der vorliegenden Arbeit zeigen daher erstmals das Vorkommen von Tas2rs in verschiedenen neuronalen Zelltypen in weiten Teilen des ZNS. Dies lässt den Schluss zu, dass Tas2r-exprimierende Zellen potentiell multiple Funktionen innehaben. Anhand von Verhaltensexperimenten in genetisch modifizierten Mäusen wurde die mögliche Funktion von Tas2r131-exprimierenden Neuronen (Tas2r131-Neurone) bei der Geschmackswahrnehmung untersucht. Die Ergebnisse weisen auf eine Beteiligung von Tas2r131-Neuronen an der Signalweiterleitung bzw. -verarbeitung der Geschmacksinformation für eine Auswahl von Bittersubstanzen hin. Die Analysen zeigen darüber hinaus, dass Tas2r131-Neuronen nicht an der Geschmackswahrnehmung anderer Bitterstoffe sowie Geschmacksstimuli anderer Qualitäten (süß, umami, sauer, salzig), beteiligt sind. Eine spezifische „Tas2r131-Bittergeschmacksbahn“, die mit anderen potentiellen „Bitterbahnen“ teils unabhängige, teils überlappende Signalwege bzw. Verarbeitungsbereiche besitzt, bildet eine mögliche zelluläre Grundlage zur Unterscheidung von Bitterstoffen. Die im Rahmen dieser Arbeit entstandene Hypothese einer potentiellen Diskriminierung von Bitterstoffen soll daher in weiterführenden Studien durch die Etablierung eines Verhaltenstest mit Mäusen geprüft werden.
Professionelle GT Langstreckenmotorsportler (Rennfahrer) müssen den hohen motorischen und kognitiven Ansprüchen ohne Verlust der Performance während eines Rennens endgegenwirken können. Sie müssen stets, bei hoher Geschwindigkeit fokussiert und konzentriert auf ihr Auto, die Rennstrecke und ihre Gegner reagieren können. Darüber hinaus sind Rennfahrer zusätzlich durch die notwendige Kommunikation im Auto mit den Ingenieuren und Mechanikern in der Boxengasse gefordert. Daten über die tatsächliche Beanspruchung und häufig auftretende Beschwerden und/oder Verletzung von Profiathleten liegen kaum vor. Für eine möglichst gute Performance im Auto während eines Rennens ist es notwendige neben der körperlichen Beanspruchung auch die häufigen Krankheitsbilder zu kennen. Auf Basis dessen kann eine optimale Prävention oder notwendige Therapie zur möglichst schnellen Reintegration in den Sport abgeleitet und entwickelt werden. Die vorliegende Arbeit befasst sich durch ein regelmäßiges Gesundheitsmonitoring mit der Erfassung häufiger Beschwerden und oder Verletzungen im GT Langestreckenmotorsport zur Ableitung eines präventiven (trainingstherapeutischen) und therapeutischen Konzeptes. Darüber hinaus, soll über die Einschätzung der körperlichen Leistungsfähigkeit der Athleten, auf Basis der Beanspruchung im Rennfahrzeug ein mögliches Trainingskonzept in Abhängigkeit der Saison entwickelt werden.
Insgesamt wurden über 15 Jahre (2003-2017) 37 männliche Athleten aus dem GT Langstreckenmotorsport 353mal im Rahmen eines Gesundheitsmonitorings untersucht. Dabei wurden Athleten maximal 14 Jahre und mindestens 1 Jahr sportmedizinische betreut. Diese 2x im Jahr stattfindende Untersuchung beinhaltete im Wesentlichen eine sportmedizinische Untersuchung zur Einschätzung der Tauglichkeit für den Sport und die Erfassung der körperlichen Leistungsfähigkeit. Über das Gesundheitsmonitoring hinaus erfolgte die Betreuung zusätzlich an der Rennstrecke zur weiteren Erfassung der Beschwerden, Erkrankungen und Verletzungen der Athleten während ihrer sportartspezifischen Belastung. Zusammengefasst zeigen die Athleten geringe Prävalenzen und Inzidenzen der Krankheitsbilder bzw. Beschwerden. Ein Unterschied der Prävalenzen zeigt sich zwischen den Gesundheitsuntersuchungen und der Betreuung an der Rennstrecke. Die häufigsten Beschwerdebilder zeigen sich aus Orthopädie und Innerer Medizin. So sind Infekte der oberen Atemwege sowie Allergien neben Beschwerden der unteren Extremität und der Wirbelsäule am häufigsten. Demzufolge werden vorrangig physio- und trainingstherapeutische Konsequenzen abgeleitet. Eine medikamentöse Therapie erfolgt im Wesentlichen während der Rennbetreuung. Zur Reduktion der orthopädischen und internistischen Beschwerden sollten präventive Maßnahmen mehr betont werden. Die körperliche Leistungsfähigkeit zeigt im Wesentlichen über die Untersuchungsjahre eine stabile Performance für die Ausdauer-, Kraft und sensomotorische Leistungsfähigkeit. Die Ausdauerleistungsfähigkeit kann in Abhängigkeit der Sportartspezifik mit einer guten bis sehr guten Ausprägung definiert werden. Die Kraftleistungsfähigkeit und die sensomotorische Leistungsfähigkeit lassen sportartspezifische Unterschiede zu und sollte körpergewichtsbezogen betrachtet werden.
Ein sportmedizinisches und trainingstherapeutisches Konzept müsste demnach eine regelmäßige ärztlich-medizinische Untersuchung mit dem Fokus der Orthopädie, Inneren Medizin und Hals- Nasen-Ohren-Kunde beinhalten. Darüber hinaus sollte eine regelmäßige Erfassung der körperlichen Leistungsfähigkeit zur möglichst effektiven Ableitung von Trainingsinhalten oder Präventionsmaßnahmen berücksichtig werden. Auf Grundlage der hohen Reisetätigkeit und der ganzjährigen Saison könnte ein 1-2x jährlich stattfindendes Trainingslager, im Sinne eines Grundlagen- und Aufbautrainings zur Optimierung der Leistungsfähigkeit beitragen, das Konzept komplementieren. Zudem scheint eine ärztliche Rennbetreuung notwendig.
Auf der Grundlage von Sonnenphotometermessungen an drei Messstationen (AWIPEV/ Koldewey in Ny-Ålesund (78.923 °N, 11.923 °O) 1995–2008, 35. Nordpol Driftstation – NP-35 (84.3–85.5 °N, 41.7–56.6 °O) März/April 2008, Sodankylä (67.37 °N, 26.65 °O) 2004–2007) wird die Aerosolvariabilität in der europäischen Arktis und deren Ursachen untersucht. Der Schwerpunkt liegt dabei auf der Frage des Zusammenhanges zwischen den an den Stationen gemessenen Aerosolparametern (Aerosol optische Dicke, Angström Koeffizient, usw.) und dem Transport des Aerosols sowohl auf kurzen Zeitskalen (Tagen) als auch auf langen Zeitskalen (Monate, Jahre). Um diesen Zusammenhang herzustellen, werden für die kurzen Zeitskalen mit dem Trajektorienmodell PEP-Tracer 5-Tage Rückwärtstrajektorien in drei Starthöhen (850 hPa, 700 hPa, 500 hPa) für die Uhrzeiten 00, 06, 12 und 18 Uhr berechnet. Mit Hilfe der nicht-hierarchischen Clustermethode k-means werden die berechneten Rückwärtstrajektorien dann zu Gruppen zusammengefasst und bestimmten Quellgebieten und den gemessenen Aerosol optischen Dicken zugeordnet. Die Zuordnung von Aerosol optischer Dicke und Quellregion ergibt keinen eindeutigen Zusammenhang zwischen dem Transport verschmutzter Luftmassen aus Europa oder Russland bzw. Asien und erhöhter Aerosol optischer Dicke. Dennoch ist für einen konkreten Einzelfall (März 2008) ein direkter Zusammenhang von Aerosoltransport und hohen Aerosol optischen Dicken nachweisbar. In diesem Fall gelangte Waldbrandaerosol aus Südwestrussland in die Arktis und konnte sowohl auf der NP-35 als auch in Ny-Ålesund beobachtet werden. In einem weiteren Schritt wird mit Hilfe der EOF-Analyse untersucht, inwieweit großskalige atmosphärische Zirkulationsmuster für die Aerosolvariabilität in der europäischen Arktis verantwortlich sind. Ähnlich wie bei der Trajektorienanalyse ist auch die Verbindung der atmosphärischen Zirkulation zu den Photometermessungen an den Stationen in der Regel nur schwach ausgeprägt. Eine Ausnahme findet sich bei der Betrachtung des Jahresganges des Bodendruckes und der Aerosol optischen Dicke. Hohe Aerosol optische Dicken treten im Frühjahr zum einen dann auf, wenn durch das Islandtief und das sibirische Hochdruckgebiet Luftmassen aus Europa oder Russland/Asien in die Arktis gelangen, und zum anderen, wenn sich ein kräftiges Hochdruckgebiet über Grönland und weiten Teilen der Arktis befindet. Ebenso zeigt sich, dass der Übergang zwischen Frühjahr und Sommer zumindest teilweise bedingt ist durch denWechsel vom stabilen Polarhoch im Winter und Frühjahr zu einer stärker von Tiefdruckgebieten bestimmten arktischen Atmosphäre im Sommer. Die geringere Aerosolkonzentration im Sommer kann zum Teil mit einer Zunahme der nassen Deposition als Aerosolsenke begründet werden. Für Ny-Ålesund wird neben den Transportmustern auch die chemische Zusammensetzung des Aerosols mit Hilfe von Impaktormessungen an der Zeppelinstation auf dem Zeppelinberg (474m ü.NN) nahe Ny-Ålesund abgeleitet. Dabei ist die positive Korrelation der Aerosoloptischen Dicke mit der Konzentration von Sulfationen und Ruß sehr deutlich. Beide Stoffe gelangen zu einem Großteil durch anthropogene Emissionen in die Atmosphäre. Die damit nachweisbar anthropogen geprägte Zusammensetzung des arktischen Aerosols steht im Widerspruch zum nicht eindeutig herstellbaren Zusammenhang mit dem Transport des Aerosols aus Industrieregionen. Dies kann nur durch einen oder mehrere gleichzeitig stattfindende Transformationsprozesse (z. B. Nukleation von Schwefelsäurepartikeln) während des Transportes aus den Quellregionen (Europa, Russland) erklärt werden.