Refine
Has Fulltext
- yes (30) (remove)
Year of publication
Document Type
- Doctoral Thesis (30) (remove)
Language
- German (30) (remove)
Is part of the Bibliography
- no (30) (remove)
Keywords
- Adipositas (3)
- Kinder (2)
- children (2)
- education (2)
- obesity (2)
- Absorptionseigenschaften (1)
- Agency theory (1)
- Agency-Theorie (1)
- Aggression (1)
- Alliance Capability (1)
Institute
- Department Psychologie (4)
- Sozialwissenschaften (4)
- Wirtschaftswissenschaften (4)
- Institut für Chemie (3)
- Historisches Institut (2)
- Institut für Biochemie und Biologie (2)
- Institut für Ernährungswissenschaft (2)
- Institut für Umweltwissenschaften und Geographie (2)
- Department Erziehungswissenschaft (1)
- Department Linguistik (1)
Menschen mit chronisch entzündlichen Darmerkrankungen (CED) leiden unter vielfältigen körperlichen und psychosozialen Einschränkungen. Wie auch bei anderen chronischen Erkrankungen könnten Patientenschulungen ihr psychisches Befinden verbessern (z.B. De Ridder & Schreurs, 2001; Faller, Reusch & Meng, 2011a; Küver, Becker & Ludt, 2008; Schüssler, 1998; Warsi, Wang, LaValley, Avorn & Solomon, 2004). Für CED liegen jedoch nur wenige Schulungsevaluationen vor (z.B. Bregenzer et al., 2005; Mussell, Böcker, Nagel, Olbrich & Singer, 2003; Oxelmark, Magnusson, Löfberg & Hillerås, 2007), deren Aussagekraft i.d.R. durch methodische Mängel eingeschränkt ist. Daher ist die Bedeutung von Schulungsprogrammen für CED-Betroffene weiterhin offen. Überdies gibt es für den deutschen Sprachraum noch keine Schulung, die zu psychischen Verbesserungen führt. Aus diesem Grunde wurde ein 1,5-tägiges Wochenend-Seminar mit medizinischen und psychologischen Inhalten konzeptionalisiert, manualisiert und in der vorliegenden Studie evaluiert.
Zur summativen Evaluation nahmen 181 ambulante CED-Patienten an einer prospektiven, multizentrischen, randomisierten, kontrollierten Studie mit vier Messzeitpunkten teil: vor (T1), zwei Wochen (T2) und drei Monate (T3) nach dem Seminar. Zur 12-Monatskatamnese (T4EG) wurde die Stabilität der Effekte in der Experimentalgruppe (EG; n = 86) überprüft. Die Wartekontrollgruppe (n = 95) erhielt zunächst die Standardbehandlung, also keine Patientenschulung, und konnte an dieser nach der dritten Datenerhebung ebenfalls teilnehmen. Kovarianzanalysen (ANCOVAs) mit Kontrolle für die jeweilige Ausgangslage wurden durchgeführt. Weitere Analysen legten eine Adjustierung für die Krankheitsaktivität zu T1 nahe, weshalb diese als zusätzliche Kovariate in die ANCOVAs aufgenommen wurde. Krankheitsbezogene Ängste und Sorgen (PS-CEDE Gesamtwert zu T3; Krebs, Kachel & Faller, 1998) fungierten als primärer Zielparameter. Zu den sekundären Zielkriterien gehörten Progredienzangst und Angstbewältigung (PA-F-KF und PA-F; Mehnert, Herschbach, Berg, Henrich & Koch, 2006 bzw. Dankert et al., 2003; Herschbach et al., 2005) sowie die Gesundheitskompetenzen Positive Grundhaltung, Aktive Lebensgestaltung und Erwerb von Fertigkeiten und Handlungsstrategien (heiQ; Osborne, Elsworth & Whitfield, 2007; Schuler et al., 2013). Weitere sekundäre Zielparameter waren gesundheitsbezogene Lebensqualität (SF-12; Bullinger & Kirchberger, 1998), Symptome einer Angststörung oder Depression (PHQ-4; Kroenke, Spitzer, Williams & Löwe, 2009; Löwe et al., 2010), Wissen, der Umgang mit der CED bzw. von ihr ausgelösten negativen Gefühlen sowie die Zufriedenheit der Teilnehmenden mit dem Seminar. Von Interesse war außerdem, ob Geschlecht, Alter, Art, Dauer oder Aktivität der Erkrankung vor der Schulung einen Einfluss auf die genannten Variablen hatten und ob für sie differentielle Wirksamkeitseffekte bestanden. Darüber hinaus wurden krankheitsbezogene Ängste und Sorgen von ungeschulten Studienteilnehmern untersucht.
Zwei Wochen und drei Monate nach der Schulung ließen sich im Vergleich von Experimental- und Kontrollgruppe signifikante, mittlere bis große Effekte auf krankheitsbezogene Ängste und Sorgen, Progredienzangst und deren Bewältigung sowie eine Positive Grundhaltung der CED gegenüber erzielen (stets p ≤ .001). Außerdem kam es zu beiden Messzeitpunkten zu signifikanten, großen Interventionseffekten auf den Erwerb von Fertigkeiten und Handlungsstrategien im Umgang mit der Erkrankung, das Wissen um sie und den Umgang mit ihr (stets p < .001) sowie zu moderaten Effekten auf den Umgang mit CED-bedingten negativen Gefühlen (T2: p = .001; T3: p = .008). Alle beschriebenen Effekte waren auch nach zwölf Monaten noch stabil. Für Aktive Lebensgestaltung, gesundheitsbezogene Lebensqualität sowie Angst- und Depressionssymptomatik konnten keine Schulungseffekte nachgewiesen werden.
Die zusätzliche Kontrolle für die Krankheitsaktivität zu T1 führte zu keinen wesentlichen Änderungen in den Ergebnissen. Auch bei den Subgruppenanalysen hatte die Krankheitsaktivität keinen relevanten Einfluss auf die Wirksamkeit der Schulung. Gleiches gilt für Geschlecht, Alter, Art und Dauer der CED. Mit Ausnahme der Krankheitsaktivität deuteten dies bereits die zur Baseline durchgeführten t-Tests an, bei denen insgesamt nur sehr wenige signifikante, höchstens moderate Unterschiede zwischen den einzelnen Subgruppen auftraten.
Sowohl bei der formativen als auch der summativen Evaluation zeigte sich überdies die hohe Zufriedenheit der Teilnehmenden mit der Schulung. Neben der Akzeptanz konnte außerdem die Durchführbarkeit bestätigt werden. Die Auswertung der Ängste und Sorgen der Studienteilnehmenden lieferte zudem Hinweise für die Entwicklung und Modifikation von Interventionen für CED-Betroffene.
Es lässt sich festhalten, dass für die hier evaluierte Schulung für CED-Patienten ein Wirksamkeitsnachweis erbracht werden konnte und sie sehr positiv von den Teilnehmenden bewertet wurde. Sie führte sowohl kurz-, mittel- als auch langfristig zu substantiellen Verbesserungen in psychischer Belastung, Selbstmanagement-Fähigkeiten, der Bewältigung der Erkrankung sowie im Wissen und war gleichermaßen wirksam bei Betroffenen, die sich in Geschlecht, Alter, Art, Dauer oder Aktivität ihrer CED unterschieden.
Der Transformationsprozess in der Mongolei stellt besonders für den wirtschaftlichen Bereich eine große Herausforderung dar. Bei der Umgestaltung von der Plan-zur Marktwirtschaft nehmen dabei Führungskräfte eine Schlüsselfunktion ein, da sie wesentlichen Einfluss auf den Gestaltungsprozess der sich neu orientierenden Unternehmen haben. Die Arbeit untersucht das Verhältnis der Führungskräfte zu ihren Mitarbeitern vor dem Hintergrund neocharismatischer Theorieansätze und kommt zum dem Schluss, dass es Hinweise auf transformationale Führung gibt. Dabei nehmen Gruppenprozesse, die Person der Führungskraft sowie traditionelle und sozialistisch sozialisierte Elemente zentrale Rollen ein. Des Weiteren gibt es Verweise auf Konzepte der Authentizität und der Geteilten Führung.
Adipositas gilt seit einigen Jahren als eine der häufigsten chronischen Erkrankungen des Kindes- und Jugendalters. Welche Faktoren zu einer erfolgreichen Behandlung der Adipositas im Kindes- und Jugendalter führen, sind jedoch noch immer nicht ausreichend geklärt. Ein wichtiger – bisher jedoch weitgehend unbeachteter – Faktor, welcher möglicherweise wegweisend für den Therapieverlauf sein kann, ist das subjektive Krankheitskonzept der betroffenen Kinder. Das bedeutsamste theoretische Modell, welches den Einfluss der individuellen Krankheitsvorstellungen auf den Regulationsprozess eines Menschen im Umgang mit Erkrankungen beschreibt, ist das Common Sense Model of Illness Representation (CSM) von Howard Leventhal. Ziel der vorliegenden Arbeit war es die subjektiven Krankheitskonzepte adipöser Kinder zu erfassen und ihren Einfluss auf den Regulationsprozess zu analysieren. In einer ersten Untersuchung wurde mittels Daten von 168 adipösen Kindern im Alter von 8 bis 12 Jahren zunächst ein Fragebogen zur Erfassung der subjektiven Krankheitskonzepte entwickelt. Die Ergebnisse weisen darauf hin, dass der Fragebogen als reliabel und valide eingeschätzt werden kann. Mit Hilfe dieses Fragebogens konnte nachgewiesen werden, dass adipöse Kinder Konstrukte über ihre Erkrankung haben, welche in eigenständigen Dimensionen gespeichert werden. Die gefundenen initialen Krankheitskonzepte adipöser Kinder ergeben ein homogenes erwartungskonformes Bild. In einer zweiten Untersuchung wurden anschließend die subjektiven Krankheitskonzepte adipöser Kinder, die Bewältigungsstrategien sowie gesundheits- und krankheitsrelevante Kriteriumsvariablen untersucht. Die Befragungen erfolgten vor Beginn einer stationären Reha (T1), am Ende der Reha (T2) sowie sechs Monate nach Reha-Ende (T3). Von 107 Kindern liegen Daten zu allen drei Messzeitpunkten vor. Es konnte ein Zusammenhang zwischen Krankheitskonzepten, Bewältigungsstrategien und spezifischen Kriteriumsvariablen bei adipösen Kindern nachgewiesen werden. Die Analyse der Wirkzusammenhänge konnte zeigen, dass die kindlichen Krankheitskonzepte – neben den indirekten Einflüssen über die Bewältigungsstrategien – die Kriteriumsvariablen vor allem auch direkt beeinflussen können. Der Einfluss der initialen Krankheitskonzepte adipöser Kinder konnte hierbei sowohl im querschnittlichen als auch im längsschnittlichen Design bestätigt werden. Zudem konnten vielfältige Einflüsse der Veränderung der subjektiven Krankheitskonzepte während der Therapie gefunden werden. Die Veränderungen der Krankheitskonzepte wirken sowohl mittelfristig auf die individuellen Bewältigungsstrategien am Ende der Reha als auch längerfristig auf die adipositasspezifischen Kriteriumsvariablen Gewicht, Ernährung, Bewegung und Lebensqualität. Die Befunde stärken die Relevanz und das Potential der zielgerichteten Modifikation adaptiver bzw. maladaptiver Krankheitskonzepte innerhalb der stationären Therapie der kindlichen Adipositas. Zudem konnte bestätigt werden, dass subjektive Krankheitskonzepte und ihre Veränderung innerhalb der Therapie einen relevanten Beitrag zur Vorhersage des kindlichen Therapieerfolgs über einen längerfristigen Zeitraum leisten können.
Adipositas ist eine chronische Erkrankung mit erheblichen Komorbiditäten und Folgeschäden, die bereits im Kindes- und Jugendalter weit verbreitet ist. Unterschiedliche Faktoren sind an der Ätiologie dieser Störung beteiligt. Die Ernährung stellt dabei eine der Hauptsäulen dar, auf welche immer wieder Bezug genommen wird. Der Einfluss der Eltern auf die kindliche Ernährung spielt unbestritten eine zentrale Rolle – hinsichtlich genetischer Dispositionen, aber auch als Gestalter der Lebensumwelten und Vorbilder im Ernährungsbereich. Die vorliegende Arbeit hat zum Ziel, Übereinstimmungen elterlicher und kindlicher Ernährung zu untersuchen und dabei zu prüfen, inwiefern Prozesse des Modelllernens für die Zusammenhänge verantwortlich zeichnen. Grundlage ist die sozial-kognitive Theorie Albert Banduras mit dem Fokus auf seinen Ausführungen zum Beobachtungs- oder Modelllernen. Die Zusammenhänge elterlicher und kindlicher Ernährung wurden anhand einer Stichprobe 7 – 13-jähriger adipöser Kinder und ihrer Eltern in Beziehung gesetzt zu den Bedingungen des Modelllernens, die zuvor auch in anderen Studien gefunden worden waren. Eine hohe Ähnlichkeit oder gute Beziehung zwischen Modell (Mutter bzw. Vater) und Lernendem (Kind) sollte demnach moderierend auf die Stärke des Zusammenhangs wirken. Aus Banduras Ausführungen zu den Phasen des Modelllernens ergibt sich zudem ein dritter Aspekt, der in das Untersuchungsmodell einbezogen wurde. Die von Bandura postulierte Aneignungsphase setzt voraus, dass das zu lernende Verhalten auch beobachtet werden kann. Aus diesem Grund sollte die Analyse von Zusammenhängen im Verhalten nicht losgelöst von der Zeit betrachtet werden, die Modell und Beobachter miteinander verbringen bzw. verbracht haben. Zudem wurde die Wahrnehmung eines Elternteils als Vorbild beim Kind erfragt und als Moderator aufgenommen. In die Analysen eingeschlossen wurden vollständige Mutter-Vater-Kind-Triaden. Im Querschnitt der Fragebogenerhebung waren die Daten von 171 Mädchen und 176 Jungen, in einem 7 Monate darauf folgenden Längsschnitt insgesamt 75 Triaden (davon 38 Mädchen) enthalten. Es zeigte sich ein positiver Zusammenhang zwischen der kindlichen und mütterlichen Ernährung ebenso wie zwischen der kindlichen und väterlichen Ernährung. Die Übereinstimmungen zwischen Mutter und Kind waren größer als zwischen Vater und Kind. Überwiegend bestätigt werden konnten der moderierende Einfluss der Beziehungsqualität und der Vorbildwahrnehmung auf die Zusammenhänge elterlicher und kindlicher gesunder Ernährung und der Einfluss gemeinsam verbrachter Zeit vor allem in Bezug auf Vater-Kind-Zusammenhänge problematischer Ernährung. Der väterliche Einfluss, der sowohl in Studien als auch in präventiven oder therapeutischen Angeboten oft noch vernachlässigt wird und in vorliegender Arbeit besondere bzw. gleichberechtigte Beachtung fand, zeigte sich durch den Einbezug moderierender Variablen verstärkt. Eine Ansprache von Müttern und Vätern gleichermaßen ist somit unbedingtes Ziel bei der Prävention und Therapie kindlicher Adipositas. Auch jenseits des Adipositaskontextes sollten Eltern für die Bedeutung elterlicher Vorbildwirkung sensibilisiert werden, um eine gesunde Ernährungsweise ihrer Kinder zu fördern.
Anorexia nervosa und unipolare Affektive Störungen stellen häufige und schwerwiegende kinder- und jugendpsychiatrische Störungsbilder dar, deren Pathogenese bislang nicht vollständig entschlüsselt ist. Verschiedene Studien zeigen bei erwachsenen Patienten gravierende Auffälligkeiten in den kognitiven Funktionen. Dahingegen scheinen bei adoleszenten Patienten lediglich leichtere Einschränkungen in den kognitiven Funktionen vorzuliegen. Die Prävalenz der Anorexia nervosa und unipolaren Affektiven Störung ist mit Beginn der Adoleszenz deutlich erhöht. Es ist anzunehmen, dass kognitive Dysfunktionen, die sich bereits in diesem Alter abzeichnen, den weiteren Krankheitsverlauf bis in das Erwachsenenalter, die Behandlungsergebnisse und die Prognose maßgeblich beeinträchtigen könnten. Zudem ist von einem höheren Chronifizierungsrisiko auszugehen. In der vorliegenden Arbeit wurden daher kognitive Funktionen bei adoleszenten Patientinnen mit Anorexia nervosa sowie Patienten mit unipolaren Affektiven Störungen untersucht. Die Überprüfung der kognitiven Funktionen bei Patientinnen mit Anorexia nervosa erfolgte vor und nach Gewichtszunahme. Weiterhin wurden zugrundeliegende biologische Mechanismen überprüft. Zudem wurde die Spezifität kognitiver Dysfunktionen für beide Störungsbilder untersucht und bei Patienten mit unipolaren Affektiven Störungen geschlechtsbezogene Unterschiede exploriert. Insgesamt gingen 47 Patientinnen mit Anorexia nervosa (mittleres Alter 16,3 + 1,6 Jahre), 39 Patienten mit unipolaren Affektiven Störungen (mittleres Alter 15,5 + 1,3 Jahre) sowie 78 Kontrollprobanden (mittleres Alter 16,5 + 1,3 Jahre) in die Untersuchung ein. Sämtliche Studienteilnehmer durchliefen eine neuropsychologische Testbatterie, bestehend aus Verfahren zur Überprüfung der kognitiven Flexibilität sowie visuellen und psychomotorischen Verarbeitungsgeschwindigkeit. Neben einem Intelligenzscreening wurden zudem das Ausmaß der depressiven Symptomatik sowie die allgemeine psychische Belastung erfasst. Die Ergebnisse legen nahe, dass bei adoleszenten Patientinnen mit Anorexia nervosa, sowohl im akut untergewichtigen Zustand als auch nach Gewichtszunahme, lediglich milde Beeinträchtigungen in den kognitiven Funktionen vorliegen. Im akut untergewichtigen Zustand offenbarten sich deutliche Zusammenhänge zwischen dem appetitregulierenden Peptid Agouti-related Protein und kognitiver Flexibilität, nicht jedoch zwischen Agouti-related Protein und visueller oder psychomotorischer Verarbeitungsgeschwindigkeit. Bei dem Vergleich von Anorexia nervosa und unipolaren Affektiven Störungen prädizierte die Zugehörigkeit zu der Patientengruppe Anorexia nervosa ein Risiko für das Vorliegen kognitiver Dysfunktionen. Es zeigte sich zudem, dass adoleszente Patienten mit unipolaren Affektiven Störungen lediglich in der psychomotorischen Verarbeitungsgeschwindigkeit tendenziell schwächere Leistungen offenbarten als gesunde Kontrollprobanden. Es ergab sich jedoch ein genereller geschlechtsbezogener Vorteil für weibliche Probanden in der visuellen und psychomotorischen Verarbeitungsgeschwindigkeit. Die vorliegenden Befunde unterstreichen die Notwendigkeit der Überprüfung kognitiver Funktionen bei adoleszenten Patienten mit Anorexia nervosa sowie unipolaren Affektiven Störungen in der klinischen Routinediagnostik. Die Patienten könnten von spezifischen Therapieprogrammen profitieren, die Beeinträchtigungen in den kognitiven Funktionen mildern bzw. präventiv behandeln.
Im Rahmen der Dissertation wird die Anwendung und Wirkung von Kernelementen des New Public Management (NPM) am Beispiel der Bürgerdienste der sechs europäischen Hauptstädte Berlin, Brüssel, Kopenhagen, Madrid, Prag und Warschau analysiert. Hierbei steht der Vergleich von Hauptstädten der MOE-Staaten mit Hauptstädten alter EU-Mitgliedsstaaten im Vordergrund. Es wird die folgende Forschungshypothese untersucht: Die Verwaltungen in den Hauptstädten der östlichen Mitgliedsstaaten der EU haben in Folge der grundsätzlichen gesellschaftlichen und politischen Umbrüche in den 1990er Jahren bedeutend mehr Kernelemente des NPM beim Neuaufbau ihrer öffentlichen Verwaltungen eingeführt. Durch den folgerichtigen Aufbau kundenorientierter und moderner Verwaltungen sowie der strikten Anwendung der Kernelemente des New Public Management arbeiten die Bürgerdienste in den Hauptstädten östlicher EU-Mitgliedsstaaten effizienter und wirkungsvoller als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten. Zur Überprüfung der Forschungshypothese werden die Vergleichsstädte zunächst den entsprechenden Rechts- und Verwaltungstraditionen (kontinentaleuropäisch deutsch, napoleonisch und skandinavisch) zugeordnet und bezüglich ihrer Ausgangslage zum Aufbau einer modernen Verwaltung (Westeuropäische Verwaltung, Wiedervereinigungsverwaltung und Transformations-verwaltung) kategorisiert. Im Anschluss werden die institutionellen Voraussetzungen hinterfragt, was die deskriptive Darstellung der Stadt- und Verwaltungsgeschichte sowie die Untersuchung von organisatorischen Strukturen der Bürgerdienste, die Anwendung der NPM-Instrumente als auch die Innen- und Außenperspektive des NPM umfasst. Es wird festgestellt, ob und in welcher Form die Bürgerdienste der Vergleichsstädte die Kernelemente des NPM anwenden. Im Anschluss werden die Vergleichsstädte bezüglich der Anwendung der Kernelemente miteinander verglichen, wobei der Fokus auf dem persönlichen Vertriebsweg und der Kundenorientierung liegt. Der folgende Teil der Dissertation befasst sich mit dem Output der Bürgerdienste, der auf operative Resultate untersucht und verglichen wird. Hierbei stellt sich insbesondere die Frage nach den Leistungsmengen und der Produktivität des Outputs. Es werden aber auch die Ergebnisse von Verwaltungsprozessen untersucht, insbesondere in Bezug auf die Kundenorientierung. Hierfür wird ein Effizienzvergleich der Bürgerdienste in den Vergleichsstädten anhand einer relativen Effizienzmessung und der Free Disposal Hull (FDH)-Methode nach Bouckaert durchgeführt. Es ist eine Konzentration auf populäre Dienstleistungen aus dem Portfolio der Bürgerdienste notwendig. Daher werden die vergleichbaren Dienstleistungen Melde-, Personalausweis-, Führerschein- und Reisepass-angelegenheiten unter Einbeziehung des Vollzeitäquivalents zur Berechnung der Effizienz der Bürgerdienste herangezogen. Hierfür werden Daten aus den Jahren 2009 bis 2011 genutzt, die teilweise aus verwaltungsinternen Datenbanken stammen. Anschließend wird der Versuch unternommen, den Outcome in die Effizienzanalyse der Bürgerdienste einfließen zu lassen. In diesem Zusammenhang wird die Anwendbarkeit von verschiedenen erweiterten Best-Practice-Verfahren und auch eine Erweiterung der relativen Effizienzmessung und der FDH-Methode geprüft. Als Gesamtfazit der Dissertation kann festgehalten werden, dass die Bürgerdienste in den untersuchten Hauptstädten der MOE-Staaten nicht mehr Kernelemente des NPM anwenden, als die Hauptstädte der westlichen Mitgliedsstaaten der EU. Im Gegenteil wendet Prag deutlich weniger NPM-Instrumente als andere Vergleichsstädte an, wohingegen Warschau zwar viele NPM-Instrumente anwendet, jedoch immer von einer westeuropäischen Vergleichsstadt übertroffen wird. Auch die Hypothese, dass die Bürgerdienste in den Hauptstädten der MOE-Staaten effizienter arbeiten als vergleichbare Bürgerdienste in den Hauptstädten westlicher EU-Mitgliedsstaaten wurde durch die Dissertation entkräftet. Das Gegenteil ist der Fall, da Prag und Warschau im Rahmen des Effizienzvergleichs lediglich durchschnittliche oder schlechte Performances aufweisen. Die aufgestellte Hypothese ist durch die Forschungsergebnisse widerlegt, lediglich das gute Abschneiden der Vergleichsstadt Warschau bei der Anwendungsanalyse kann einen Teil der These im gewissen Umfang bestätigen.
Diese Arbeit untersucht, was passiert, wenn in Non-Profit-Organisation (NPO) der Anspruch des Bürgerschaftlichen Engagements auf Praktiken des Freiwilligenmanagements trifft. Ausgangspunkt dieser Fragestellung ist eine doppelte Diagnose: Zum einen setzen NPOs aufgrund mehrerer Faktoren - u.a. Ressourcenknappheit, Wettbewerb und Nachahmungseffekten – vermehrt auf Freiwilligenmanagement. Mit dieser von der BWL inspirierten, aber für NPO entwickelten Personalführungsmethode wollen sie mehr und bessere Freiwillige gewinnen und deren Einsatz effizienter strukturieren. Zum anderen haben sich gleichzeitig viele NPO dem Ziel des bürgerschaftlichen Engagements verschrieben. Damit reagieren sie auf den aus Politik und Wissenschaft zu vernehmenden Anspruch, die Zivilgesellschaft möge die knappen Kassen der öffentlichen Hand kompensieren und das wachsende Partizipationsbedürfnis weiter Teile der Bevölkerung durch eine neue Kultur der Teilhabe der Bürgerinnen und Bürger befriedigen. Bei näherer Betrachtung zeigt sich jedoch: Während Freiwilligenmanagement einer ökonomischen Handlungslogik folgt, ist bürgerschaftliches Engagement Ausdruck einer Handlungslogik der Zivilgesellschaft. Beide sind unter gegenwärtigen Bedingungen weder theoretisch noch praktisch miteinander vereinbar. Um beide Entwicklungen miteinander zu versöhnen, muss Freiwilligenmanagement unter dem Banner des Bürgerschaftlichen neu gedacht werden. Dieses Argument unterfüttert die Arbeit sowohl theoretisch und empirisch. Der Theorieteil gliedert sich in drei Teile. Zunächst wird der Begriff der NPO näher eingegrenzt. Dazu wird die bestehende Literatur zum Dritten Sektor und Non-Profit-Organisationen zu einem operationalisierbaren Begriff von NPO kondensiert. Daran anschließend werden aktuelle Trends im Feld der NPO identifiziert, die zeigen, dass NPO tatsächlich oft von widerstreitenden Handlungslogiken gekennzeichnet sind, darunter eine ökonomische und eine bürgerschaftliche. Die beiden folgenden Kapitel untersuchen dann jeweils eine der beiden Logiken. Zunächst wird das Leitbild des bürgerschaftlichen Engagements als Ausdruck einer zivilgesellschaftlichen Handlungslogik näher definiert. Dabei zeigt sich, dass dieser Begriff oft sehr unscharf verwendet wird. Daher greift die Arbeit auf die politiktheoretische Diskussion um Zivil- und Bürgergesellschaft auf und schmiedet daraus eine qualifizierte Definition von bürgerschaftlichem Engagement, die sich maßgeblich am Ideal von gesellschaftlich-politischer Partizipation und bürgerschaftlicher Kompetenz orientiert. Dem wird im dritten und letzten Kapitel des Theorieteils die ökonomische Handlungslogik in Form der Theorie des Freiwilligenmanagements gegenübergestellt. Bei der Darstellung zeigt sich schnell, dass dessen Grundprinzipien – anders als oft vorgebracht – mit den qualifizierten Idealen von Partizipation und Konkurrenz im Konflikt stehen. In der empirischen Analyse wird dann in den 8 Interviews den Widersprüchen zwischen bürgerschaftlichem Engagement und Freiwilligenmanagement in der Praxis nachgegangen. Die Ergebnisse dieser Untersuchung lassen sich in 5 Punkten zusammenfassen: 1. Freiwilligenmanagement orientiert sich erstens im wesentlichen an einer Zahl: Dem Zugewinn oder Verlust von freiwilliger Arbeit. 2. Freiwilligenmanagement installiert ein umfassendes System der Selektion von „passenden“ Freiwilligen. 3. Positiv hervorzuheben ist die institutionalisierte Ansprechbarkeit, die im Rahmen von Freiwilligenmanagement in NPO Einzug erhält. 4. Freiwilligenmanagement ist eng mit dem Anspruch verbunden, die Arbeit der Freiwilligen zu kontrollieren. Der Eigensinn des Engagements, die Notwendigkeit von Spielräumen, die Möglichkeit des Ausprobierens oder der Anspruch der Freiwilligen, an Entscheidungen zu partizipieren bzw. gar selbstorganisiert und -verantwortlich zu handeln, rückt dabei in den Hintergrund. 5. In den Interviews wird eine starke Ökonomisierung des Engagements sichtbar. Freiwillige werden als Ressource betrachtet, ihr Engagement als „Zeitspende“ statistisch erfasst, ihre (Dienst-)Leistung monetär bewertet. Im Zuge dessen erhält auch der Managerialism verstärkt Einfluss auf die Arbeit in NPO und begründet ein stark hierarchisches Verhältnis: Während die Freiwilligenmangerin aktiv handelt, wird die freiwillig Engagierte zum Objekt von Management-Techniken. Dass dies dem Anspruch der Partizipation entgegenläuft, ergibt sich dabei von selbst. Angesichts dieser Diagnose, dass real-existierendes Freiwilligenmanagement nicht mit dem Ideal des bürgerschaftlichen Engagement im engeren Sinne zusammenpasst, formuliert das Fazit Vorschläge für ein bürgerschaftlich orientiertes, engagement-sensibles Freiwilligenmanagement.
Indonesien zählt zu den weltweit führenden Ländern bei der Nutzung von geothermischer Energie. Die geothermischen Energiequellen sind im Wesentlichen an den aktiven Vulkanismus gebunden, der durch die Prozesse an der indonesischen Subduktionszone verursacht wird. Darüber hinaus sind geotektonische Strukturen wie beispielsweise die Sumatra-Störung als verstärkende Faktoren für das geothermische Potenzial von Bedeutung. Bei der geophysikalischen Erkundung der indonesischen Geothermie-Ressourcen konzentrierte man sich bisher vor allem auf die Magnetotellurik. Passive Seismologie wurde dahingegen ausschließlich für die Überwachung von im Betrieb befindlichen Geothermie-Anlagen verwendet. Jüngste Untersuchungungen z.B. in Island und in den USA haben jedoch gezeigt, dass seismologische Verfahren bereits in der Erkundungsphase wichtige Informationen zu den physikalischen Eigenschaften, zum Spannungsfeld und zu möglichen Fluid- und Wärmetransportwegen liefern können. In der vorgelegten Doktorarbeit werden verschiedene moderne Methoden der passiven Seismologie verwendet, um beispielhaft ein neues, von der indonesischen Regierung für zukünftige geothermische Energiegewinnung ausgewiesenes Gebiet im nördlichen Teil Sumatras (Indonesien) zu erkunden. Die konkreten Ziele der Untersuchungen umfassten (1) die Ableitung von 3D Strukturmodellen der P- und S-Wellen Geschwindigkeiten (Parameter Vp und Vs), (2) die Bestimmung der Absorptionseigenschaften (Parameter Qp), und (3) die Kartierung und Charakterisierung von Störungssystemen auf der Grundlage der Seismizitätsverteilung und der Herdflächenlösungen. Für diese Zwecke habe ich zusammen mit Kollegen ein seismologisches Netzwerk in Tarutung (Sumatra) aufgebaut und über einen Zeitraum von 10 Monaten (Mai 2011 – Februar 2012) betrieben. Insgesamt wurden hierbei 42 Stationen (jeweils ausgestattet mit EDL-Datenlogger, 3-Komponenten, 1 Hz Seismometer) über eine Fläche von etwa 35 x 35 km verteilt. Mit dem Netzwerk wurden im gesamten Zeitraum 2568 lokale Erdbeben registriert. Die integrierte Betrachtung der Ergebnisse aus den verschiedenen Teilstudien (Tomographie, Erdbebenverteilung) erlaubt neue Einblicke in die generelle geologische Stukturierung sowie eine Eingrenzung von Bereichen mit einem erhöhten geothermischen Potenzial. Das tomographische Vp-Modell ermöglicht eine Bestimmung der Geometrie von Sedimentbecken entlang der Sumatra-Störung. Für die Geothermie besonders interessant ist der Bereich nordwestlich des Tarutung-Beckens. Die dort abgebildeten Anomalien (erhöhtes Vp/Vs, geringes Qp) habe ich als mögliche Aufstiegswege von warmen Fluiden interpretiert. Die scheinbar asymetrische Verteilung der Anomalien wird hierbei im Zusammenhang mit der Seismizitätsverteilung, der Geometrie der Beben-Bruchflächen, sowie struktur-geologischen Modellvorstellungen diskutiert. Damit werden wesentliche Informationen für die Planung einer zukünftigen geothermischen Anlage bereitgestellt.
NutzerInnen von gewalthaltigen Medien geben einerseits oftmals zu, dass sie fiktionale, gewalthaltige Medien konsumieren, behaupten jedoch gleichzeitig, dass dies nicht ihr Verhalten außerhalb des Medienkontexts beeinflusst. Sie argumentieren, dass sie leicht zwischen Dingen, die im fiktionalen Kontext und Dingen, die in der Realität gelernt wurden, unterscheiden können. Im Kontrast zu diesen Aussagen zeigen Metanalysen Effektstärken im mittleren Bereich für den Zusammenhang zwischen Gewaltmedienkonsum und aggressivem Verhalten. Diese Ergebnisse können nur erklärt werden, wenn MediennutzerInnen gewalthaltige Lernerfahrungen auch außerhalb des Medienkontexts anwenden. Ein Prozess, der Lernerfahrungen innerhalb des Medienkontexts mit dem Verhalten in der realen Welt verknüpft, ist Desensibilisierung, die oftmals eine Reduktion des negativen Affektes gegenüber Gewalt definiert ist. Zur Untersuchung des Desensibilisierungsprozesses wurden vier Experimente durchgeführt. Die erste in dieser Arbeit untersuchte Hypothese war, dass je häufiger Personen Gewaltmedien konsumieren, desto weniger negativen Affekt zeigen sie gegenüber Bildern mit realer Gewalt. Jedoch wurde angenommen, dass diese Bewertung auf Darstellungen von realer Gewalt beschränkt ist und nicht bei Bildern ohne Gewaltbezug, die einen negativen Affekt auslösen, zu finden ist. Die zweite Hypothese bezog sich auf den Affekt während des Konsums von Mediengewalt. Hier wurde angenommen, dass besonders Personen, die Freude an Gewalt in den Medien empfinden weniger negativen Affekt gegenüber realen Gewaltdarstellungen zeigen. Die letzte Hypothese beschäftigte sich mit kognitiver Desensibilisierung und sagte vorher, dass Gewaltmedienkonsum zu einem Transfer von Reaktionen, die normalerweise gegenüber gewalthaltigen Reizen gezeigt werden, auf ursprünglich neutrale Reize führt. Das erste Experiment (N = 57) untersuchte, ob die habituelle Nutzung von gewalthaltigen Medien den selbstberichteten Affekt (Valenz und Aktivierung) gegenüber Darstellungen von realer Gewalt und nichtgewalthaltigen Darstellungen, die negativen Affekt auslösen, vorhersagt. Die habituelle Nutzung von gewalthaltigen Medien sagte weniger negative Valenz und weniger allgemeine Aktivierung gegenüber gewalthalten und nichtgewalthaltigen Bildern vorher. Das zweite Experiment (N = 103) untersuchte auch die Beziehung zwischen habituellem Gewaltmedienkonsum und den affektiven Reaktionen gegenüber Bildern realer Gewalt und negativen affektauslösenden Bildern. Als weiterer Prädiktor wurde der Affekt beim Betrachten von gewalthaltigen Medien hinzugefügt. Der Affekt gegenüber den Bildern wurde zusätzlich durch psychophysiologische Maße (Valenz: C: Supercilii; Aktivierung: Hautleitreaktion) erhoben. Wie zuvor sagte habitueller Gewaltmedienkonsum weniger selbstberichte Erregung und weniger negative Valenz für die gewalthaltigen und die negativen, gewalthaltfreien Bilder vorher. Die physiologischen Maßen replizierten dieses Ergebnis. Jedoch zeigte sich ein anderes Muster für den Affekt beim Konsum von Gewalt in den Medien. Personen, die Gewalt in den Medien stärker erfreut, zeigen eine Reduktion der Responsivität gegenüber Gewalt auf allen vier Maßen. Weiterhin war bei drei dieser vier Maße (selbstberichte Valenz, Aktivität des C. Supercilii und Hautleitreaktion) dieser Zusammenhang auf die gewalthaltigen Bilder beschränkt, mit keinem oder nur einem kleinen Effekt auf die negativen, aber nichtgewalthaltigen Bilder. Das dritte Experiment (N = 73) untersuchte den Affekt während die Teilnehmer ein Computerspiel spielten. Das Spiel wurde eigens für dieses Experiment programmiert, sodass einzelne Handlungen im Spiel mit der Aktivität des C. Supercilii, dem Indikator für negativen Affekt, in Bezug gesetzt werden konnten. Die Analyse des C. Supercilii zeigte, dass wiederholtes Durchführen von aggressiven Spielzügen zu einem Rückgang von negativen Affekt führte, der die aggressiven Spielhandlungen begleitete. Der negative Affekt während gewalthaltiger Spielzüge wiederum sagte die affektive Reaktion gegenüber Darstellungen von gewalthaltigen Bildern vorher, nicht jedoch gegenüber den negativen Bildern. Das vierte Experiment (N = 77) untersuchte kognitive Desensibilisierung, die die Entwicklung von Verknüpfungen zwischen neutralen und aggressiven Kognitionen beinhaltete. Die Teilnehmer spielten einen Ego-Shooter entweder auf einem Schiff- oder einem Stadtlevel. Die Beziehung zwischen den neutralen Konstrukten (Schiff/Stadt) und den aggressiven Kognitionen wurde mit einer lexikalischen Entscheidungsaufgabe gemessen. Das Spielen im Schiff-/Stadt-Level führte zu einer kürzen Reaktionszeit für aggressive Wörter, wenn sie einem Schiff- bzw. Stadtprime folgten. Dies zeigte, dass die im Spiel enthaltenen neutralen Konzepte mit aggressiven Knoten verknüpft werden. Die Ergebnisse dieser vier Experimente wurden diskutiert im Rahmen eines lerntheoretischen Ansatzes um Desensibilisierung zu konzeptualisieren.
In den vergangenen Jahren wurden stetig wachsende Produktionskapazitäten von Biokunststoffen aus nachwachsenden Rohstoffe nverzeichnet. Trotz großer Produktionskapazitäten und einem geeigneten Eigenschaftsprofil findet Stärke nur als hydrophile, mit Weichmachern verarbeitete thermoplastische Stärke (TPS) in Form von Blends mit z. B. Polyestern Anwendung. Gleiches gilt für Kunststoffe auf Proteinbasis. Die vorliegende Arbeit hat die Entwicklung von Biokunststoffen auf Stärkebasis zum Ziel, welche ohne externe Weichmacher thermoplastisch verarbeitbar und hydrophob sind sowie ein mechanisches Eigenschaftsprofil aufweisen, welches ein Potenzial zur Herstellung von Materialien für eine Anwendung als Verpackungsmittel bietet. Um die Rohstoffbasis für Biokunststoffe zu erweitern, soll das erarbeitete Konzept auf zwei industriell verfügbare Proteintypen, Zein und Molkenproteinisolat (WPI), übertragen werden. Als geeignete Materialklasse wurden Fettsäureester der Stärke herausgearbeitet. Zunächst fand ein Vergleich der Säurechlorid-Veresterung und der Umesterung von Fettsäurevinylestern statt, woraus letztere als geeignetere Methode hervorging. Durch Variation der Reaktionsparameter konnte diese optimiert und auf eine Serie der Fettsäurevinylester von Butanoat bis Stearat für DS-Werte bis zu 2,2-2,6 angewandt werden. Möglich war somit eine systematische Studie unter Variation der veresterten Fettsäure sowie des Substitutionsgrades (DS). Sämtliche Produkte mit einem DS ab 1,5 wiesen eine ausgprägte Löslichkeit in organischen Lösungsmitteln auf wodurch sowohl die Aufnahme von NMR-Spektren als auch Molmassenbestimmung mittels Größenausschlusschromatographie mit gekoppelter Mehrwinkel-Laserlichtstreuung (GPC-MALLS) möglich waren. Durch dynamische Lichtstreuung (DLS) wurde das Löslichkeitsverhalten veranschaulicht. Sämtliche Produkte konnten zu Filmen verarbeitet werden, wobei Materialien mit DS 1,5-1,7 hohe Zugfestigkeiten (bis zu 42 MPa) und Elastizitätsmodule (bis 1390 MPa) aufwiesen. Insbesondere Stärkehexanoat mit DS <2 sowie Stärkebutanoat mit DS >2 hatten ein mechanisches Eigenschaftsprofil, welches insbesondere in Bezug auf die Festigkeit/Steifigkeit vergleichbar mit Verpackungsmaterialien wie Polyethylen war (Zugfestigkeit: 15-32 MPa, E-Modul: 300-1300 MPa). Zugfestigkeit und Elastizitätsmodul nahmen mit steigender Kettenlänge der veresterten Fettsäure ab. Ester längerkettiger Fettsäuren (C16-C18) waren spröde. Über Weitwinkel-Röntgenstreuung (WAXS) und Infrarotspektroskopie (ATR-FTIR) konnte der Verlauf der Festigkeiten mit einer zunehmenden Distanz der Stärke im Material begründet werden. Es konnten von DS und Kettenlänge abhängige Glasübergänge detektiert werden, die kristallinen Strukturen der langkettigen Fettsäuren zeigten einen Schmelzpeak. Die Hydrophobie der Filme wurde anhand von Kontaktwinkeln >95° gegen Wasser dargestellt. Blends mit biobasierten Polyterpenen sowie den in der Arbeit hergestellten Zein-Acylderivaten ermöglichten eine weitere Verbesserung der Zugfestigkeit bzw. des Elastizitätsmoduls hochsubstituierter Produkte. Eine thermoplastische Verarbeitung mittels Spritzgießen war sowohl für Produkte mit hohem als auch mittlerem DS-Wert ohne jeglichen Zusatz von Weichmachern möglich. Es entstanden homogene, transparente Prüfstäbe. Untersuchungen der Härte ergaben auch hier für Stärkehexanoat und –butanoat mit Polyethylen vergleichbare Werte. Ausgewählte Produkte wurden zu Fasern nach dem Schmelzspinnverfahren verarbeitet. Hierbei wurden insbesondere für hochsubstituierte Derivate homogenen Fasern erstellt, welche im Vergleich zur Gießfolie signifikant höhere Zugfestigkeiten aufwiesen. Stärkeester mit mittlerem DS ließen sich ebenfalls verarbeiten. Zunächst wurden für eine Übertragung des Konzeptes auf die Proteine Zein und WPI verschiedene Synthesemethoden verglichen. Die Veresterung mit Säurechloriden ergab hierbei die höchsten Werte. Im Hinblick auf eine gute Löslichkeit in organischen Lösungsmitteln wurde für WPI die Veresterung mit carbonyldiimidazol (CDI)-aktivierten Fettsäuren in DMSO und für Zein die Veresterung mit Säu-rechloriden in Pyridin bevorzugt. Es stellte sich heraus, dass acyliertes WPI zwar hydrophob, jedoch ohne Weichmacher nicht thermoplastisch verarbeitet werden konnte. Die Erstellung von Gießfolien führte zu Sprödbruchverhalten. Unter Zugabe der biobasierten Ölsäure wurde die Anwendung von acyliertem WPI als thermoplastischer Filler z. B. in Blends mit Stärkeestern dargestellt. Im Gegensatz hierzu zeigte acyliertes Zein Glasübergänge <100 °C bei ausreichender Stabilität (150-200 °C). Zeinoleat konnte ohne Weichmacher zu einer transparenten Gießfolie verarbeitet werden. Sämtliche Derivate erwiesen sich als ausgeprägt hydrophob. Zeinoleat konnte über das Schmelzspinnverfahren zu thermoplastischen Fasern verarbeitet werden.
1. Teil A – Theoretische Grundlegung der Arbeit Die wissenschaftliche Arbeit beginnt mit der Darstellung der Problemstellung und der Zielsetzung der wissenschaftlichen Arbeit. Es wird deutlich aufgezeigt werden, dass sich die Lehre des Qualitätsmanagements (QM) nur sehr unzureichend mit den sozialen Aspekten der Information & Kommunikation (I&K) und dem organisatorischen Wandel beschäftigt hat. Aus diesen beiden Unterkapiteln werden die Forschungsfragen abgeleitet und der weitere Aufbau der Arbeit konstruiert. (Kapitel 1). Aufgrund der Problemstellung startet das zweite Kapitel im Rahmen der theoretischen Grundlagen mit der sozialen Systemtheorie. Die Entscheidung für die soziale Systemtheorie wird begründet. Im Zusammenhang mit den sozialen Aspekten der I&K werden die relevanten Erkenntnisbeiträge der sozialen Systemtheorien als einzelne Komponenten vorgestellt. Diese Komponenten werden dann zu einem systemtheoretischen I&K-Modell (SEM) zusammengefügt. (Kapitel 2). Damit die beiden Disziplinen QM und soziale Systemtheorie miteinander verbunden werden können, bedarf es im dritten Kapitel der Dissertation einer Vorstellung der dafür notwendigen und relevanten Inhalte des QM. Im Zuge der Vorstellung der Inhalte des QM werden diese bereits mit der sozialen Systemtheorie verknüpft, um damit aufzuzeigen, wie QMS durch I&K existieren und operieren (Kapitel 3). Das vierte Kapitel verbindet dann die beiden Disziplinen QM und soziale Systemtheorie miteinander, wodurch ein systemtheoretisches QM-Modell (SQM) entsteht. Dieses Modell erklärt den Zusammenhang von QM, I&K und organisatorischem Wandel(Kapitel 4). 2. Teil B – Empirische Untersuchung Für die empirische Untersuchung wird in Kapitel fünf das allgemeine Forschungsdesign hergeleitet werden. Darauf folgt die Vorstellung des Aufbaus und der Abfolge von Interviews und eines Fragebogens (Kapitel 5). Das sechste Kapitel erklärt die Zielsetzung, Hintergrund und Methodik der Experteninterviews mit den Qualitätsmanagementbeauftragten (QMB) und unter-sucht die gängige Praxis des QM bzgl. der sozialen Aspekte der I&K. (Kapitel 6). Das Kapitel sieben erklärt die Zielsetzung, Hintergrund und Methodik der Interviews mit den Unternehmen der Best-Practise (BP). (Kapitel 7). Im Kapitel acht werden die Ursache und Wirkung der sozialen Aspekte der I&K über die Unternehmenskultur im Rahmen eines QMS dargestellt. (Kapitel 8). Im Kapitel neun erfolgt ein Resümee der empirischen Untersuchungen. Die Ergebnisse der empirischen Untersuchungen werden kritisch gewürdigt. Des Weiteren wird aufgezeigt, welcher weitere empirische Forschungsbedarf aufgedeckt wurde.(Kapitel 9). 3. Teil C - Abschluss Der Schlussteil der Arbeit beginnt mit dem zehnten Kapitel durch die Herleitung und Begründung von Verbesserungspotentialen und Handlungsempfehlungen für die Praxis im QM.(Kapitel 10). Im elften Kapitel erfolgt die Beantwortung der Forschungsfragen und der kritischen Würdigung der generierten Erkenntnisse.(Kapitel 11). Im zwölften Kapitel endet die Arbeit mit einem Ausblick auf weiteren Forschungsbedarf, welcher durch das Ergebnis dieser Arbeit entstanden ist (Kapitel 12).
„Alle Kinder müssen zu wertvollen Menschen erzogen werden“, forderte Margot Honecker, Erziehungsminister der DDR von 1963 bis 1989. Während liberale Jugendsoziologen die Jugendphase als Moratorium begreifen und damit Heranwachsenden Freiräume zubilligen, geltende soziale Normen infrage zu stellen und selbstbestimmte Lebensentwürfe zu erproben, ohne ihr Handeln in gleicher Weise verantworten zu müssen wie Erwachsene, wurden Jugendliche in der DDR danach beurteilt, inwieweit sie dem Ideal der „allseitig gebildeten sozialistischen Persönlichkeit“ entsprachen. Nach Honeckers Ansicht wäre die freie Entfaltung des Individuums erst im Kommunismus möglich. Individuelle Entfaltung besaß für sie keinen eigenen Wert. Der politische Erziehungsanspruch erstreckte sich grundsätzlich auf alle Lebenswelten von Jugendlichen. Freiräume zur Selbstentfaltung waren in der DDR sowohl materiell als auch ideell eng umgrenzt, ein Umstand den der bundesdeutsche Bildungssoziologe Jürgen Zinnecker als „Jugendmoratorium in kasernierter Form“ bezeichnete. Dem politischen Anpassungsdruck waren Kinder und Jugendliche in besonders starkem Maße ausgesetzt. Zwar richtete sich der Erziehungsanspruch der SED grundsätzlich auf alle Bürger, doch anders als Erwachsene hatten Kinder und Jugendliche noch keine eigenständige Stellung innerhalb des sozialen und gesellschaftlichen Gefüges gefunden und deshalb weniger Möglichkeiten, sich der politischen Einwirkung zu entziehen. Mit dem Jugendgesetz von 1974 wurde die sozialistische Persönlichkeit als Erziehungsziel festgelegt, dem auch die Eltern zu folgen hatten. Bildungschancen wurden schon frühzeitig von der Anpassung an vorgegebene Normen abhängig gemacht, abweichendes Verhalten konnte rigide bestraft werden und gravierende Folgen für den weiteren Lebensweg haben. Auch wenn die meisten Jugendlichen die Forderungen des Staates zu erfüllen schienen und ihre Verbundenheit mit der Politik der SED wann immer gefordert bezeugten, standen sie dieser Politik tatsächlich mindestens gleichgültig gegenüber. Der „Widerspruch zwischen Wort und Tat“ war eines der gravierenden Probleme der Herrschenden im Umgang mit Heranwachsenden. Es gab aber auch Jugendliche, die bewusst Einschränkungen in Kauf nahmen, um ihre Vorstellungen eines selbstbestimmten Lebens verwirklichen zu können. Schon bei geringfügiger Abweichung von ausdrücklichen oder unausgesprochenen Vorgaben mussten sie mit erheblichen staatlichen Eingriffen in ihr persönliches Dasein rechnen. Die äußerste Form der Abweichung waren Ausreiseersuchen und Fluchtversuche. Jugendliche waren unter Antragstellern und „Republikflüchtigen“ überproportional vertreten. Die Dissertation beleuchtet das Spannungsverhältnis zwischen staatlich vorgegebenen Lebenswegen und eigen-sinniger Gestaltung verschiedener Lebensbereiche von Kindern und Jugendlichen für die Jahre der Honecker-Herrschaft zwischen 1971 bis 1989 im Bezirk Schwerin.
Auf den Spuren der griechischen Mythen bei Anton Čechov in den Werken der frühen Schaffensperiode
(2012)
Die Poetik des Alltags des russischen Schriftstellers Anton Čechov fasziniert bereits über ein Jahrhundert die Leser weltweit. Dieser Faszination liegt nicht zuletzt der griechische Mythos zugrunde, ein Kulturerbe, das die Denkweise unserer Gesellschaft tief greifend beeinflusst hat. Die antiken Gottheiten und Helden wie Apollo, Dionysos, Pythia, Narziss werden in Čechovs wenig untersuchtem Frühwerk zu Menschen des Alltags. Diese Projektion ist eine parodie- und travestiehafte Modifikation der mythischen Elementarstrukturen. In dieser Verschmelzung des Mythischen mit dem Alltäglichen wird Čechov zum Nachfolger insbesondere des antiken Dramatikers Epicharm. Methodisch basiert meine Analyse auf dem Begriffspaar von „Wiedergebrauchs-Rede“ und „Verbrauchs-Rede“ des Rhetorikers Heinrich Lausberg: Čechov erzählt die prominenten Mythen so wieder, dass sie zwar ihre Erhabenheit verlieren, ihre untergründige Kraft jedoch beibehalten und so das Selbstbild des modernen Menschen bereichern.
Die Expansion des renalen Tubulointerstitiums aufgrund einer Akkumulation zellulärer Bestandteile und extrazellulärer Matrix ist eine charakteristische Eigenschaft der chronischen Nierenerkrankung (CKD) und führt zu einer Progression der Erkrankung in Richtung eines terminalen Nierenversagens. Die Fibroblasten Proliferation und ihre Transformation hin zum sekretorischen Myofibroblasten-Phänotyp stellen hierbei Schlüsselereignisse dar. Signalprozesse, die zur Induktion der Myofibroblasten führen, werden aktiv beforscht um anti-fibrotische Therapieansätze zu identifizieren. Das anti-inflammatorische Protein Annexin A1 und sein Rezeptor Formyl-Peptid Rezeptor 2 (FPR2) wurden in verschiedenen Organsystemen mit der Regulation von Fibroblastenaktivität in Verbindung gebracht, jedoch wurden ihre Expression und Funktion bei renalen fibrotischen Erkrankungen bisher nicht untersucht. Ziel der aktuellen Studie war daher die Untersuchung der renalen Annexin A1- und FPR2-Expression in einem Tiermodell des chronischen Nierenversagens, sowie die Charakterisierung der funktionellen Rolle von Annexin A1 in der Regulation des Fibroblasten Phänotyps und ihrer Syntheseleistung. Dazu wurden neugeborene Sprague-Dawley Ratten in den ersten zwei Wochen ihres Lebens entweder mit Vehikel oder mit einem Angiotensin II Typ I Rezeptor Antagonisten behandelt und ohne weitere Intervention bis zu einem Alter von 11 Monaten (CKD Ratten) gehalten. Die Regulation und Lokalisation von Annexin A1 und FPR2 wurden mit Hilfe von Real-Time PCR und Immunhistochemie erfasst. Annexin A1- und FPR2-exprimierende Zellen wurden weiter durch Doppelimmunfluoreszenzfärbungen charakterisiert. Gefärbt wurde mit Antikörpern gegen endotheliale Zellen (rat endothelial cell antigen), Makrophagen (CD 68), Fibroblasten (CD73) und Myofibroblasten (alpha-smooth muscle actin (α-sma)). Zellkulturstudien wurden an immortalisierten renalen kortikalen Fibroblasten aus Wildtyp- und Annexin A1-defizienten Mäusen, sowie an etablierten humanen und murinen renalen Fibrolasten durchgeführt. Eine Überexpression von Annexin A1 wurde durch eine stabile Transfektion erreicht. Die Expression von Annexin A1, α-sma und Kollagen 1α1 wurde durch Real-Time PCR, Western Blot und Immuhistochemie erfasst. Die Sekretion des Annexin A1 Proteins wurde nach TCA-Fällung des Zellkulturüberstandes im Western Blot untersucht. Wie zu erwarten zeigten die CKD Ratten eine geringere Anzahl an Nephronen mit deutlicher glomerulären Hypertrophie. Der tubulointerstitielle Raum war durch fibrilläres Kollagen, aktivierte Fibroblasten und inflammatorische Zellen expandiert. Parallel dazu war die mRNA Expression von Annexin A1 und Transforming growth factor beta (TGF-β) signifikant erhöht. Die Annexin A1-Lokalisation mittels Doppelimmunfluorsezenz identifizierte eine große Anzahl von CD73-positiven kortikalen Fibroblasten und eine Subpopulation von Makrophagen als Annexin A1-positiv. Die Annexin A1-Menge in Myofibroblasten und renalen Endothelien war gering. FPR2 konnte in der Mehrzahl der renalen Fibroblasten, in Myofibroblasten, in einer Subpopulation von Makrophagen und in renalen Epithelzellen nachgewiesen werden. Eine Behandlung der murinen Fibroblasten mit dem pro-fibrotischen Zytokin TGF-β führte zu einem parallelen Anstieg der α-sma-, Kollagen 1α1- und Annexin A1-Biosynthese und zu einer gesteigerten Sekretion von Annexin A1. Eine Überexpression von Annexin A1 in murinen Fibroblasten reduzierte das Ausmaß der TGF-β induzierten α-sma- und Kollagen 1α1-Biosynthese. Fibroblasten aus Annexin A1-defizienten Mäusen zeigten einen starken Myofibroblasten-Phänotyp mit einer gesteigerten Expression an α-sma und Kollagen 1α1. Der Einsatz eines Peptidantagonisten des FPR2 (WRW4) resultierte in einer Stimulation der α-sma-Biosynthese, was die Vermutung nahe legte, dass Annexin A1 FPR2-vermittelt anti-fibrotische Effekte hat. Zusammenfassend zeigen diese Ergebnisse, dass renale kortikale Fibroblasten eine Hauptquelle des Annexin A1 im renalen Interstitium und einen Ansatzpunkt für Annexin A1-Signalwege in der Niere darstellen. Das Annexin A1/FPR2-System könnte daher eine wichtige Rolle in der Kontrolle des Fibroblasten Phänotyp und der Fibroblasten Aktivität spielen und daher einen neuen Ansatz für die anti-fibrotischen pharmakologischen Strategien in der Behandlung des CKD darstellen.
In dieser Arbeit werden Konzepte für die Diagnostik der großskaligen Zirkulation in der Troposphäre und Stratosphäre entwickelt. Der Fokus liegt dabei auf dem Energiehaushalt, auf der Wellenausbreitung und auf der Interaktion der atmosphärischen Wellen mit dem Grundstrom. Die Konzepte werden hergeleitet, wobei eine neue Form des lokalen Eliassen-Palm-Flusses unter Einbeziehung der Feuchte eingeführt wird. Angewendet wird die Diagnostik dann auf den Reanalysedatensatz ERA-Interim und einen durch beobachtete Meerestemperatur- und Eisdaten angetriebenen Lauf des ECHAM6 Atmosphärenmodells. Die diagnostischen Werkzeuge zur Analyse der großskaligen Zirkulation sind einerseits nützlich, um das Verständnis der Dynamik des Klimasystems weiter zu fördern. Andererseits kann das gewonnene Verständnis des Zusammenhangs von Energiequellen und -senken sowie deren Verknüpfung mit synoptischen und planetaren Wellensystemen und dem resultierenden Antrieb des Grundstroms auch verwendet werden, um Klimamodelle auf die korrekte Wiedergabe dieser Beobachtungen zu prüfen. Hier zeigt sich, dass die Abweichungen im untersuchten ECHAM6-Modelllauf bezüglich des Energiehaushalts klein sind, jedoch teils starke Abweichungen bezüglich der Ausbreitung von atmosphärischen Wellen existieren. Planetare Wellen zeigen allgemein zu große Intensitäten in den Eliassen-Palm-Flüssen, während innerhalb der Strahlströme der oberen Troposphäre der Antrieb des Grundstroms durch synoptische Wellen verfälscht ist, da deren vertikale Ausbreitung gegenüber den Beobachtungen verschoben ist. Untersucht wird auch der Einfluss von arktischen Meereisänderungen ausgehend vom Bedeckungsminimum im August/September bis in den Winter. Es werden starke positive Temperaturanomalien festgestellt, welche an der Oberfläche am größten sind. Diese führen vor allem im Herbst zur Intensivierung von synoptischen Systemen in den arktischen Breiten, da die Stabilität der troposphärischen Schichtung verringert ist. Im darauffolgenden Winter stellen sich barotrope bis in die Stratosphäre reichende Änderungen der großskaligen Zirkulation ein, welche auf Meereisänderungen zurückzuführen sind. Der meridionale Druckgradient sinkt und führt so zu einem Muster ähnlich einer negativen Phase der arktischen Oszillation in der Troposphäre und einem geschwächten Polarwirbel in der Stratosphäre. Diese Zusammenhänge werden ebenfalls in einem ECHAM6-Modelllauf untersucht, wobei vor allem der Erwärmungstrend in der Arktis zu gering ist. Die großskaligen Veränderungen im Winter können zum Teil auch im Modelllauf festgestellt werden, jedoch zeigen sich insbesondere in der Stratosphäre Abweichungen für die Periode mit der geringsten Eisausdehnung. Die vertikale Ausbreitung planetarer Wellen von der Troposphäre in die Stratosphäre ist in ECHAM6 mit sehr großen Abweichungen wiedergegeben. Somit stellt die Wellenausbreitung insgesamt den größten in dieser Arbeit festgestellten Mangel in ECHAM6 dar.
In der vorliegenden Arbeit werden verschiedene Spektrometer für die Analyse von Gasen bzw. Gasgemischen vorgestellt und deren Design, Aufbau, Charakterisierung und Optimierung beschrieben. Das Resultat der Optimierung und Weiterentwicklungen ist ein spektral breitbandiges Cavity-Ring-Down-Spektrometer (CRD-Spektrometer). Ausgangspunkt der hier vorgestellten Arbeit ist ein Spektrometer auf Basis klassischer Absorptionsspektroskopie in einer Multireflexionszelle. Für dieses Spektrometer wurde als Strahlquelle ein Superkontinuumlaser verwendet. Der Vorteil dieses Spektrometers liegt in seiner Kompaktheit. Mit diesem Spektrometer wurden Absorptionsspektren von mehreren Reingasen und einem Gasgemisch über einen Wellenlängenbereich von 1500 nm – 1700 nm aufgenommen. Der qualitative Vergleich mit zu erwartenden Spektren, welche auf der HITRAN-Datenbank basieren, zeigte eine gute Übereinstimmung. Die quantitative Interpretierbarkeit der Daten war jedoch stark eingeschränkt aufgrund des hohen zufälligen und systematischen Fehlers der Messungen. Als Konsequenz aus der als nicht zufriedenstellend bewerteten quantitativen Interpretierbarkeit der Daten wurde eine alternative Messmethode gesucht, welche eine höhere Sensitivität und Genauigkeit ermöglicht. Die Wahl fiel auf die Cavity-Ring-Down-Spektroskopie, eine resonatorgestützte Variante der Absorptionsspektroskopie. Wesentliche Vorteile dieser Technik sind a) die Unabhängigkeit von Leistungsschwankungen der Strahlquelle, b) ein effektiver Absorptionsweg von bis zu mehreren Kilometern, welcher sich unmittelbar auf die Sensitivität der Messungen auswirkt, c) die Ermittlung absoluter Absorberkonzentrationen, ohne die Notwendigkeit einer Kalibrierung oder den Vergleich mit einer Referenzzelle und d) die Vernachlässigbarkeit von Absorptionen außerhalb des Resonators. Als notwendiger Zwischenschritt auf dem Weg zu einem breitbandigen CRD-Spektrometer wurde zunächst ein monochromatisches CRD-Spektrometer designt, aufgebaut und charakterisiert. Für die effektive Einkopplung von Strahlungsenergie in einen Resonator ist die Anpassung der Strahlparameter an die Mode des Resonators notwendig. Voraussetzung dieser Anpassung ist die Kenntnis der Strahlparameter, welche experimentell ermittelt wurden. Im Laufe des Aufbaus des Spektrometers ergab sich, dass trotz der Modenanpassung die Einkopplung der Strahlungsenergie in den Resonator gestört wurde. Daraufhin wurden systematisch mögliche Ursachen dieser Störung untersucht und das Spektrometer optimiert. Mit diesem optimierten Spektrometer wurden Spektren gemessen, welche sowohl qualitativ als auch quantitativ gut mit den zu erwartenden Spektren übereinstimmen. Als Nachweisgrenze dieses Spektrometers wurde ein Wert für den Absorptionskoeffizienten alpha von 10^-8 cm-1 bestimmt. Mit dem monochromatischen CRD-Spektrometer war es zudem möglich, isotopenspezifische Messungen durchzuführen. Für das breitbandige Spektrometer wurde als Strahlquelle eine ASE-Diode (amplified spontaneous emission) verwendet. Dabei handelt es sich um eine inkohärente Strahlquelle. Mittels Messungen nach dem Prinzip der Cavity-Enhanced-Absorptionsspektroskopie wurde die generelle Funktionalität des resonatorgestützten Spektrometers überprüft. Anschließend wurden die wellenlängenabhängigen Abklingsignale des leeren und des mit einem CO2-Luft-Gemisch gefüllten Resonators gemessen und ebenfalls mit den zu erwartenden Spektren verglichen. Qualitativ stimmen die experimentellen Spektren gut mit den zu erwartenden Spektren überein. Für die quantitative Interpretation der Daten wurde ein spezieller Algorithmus entwickelt, der die spektrale Auflösung des Systems berücksichtigt. Mit dem vorgestellten Spektrometer ist so die qualitative und quantitative Interpretation der Spektren möglich. Die Nachweisgrenze des breitbandigen Cavity-Ring-Down-Spektrometers wurde zu einem Wert von alpha = 8x10^-7 cm-1 bestimmt. Der systematischen und der zufällige Fehler der Messungen lagen bei Werten von ca. 1%. Bei diesem Spektrometer handelt es sich um einen Prototyp. Mittels Optimierung des Systems lassen sich sowohl der Wert der Nachweisgrenze als auch die Fehler der Messungen verbessern.
Gegenstand der Dissertation ist die größen- und eigenschaftsoptimierte Synthese und Charakterisierung von anorganischen Nanopartikeln in einer geeigneten Polyelektrolytmodifizierten Mikroemulsion. Das Hauptziel bildet dabei die Auswahl einer geeigneten Mikroemulsion, zur Synthese von kleinen, stabilen, reproduzierbaren Nanopartikeln mit besonderen Eigenschaften. Die vorliegende Arbeit wurde in zwei Haupteile gegliedert. Der erste Teil befasst sich mit der Einmischung von unterschiedlichen Polykationen (lineares Poly (diallyldimethylammoniumchlorid) (PDADMAC) und verzweigtes Poly (ethylenimin) (PEI)) in verschiedene, auf unterschiedlichen Tensiden (CTAB - kationisch, SDS - anionisch, SB - zwitterionisch) basierenden, Mikroemulsionssysteme. Dabei zeigt sich, dass das Einmischen der Polykationen in die Wassertröpfchen der Wasser-in-Öl (W/O) Mikroemulsion prinzipiell möglich ist. Der Einfluss der verschiedenen Polykationen auf das Phasenverhalten der W/O Mikroemulsion ist jedoch sehr unterschiedlich. In Gegenwart des kationischen Tensids führen die repulsiven Wechselwirkungen mit den Polykationen zu einer Destabilisierung des Systems, während die ausgeprägten Wechselwirkungen mit dem anionischen Tensid in einer deutlichen Stabilisierung des Systems resultieren. Für das zwitterionische Tensid führen die moderaten Wechselwirkungen mit den Polykationen zu einer partiellen Stabilisierung. Der zweite Teil der Arbeit beschäftigt sich mit dem Einsatz der unterschiedlichen, Polyelektrolyt- modifizierten Mikroemulsionen als Templatphase für die Herstellung verschiedener, anorganischer Nanopartikel. Die CTAB-basierte Mikroemulsion erweist sich dabei als ungeeignet für die Herstellung von CdS Nanopartikeln, da zum einen nur eine geringe Toleranz gegenüber den Reaktanden vorhanden ist (Destabilisierungseffekt) und zum anderen das Partikelwachstum durch den Polyelektrolyt-Tensid-Film nicht ausreichend begrenzt wird. Zudem zeigt sich, dass eine Abtrennung der Partikel aus der Mikroemulsion nicht möglich ist. Die SDS-basierten Mikroemulsionen, erweisen sich als geeignete Templatphase zur Synthese kleiner anorganischer Nanopartikel (3 – 20 nm). Sowohl CdS Quantum Dots, als auch Gold Nanopartikel konnten erfolgreich in der Mikroemulsion synthetisiert werden, wobei das verzweigte PEI einen interessanten Templat-Effekt in der Mikroemulsion hervorruft. Als deutlicher Nachteil der SDS-basierten Mikroemulsionen offenbaren sich die starken Wechselwirkungen zwischen dem Tensid und den Polyelektrolyten während der Aufarbeitung der Nanopartikel aus der Mikroemulsion. Dabei erweist sich die Polyelektrolyt-Tensid-Komplexbildung als hinderlich für die Redispergierung der CdS Quantum Dots in Wasser, so dass Partikelaggregation einsetzt. Die SB-basierten Mikroemulsionen erweisen sich als günstige Templatphase für die Bildung von größen- und eigenschaftenoptimierten Nanopartikeln (< 4 nm), wobei insbesondere eine Modifizierung mit PEI als ideal betrachtet werden kann. In Gegenwart des verzweigten PEI gelang es erstmals ultrakleine, fluoreszierende Gold Cluster (< 2 nm) in einer SB-basierten Mikroemulsion als Templatphase herzustellen. Als besonderer Vorteil der SB-basierten Mikroemulsion zeigen sich die moderaten Wechselwirkungen zwischen dem zwitterionischen Tensid und den Polyelektrolyten, welche eine anschließende Abtrennung der Partikel aus der Mikroemulsion unter Erhalt der Größe und ihrer optischen Eigenschaften ermöglichen. In der redispergierten wässrigen Lösung gelang somit eine Auftrennung der PEI-modifizierten Partikel mit Hilfe der asymmetrischer Fluss Feldflussfraktionierung (aF FFF). Die gebildeten Nanopartikel zeigen interessante optische Eigenschaften und können zum Beispiel erfolgreich zur Modifizierung von Biosensoren eingesetzt werden.
Im Rahmen des ersten Teils der vorliegenden Doktorarbeit konnten zwei nicht-essentielle (rps15, rpl36) und fünf essentielle (rps3, rps16, rpl22, rpl23, rpl32) im Plastom von Nicotiana tabacum kodierte Proteine des plastidären Ribosoms bezüglich ihrer Essentialität charakterisiert werden. Diese Gene wurden durch gezielte Knockout-Experimente inaktiviert und die resultierenden Effekte untersucht. Die Ergebnisse lassen einen Rückschluss auf die Lokalisation der Gene der insgesamt sieben untersuchten ribosomalen Proteine zu, die im Plastom mehrerer parasitischer, Plastiden-besitzender Spezies nicht mehr nachweisbar sind. Im Fall von rps15 könnte tatsächlich ein Verlust des Genes stattgefunden haben, im Fall der restlichen Gene ist eher mit einem Transfer in den Nukleus zu rechnen (rpl36 ausgenommen). Dies würde bedeuten, dass die Geschwindigkeit der erfolgreichen Etablierung eines Gentransfers in vielen parasitischen Spezies gegenüber grünen Pflanzen stark erhöht ist. Alle in E. coli nicht-essentiellen Proteine mit Homologen in Plastiden (rps15, rpl33, rpl36) sind auch dort, trotz ~1,5 Milliarden Jahren getrennter Evolution, nicht essentiell. Dieses Ergebnis bestätigt den schon früher festgestellten hohen Konservierungsgrad der bakteriellen und plastidären Translationsmaschinerien. Die Phänotypen der KO-Pflanzen der nicht-essentiellen Gene (rps15, rpl36) weisen auf eine interessante Rolle von S15 während der Ribosomenassemblierung hin und im Fall von L36 auf eine wichtige funktionelle Rolle im Plastiden-Ribosomen sowie auf eine Involvierung der Plastidentranslation in der Generierung eines retrograden Signals, welches die Blattform zu beeinflussen im Stande ist. Des Weiteren konnte eine Verbindung der Translationsaktivität mit der Ausbildung von Seitentrieben hergestellt werden, die vermutlich auf veränderte Auxinsynthese im Chloroplast zurückzuführen ist. Aus dem Folgeprojekt, bei dem Doppel-KO-Pflanzen nicht-essentieller ribosomaler Proteine erzeugt wurden, lässt sich auf eine relativ große Plastizität der Architektur von Plastidenribosomen schließen. Im zweiten Teil der Arbeit konnte erfolgreich ein Hochdurchsatz-Screeningsystem zur semiquantitativen Analyse von 192 verschiedenen miRNAs aus Chlamydomonas reinhardtii etabliert werden. Es gelang durch die Untersuchung von 23 verschiedenen Wachstums- und Stressbedingungen sowie Entwicklungsstadien mehrere miRNAs zu identifizieren, die eine differenzielle Expression zeigen sowie unter allen untersuchten Bedingungen konstant bleibende miRNAs nachzuweisen. Dadurch konnten mehrere vielversprechende Kandidaten-miRNAs ausgemacht werden, die nun eingehender untersucht werden können.
Die Progressive Supranukleäre Blickparese (PSP) ist eine sporadisch auftretende neurodegenerative Erkrankung im Rahmen der atypischen Parkinson-Syndrome (APS), die im frühen Verlauf häufig mit dem Idiopathischen Parkinson-Syndrom (IPS) verwechselt wird. Dabei ist die Dysarthrie als eine erworbene, zentral bedingte sprechmotorische Störung ein häufiges und früh auftretendes Symptom bei PSP. Bislang spricht man von einer eher unspezifischen „gemischten“ Dysarthrie aus hypokinetischen, spastischen und auch ataktischen Komponenten. Im Rahmen einer explorativen Querschnittsstudie am „Fachkrankenhaus für Bewegungsstörungen und Parkinson“ Beelitz-Heilstätten in Kooperation mit der „Entwicklungsgruppe Klinische Neuropsychologie“ München (EKN) sowie der „Interdisziplinären Ambulanz für Bewegungsstörungen“ am Klinikum München-Großhadern wurden 50 Patienten dahingehend untersucht, ob sich für die Progressive Supranukleäre Blickparese (PSP) eine spezielle, frühzeitig zu diagnostizierende und differentialdiagnostisch relevante Dysarthrie beschreiben ließe. In diesem Zusammenhang soll geklärt werden, ob es sich um phänotypische Ausprägungen im Rahmen eines Störungsspektrums handelt oder ob sich differenzierbare Subtypen der Krankheit, insbesondere ein „klassischer“ PSP-Typ (PSP-RS) und ein „atypischer“ PSP-Typ (PSP-P), auch im Bereich der Dysarthrie zeigen. Im Rahmen der Untersuchungen wurde der Schweregrad der Erkrankung mittels der „PSP-sensitiven Ratingskala (PSPRS)“ gemessen. Die Dysarthriediagnostik erfolgte anhand der „Bogenhausener Dysarthrieskalen (BoDyS)“ zur Beschreibung der Art und Ausprägung der Dysarthrie bei PSP. Die Verständlichkeit wurde mithilfe des „Münchner Verständlichkeits-Profils (MVP)" sowie eines weiteren Transkriptionsverfahrens ermittelt, wobei Ausschnitte aus den Tests zum Lesen und Nachsprechen der BoDyS zugrunde lagen. Weiterhin erfolgte eine Einschätzung der Natürlichkeit des Sprechens. Die Ergebnisse hinsichtlich des Einflusses von Natürlichkeit und Verständlichkeit des Sprechens auf den Schweregrad der Dysarthrie zeigten, dass dieser modalitätenübergreifend mit beiden Schweregradaspekten korreliert, wenngleich es offenbar die Natürlichkeit des Sprechens ist, die bei PSP bereits frühzeitig beeinträchtigt ist und somit als das entscheidende differentialdiagnostische Kriterium zur Differenzierung zwischen beiden PSP-Subtypen zu beurteilen ist, möglicherweise auch gegenüber anderen Parkinson-Syndromen. Anhand statistisch valider Ergebnisse konnten spezifische Störungsmerkmale der Dysarthrie extrahiert werden, die eine signifikante Trennung von PSP-RS und PSP-P ermöglichen: eine leise und behaucht-heisere Stimme sowie ein verlangsamtes Sprechtempo und Hypernasalität. Damit können für die hier fokussierten Subtypen der PSP zwei unterschiedliche Dysarthrietypen postuliert werden. Danach wird dem Subtyp PSP-RS eine spastisch betonte Dysarthrie mit ausgeprägter Verlangsamung des Sprechtempos zugeordnet, dem Subtyp PSP-P hingegen eine hypokinetische Dysarthrie mit behaucht-heiserer Hypophonie. Desweiteren konnte ein „Dysarthrie-Schwellenwert“ als Zusatzkriterium für eine zeitliche Differenzierung beider PSP-Subtypen ermittelt werden. Anhand der Daten zeigte sich die Dysarthrie bei dem Subtyp PSP-RS gleich zu Beginn der Erkrankung, jedoch spätestens 24 Monate danach. Hingegen konnte die Dysarthrie beim Subtyp PSP-P frühestens 24 Monate nach Erkrankungsbeginn festgestellt werden. Die Daten dieser Studie verdeutlichen, dass der Frage nach einer subtypenspezifischen Ausprägung der Dysarthrie bei PSP eine Längsschnittsstudie folgen sollte, um die ermittelten Ergebnisse zu konsolidieren.
Nob1 (New Zealand obese 1) bezeichnet einen Adipositas-QTL auf Chr. 5 der Maus (LODBMI >3,3), der in einem Rückkreuzungsexperiment der Mausstämme NZO (adipös) und SJL (schlank) identifiziert wurde. Um Kandidatengene für Adipositas zu finden, wurden mehr als 300 Nob1-Transkripte mit Hilfe von Genexpressionsanalysen auf Unterschiede in stoffwechselrelevanten Geweben zwischen beiden Mausstämmen untersucht. Sieben Gene zeigten eine differentielle Expression: 2310045A20Rik, Tbc1d1, Ppp1cb, Mll5, Insig1, Abhd1 und Alox5ap. Die codierenden Bereiche dieser Gene wurden anschließend auf Sequenzunterschiede zwischen NZO und SJL untersucht. Nur im Gen Tbc1d1, das im Peak-Bereich des Nob1 lokalisiert ist, wurde eine SJL-spezifische Deletion von sieben Basen detektiert, die zu einer Leserasterverschiebung und einem vorzeitigen Abbruch des Proteins in der funktionellen Rab-GAP-Domäne führt (Loss-of-Function-Mutation). Interessanterweise wurde eine Variante von TBC1D1 (R125W) in Kopplungsanalysen mit Adipositas beim Menschen assoziiert (Stone et al., 2006). TBC1D1 zeigt eine hohe Homologie zu TBC1D4 (AS160), das im Insulinsignalweg eine wichtige Rolle spielt. In 17 weiteren Genen im Peak-Bereich des Nob1 wurde keine weitere SJL-spezifischen Mutation detektiert. Bei NZO-Tieren erfolgte die Tbc1d1-mRNA-Expression vorwiegend in glycolytischen Fasern des Skelettmuskels. Zudem wurden zwei gewebsspezifisch exprimierte Tbc1d1-Isoformen identifiziert, die sich durch alternatives Splicen der Exone 12 und 13 unterscheiden. Die im Rahmen dieser Arbeit gefundenen Ergebnisse machen Tbc1d1 zu einem plausiblen Kandidatengen für den Nob1-QTL. Welche Funktion Tbc1d1 im Glucose- und Fettstoffwechsel des Skelettmuskels hat, muss in weiteren Analysen untersucht werden.
Die von mir vorgelegte Arbeit widmet sich insgesamt der Fragestellung, wie große gelenkte Projekte an einer ostdeutschen Schule in der Wendezeit durchgeführt wurden, was aus ihnen folgte und welche Konsequenzen für die Theorie der schulischen Projektarbeit daraus gezogen werden können. Insbesondere zeigt sie auf inwieweit die Arbeit mit Projekten die Forderungen der Gesellschaft, Schule als Lern-, Arbeits-, Lebens- und Freizeitort für Schüler/innen zu gestalten, erfüllt werden kann. Unterschiedlichste Schülerbeispiele (für Begabte, (Hoch)begabte, "schwierig Begabte", Verhaltensschwierige, überraschende Entwicklungen, Lernunwillige u.a.) werden vorgestellt und daran aufgezeigt, was Projektarbeit leisten kann, um die individuellen Leistungsmöglichkeiten von allen Schüler/innen gerecht zu werden, um diese auszuschöpfen, zu fördern und weiter zu entwickeln.
Die Umsetzung theoretisch fundierter Besteuerungsprinzipien in die Praxis hat seit längerer Zeit einen prominenten Platz in der finanzwissenschaftlichen Forschung. Dabei besteht kein Zweifel, dass es ein größeres Interesse daran gibt, nicht nur theoretisch fundierte Prinzipien abzuleiten, sondern diese auch auf ihre Anwendbarkeit zu prüfen. Dieses Interesse an der optimalen Ausgestaltung eines Steuersystems in der Praxis wurde mit dem Zusammenbruch der sozialistischen Planwirtschaften in den 1990er Jahren nochmals verstärkt. Im Rahmen dieser umfassenden Transformationsprozesse ist es unabdingbar, dass die Wirtschaftsentwicklung über ein leistungsfähiges Steuersystem finanziert wird. Die zu erhebenden Steuern haben einen unmittelbaren Einfluss auf die ökonomischen Entscheidungen wie beispielsweise in Form eines Konsumverzichts. Darüber hinaus entstehen Zusatzlasten der Besteuerung (excess burden), wenn vergleichbare ökonomische Aktivitäten unterschiedlich besteuert werden und damit etwa der Konsum bestimmter Güter, eine bestimmte Investitionsart oder der Einsatz eines bestimmten Produktionsfaktors diskriminiert wird. Aus den Substitutionseffekten, die durch die Veränderungen der relativen Preise hervorgerufen werden, resultieren letztendlich über die Zahllast hinausgehende Nutzenverluste bei den Wirtschaftssubjekten. Dadurch werden die ökonomischen Konsum-/Sparentscheidungen verzerrt (Besteuerung der Kapitaleinkommen), das Leistungsangebot vermindert (Besteuerung der Arbeitseinkommen), Produktionsfaktoren umgelenkt oder Investitions- und Finanzierungsentscheidungen verzerrt (Unternehmenssteuer). Somit kann durch Steuern bzw. durch ihre unangemessene Ausgestaltung ein gesamtwirtschaftlicher Effizienzverlust verursacht werden. Gerade in Transformationsländern wie Georgien war mit Beginn der Transformationsphase de facto kein steuerpolitisches Know-how vorhanden, so dass eine enorme Nachfrage nach Beratung bestand und letztendlich der größte Teil der verabschiedeten Steuerreformen ein Ergebnis externer Beratung war. Ein erstes Ziel der Arbeit ist die Erstellung einer theoretischen Basis, um die einzelnen Steuerreformphasen besser zu verstehen. Ein zweites Ziel liegt in die Ableitung eines theoretisch fundierten Referenzrahmens (Benchmark) für die Beurteilung des Status quo sowie der Ausgestaltung der Einkommens- und Gewinnbesteuerung in Georgien. Die Ableitung von Benchmarks gilt dabei als ein eigenständiges Ziel wissenschaftlicher Forschung. Im Rahmen dieser Arbeit dienen die Benchmarks jedoch als Beurteilungsmaßstab für die Evaluation der Steuerreformen in Georgien sowie für die Evaluation des hier erarbeiteten konkreten Reformvorschlags. Ein drittes Ziel der vorliegenden Arbeit ist also in der konzeptionellen Ausgestaltung der Einkommens- und Gewinnbesteuerung in Georgien und deren konsequenten Ausrichtung an einem international anerkannten lebenszeitlichen bzw. konsumorientierten Leitbild der Besteuerung zu sehen. Im Rahmen dieser Arbeit wurde ein Entwurf für eine integrierte Einkommens- und Gewinnsteuer (Einfachsteuer) entwickelt, der den lokalen gesellschaftlichen Gegebenheiten optimal angepasst ist. Bei der Ausarbeitung eines entsprechenden Konzeptes für Georgien war zu berücksichtigen, dass die Effizienz reduzierenden Allokationsverzerrungen in diesen Systemen minimiert und die Belastung der Löhne und Gewinne durch Steuern auf ein angemessenes Niveau begrenzt werden sollten, um negative Anreizwirkungen in Bezug auf das Wirtschaftswachstum so gering wie möglich zu halten. Neben einer integrierten Einkommens- und Gewinnbesteuerung spielten dabei eine einheitliche Gewinnermittlung für Unternehmen (modifiziertes Kassenprinzip) sowie eine am Kassenprinzip orientierte Mehrwertsteuer eine besondere Rolle. Einkommen- und Mehrwertsteuerentwürfe erfüllen alle Neutralitätskriterien (Neutralität der intertemporalen Konsum- und Ersparnisbildung, Rechtsformneutralität, Investitionsneutralität in Bezug auf Human- und Sachkapital, Finanzierungsneutralität sowie Inflationsneutralität). Nach der Definition der Bemessungsgrundlagen für die Einzelsteuern und deren Anpassung an georgische Gegebenheiten war es notwendig, die technischen Einzelheiten für die Steuerverwaltung (Durchführungsverordnungen) und teilweise die zugehörigen Steuerformulare zu entwickeln. Diese müssen alle notwendigen Variablen der Veranlagungsverfahren erfassen und eindeutige Identifikationsmöglichkeiten für die Haushalte und Unternehmen bieten, was eine wichtige Rolle für die spätere Mikrosimulation spielt. Die gewonnenen Erkenntnisse dieser Arbeit sollen die politischen Entscheidungsträger bei der Auswahl eines geeigneten Reformvorschlages für das Einkommensteuergesetz unterstützen.
Politik des Projektmanagements : mikropolitische Analysen zu Entscheidungsprozessen in IT-Projekten
(2008)
In der hier vorliegenden Dissertation wurden anhand einer empirischen Fallstudie die Entscheidungs- und Aushandlungsprozesse zwischen Auftraggeber und Auftragnehmer in IT-Projekten analysiert und auf diesem Wege die Handlungszwänge des Projektmanagements beleuchtet. Damit sollte ein Beitrag zum näheren Verständnis der Eigendynamik von IT-Projekten und zur Wirkungsweise der gängigen Ansätze von Projektmanagement und QM geleistet werden. In dieser Arbeit wurden IT-Projekte und die Empfehlungen zum Projektmanagement aus politik- und organisationstheoretischer Perspektive beleuchtet, um Effekte begrenzter Rationalität, opportunistischen Verhalten und Inkrementalismus mit berücksichtigen zu können. Theoretische Ausgangspunkte für die Untersuchung sind auf der einen Seite die mikropolitischen Ansätze und auf der anderen Seite die Agenturtheorie. Gemeinsam ist diesen Ansätzen, die Auffassung, wonach das Handeln der Akteure in ergebnisoffenen, interdependenten Handlungskonstellationen stattfindet, in denen die Auswirkungen von Entscheidungen wenig bekannt sind und die benötigten Informationen den Akteuren in unterschiedlichem Maße zur Verfügung stehen. Bezüglich der Empfehlungen des Projektmanagements wurde auf Normen und Richtlinien sowie die Einführungs- und Praxisliteratur zum Projekt- und Qualitätsmanagement und zur Verwaltungs- und Organisationsberatung Bezug genommen. Die Fallstudie bezieht sich auf ein Realisierungsprojekt zur Einführung eines Personalmanagementsystems in einem Ministerium und seinen nachgeordneten Behörden. Das Projekt fand im Rahmen eines umfassenden Modernisierungsprogramms nach dem NSM statt und legte erstmals einen Schwerpunkt auf das Personalmanagement. Das Vorhaben war ursprünglich in drei Phasen von jeweils einem Jahr Laufzeit geplant. Mit der Realisierung wurde ein Konsortium aus drei Firmen beauftragt. Die Studie bezieht sich auf die erste der drei Phasen der Systemeinführung, die Pilotierungsphase in drei Pilotbehörden. Diese Phase beanspruchte insgesamt zwei Jahre und acht Monate und hatte damit ein Jahr und acht Monate Verspätung vor allem wegen wechselnden Ziel- und Aufgabenstellungen durch das Ministerium und aufgrund interner Steuerungsdefizite und Entscheidungsblockaden auf beiden Seiten. Die Entwicklung einer Schnittstelle in die Personalabrechnung wurde erfolglos abgebrochen. Hauptergebnis der Arbeit ist, dass die Anwendung von Methoden und Instrumenten, die in den Projektmanagement-Leitfäden bereitgestellt werden, stets den jeweils individuellen Interessen der Akteure unterliegen und als Bausteine der akteursspezifischen Strategien fungieren. Dabei führen insbesondere Strategien der Unsicherheitsabsorption, die auf die gegenseitige Kontrolle von Auftraggeber und Auftragnehmer hinauslaufen, zu unproduktiven, sich selbst verstärkende Blockadezyklen („Circuli vitiosi“), aus denen die Akteure nur durch Strategiewechsel ausbrechen können. Zwischen Auftraggeber und Auftragnehmer besteht eine strukturelle Informationsasymmetrie, weil der Auftragnehmer über die fachlichen-technischen Aspekte und über den aktuellen Projektstand besser informiert ist als der Auftraggeber. Gleichzeitig besteht jedoch auch eine entgegen gesetzte Entscheidungsasymmetrie, bei der der Auftraggeber formale Entscheidungsbefugnisse an sich ziehen kann und im Konfliktfall über das größere Drohpotenzial verfügt. Diese wird durch die Rechtsform des Werkvertrags verstärkt. Die Leitfäden des Projektmanagements werden hierbei zwar angewendet, doch die Anwendung beschränkt sich auf fachlich-operative Aspekte der Projektdurchführung, in denen die Empfehlungen einen hinreichenden Konkretisierungsgrad erreicht haben. Nur unzureichend umgesetzt werden jedoch die Empfehlungen zu politisch-strategischen Problemen, deren Anwendung entweder einen komplexen strategischen Entscheidungsprozess erfordert oder zwischen den Vertragsparteien strittig ist. Als äußerst kritisch lässt sich vor allem der Umgang mit dem Leistungsumfang im Projektverlauf bezeichnen, die von Seiten des Auftraggebers häufig im Projektverlauf verändert wird. Hier kollidiert das Gebot der Unabänderlichkeit der Leistungsbeschreibung mit den vitalen Interessen des Auftraggebers, und es zeigt sich anhand der Fallstudie, dass die vertrauensvolle Zusammenarbeit beider Vertragsparteien nötig ist, um zu eine befriedigenden Lösung zu gelangen. Gelingt dies nicht, so kann das Projekt nur mit Hilfe so genannter starker Ideologien wie dem NSM in einer Art Krisenmanagement fortgeführt werden, bedarf aber dann der strategischen Neuorientierung z.B. in Form von Personalwechsel oder Reorganisationen. Im Fallstudienprojekt hat sich herausgestellt, dass, eine Analyse der spezifischen Akteursstrategien (Policy-Analyse) den Akteuren helfen kann, die Ausgangskonstellationen besser zu verstehen und die eigene Strategie auf ihre Konsens- oder Durchsetzungsfähigkeit hin zu justieren. Hier halten die Leitfäden zum Projektmanagement jedoch keine befriedigenden Handlungsanweisungen bereit.
Übernimmt eine Protestpartei Regierungsverantwortung, sieht sie ihre Prinzipien und Forderungen der realpolitischen Nagelprobe ausgesetzt. Es ist ein Dilemma von Anspruch und Wirklichkeit, ein Spagat zwischen Protestimage und Regierungspolitik , der diese Parteien oftmals zu zerreißen droht. Anhand der Fallstudien von vier mitregierenden Protestparteien in Deutschland sollen folgende Fragen beantwortet werden: Was macht eine Partei zur Protestpartei? Was waren die Ursachen für die Wahlerfolge der Grünen, der AL, der STATT-Partei und der Schill-Partei? Wie verliefen die Koalitionsverhandlungen? Welche Forderungen konnten die Protestparteien gegenüber ihren großen Koalitionspartnern durchsetzen? Wo mussten sie Abstriche machen? Welche Reformvorhaben wurden angedacht und welche wurden tatsächlich umgesetzt? Welche innerparteilichen Konflikte ergaben sich aus der neuen Rolle der Protestparteien? Letztendlich zeigt sich: Protestparteien scheitern nicht an ihrem schmalspurigen Programm, geringer Stammwählerschaft oder unerfahrenem Personal, sondern weil sie naturgemäß in die „Erwartungsfalle“ tappen.
Allianzfähigkeit
(2008)
Ein empirisch belegtes Phänomen ist die steigende Anzahl strategischer Allianzen von Unternehmen, speziell in dynamischen Wettbewerbsumgebungen. Über strategische Allianzen versuchen Unternehmen, auch in einer dynamischen Wettbewerbsumwelt unter hoher Unsicherheit Wettbewerbsvorteile aufzubauen. Dabei belegen verschiedene Forschungsarbeiten, dass strategische Allianzen häufig scheitern und weisen übereinstimmend relativ niedrige Erfolgsquoten von 50% nach. Harbison und Pekár belegen zwischen Unternehmen eine hohe Varianz und identifizieren, dass einige Unternehmen bei 87% ihrer strategischen Allianzen erfolgreich sind, während andere Unternehmen nur eine Erfolgsrate von 37% aufweisen. Die Fragestellung, warum Unternehmen in dieser Hinsicht so signifikant differieren, bildet die grundlegende Motivation für die vorliegende Arbeit. Die Ursache für die hohe Varianz der Erfolgsrate von strategischen Allianzen zwischen Unternehmen, ist in den internen Prozessen und Strukturen der Unternehmen zu vermuten. Diese unternehmensinternen Prozesse und Strukturen werden mit dem Begriff Allianzfähigkeit bezeichnet. 1. Forschungsfrage Aus welchen Prozessen und Strukturen besteht Allianzfähigkeit in Unternehmen? 2. Forschungsfrage Wie entwickelt sich Allianzfähigkeit in Unternehmen? Die vermutete Kausalität zwischen Allianzfähigkeit und der Erfolgsrate bei strategischen Allianzen verweist auf einen post-positivistischen Charakter der Untersuchung. Es wird auf wissenschaftliche Literatur, aber auch auf Beiträge von Unternehmensberatungen, Nichtregierungsorganisationen und andere Quellen zurückgegriffen, wie es als Forschungsansatz im Kontext strategischer Allianzen vorgeschlagen wird. Zunächst werden im zweiten Kapitel die beiden beobachtbaren Phänomene, eine steigende Dynamik der Wettbewerbsumwelt vieler Unternehmen und die zunehmende Anzahl strategischer Allianzen, die Interdependenzen aufweisen, unter Einbeziehung der Literatur, charakterisiert. Insbesondere die Motive von Unternehmen und deren Strategien zum Eingehen strategischer Allianzen werden erläutert. Im folgenden dritten Kapitel werden die traditionellen Erklärungsansätze des strategischen Managements anhand einer empirischen Literaturanalyse skizziert. Das Ergebnis der empirischen Literaturanalyse ist die Notwendigkeit eines neuen theoretischen Zugangs, der die gestiegene Dynamik der Wettbewerbsumwelt stärker reflektiert und interne Prozesse von Unternehmen intensiver betrachtet. Mit den Beiträgen von Teece et al., Eisenhardt und Martin, scheint sich der fähigkeitsorientierte Ansatz als neue Erklärungsperspektive zu etablieren. Der junge fähigkeitsorientierte Ansatz wird als geeignet identifiziert und im vierten Kapitel ausführlich dargestellt sowie in seinen aktuellen Entwicklungen erläutert. Das vierte Kapitel bildet den theoretischen Rahmen für das folgende fünfte Kapitel, das die Charakterisierung von Allianzfähigkeit auf der Grundlage eines Literaturreviews umfasst und direkt die Forschungsfragen anhand einer Modellentwicklung adressiert. Erkennt¬nisse aus anderen theoretischen Perspektiven werden in den fähigkeitsorientierten Ansatz übertragen und in das Modell integriert. Ein Vorgehen, das in der Tradition des strategischen Managements, insbesondere der Beiträge zum fähigkeitsorientierten Ansatz, steht. Im sechsten Kapitel wird das skizzierte Modell als Grundlage verwendet, um die Entwicklung von Allianzfähigkeit empirisch anhand einer Longitudinal-Fallstudie zu untersuchen. Die Analyse von Allianzfähigkeit sollte vor dem Hintergrund einer hohen Wettbewerbsdynamik unter der Bedingung von Hyperwettbewerb (Kriterium 1) in einer Branche erfolgen, bei der strategische Allianzen eine hohe Rolle spielen (Kriterium 2). Darüber hinaus soll die Möglichkeit bestehen, Zugang zu Dokumenten, Interviewpartnern sowie Datenbanken zu erhalten (Kriterium 3). Aufgrund dieser Kriterien wurde die Börsenindustrie als Industrie und die Deutsche Börse als Unternehmen ausgewählt. Das Ziel der Fallstudie ist die Darstellung der Entwicklung der strategischen Allianzen der Deutschen Börse von 1997 bis 2007, um Rückschlüsse auf die Allianzfähigkeit des Unternehmens ziehen zu können. Da die Entwicklung der Allianzfähigkeit im Vordergrund der Fallstudie steht, wird eine Längsschnittfallstudie mit chronologischem Aufbau verwendet. Dabei wurden drei verschiedene Quellen, Experteninterviews, Datenbanken sowie Dokumente, ausgewertet.
Entwicklung, Implementierung und Erprobung eines planetaren Informationssystems auf Basis von ArcGIS
(2007)
Mit der Entwicklung der modernen Raumfahrt Mitte der 60er-Jahre des zwanzigsten Jahrhunderts und der Eroberung des Weltraums brach eine neue Epoche der bis dato auf Beobachtungen mit dem Teleskop gestützten planetaren Forschung an. Während des Wettrennens um die technologische Führerschaft im All zur Zeit des Kalten Krieges war das erste Ziel die Entsendung von Satelliten zur Erdbeobachtung, denen aber schon bald Sonden zum Mond und den benachbarten Planeten folgten. Diese Missionen lieferten eine enorme Fülle von Informationen in Form von Bildern und Messergebnissen in unterschiedlichen Datenformaten. Diese galt und gilt es zu strukturieren, zu verwalten, zu aktualisieren und zu interpretieren. Für die Interpretation terrestrischer Daten werden geographische Informationssysteme (GIS) hinzugezogen, die jedoch für planetare Anwendungen aufgrund unterschiedlicher Voraussetzungen nicht ohne weiteres eingesetzt werden können. Daher wurde im Rahmen dieser Arbeit die für die Verwaltung von geographischen Daten der Erdfernerkundung kommerziell erhältliche Software ArcGIS Desktop 9.0 / 9.1 (ESRI) mit eigenen Programmen und Modulen für die Planetenforschung angepasst. Diese ermöglichen die Aufbereitung und den Import planetarer Bild- und Textinformation in die kommerzielle Software. Zusätzlich wurde eine planetare Datenbank zur Speicherung und zentralen Verwaltung der Informationen aufgebaut. Die im Rahmen dieser Arbeit entwickelten Softwarekomponenten ermöglichen die schnelle und benutzerfreundliche Aufbereitung der in der Datenbank gehaltenen Informationen und das Auslesen in Dateiformate, die für geographische Informationssysteme geeignet sind. Des Weiteren wurde eine „Werkzeugleiste“ für ArcGIS entwickelt, die das Arbeiten mit planetaren Datensätzen beträchtlich beschleunigt und vereinfacht. Sie beinhaltet auch Module zur wissenschaftlichen Interpretation der planetaren Informationen, wie beispielsweise der Berechnung der Oberflächenrauigkeit der Marsoberfläche inklusive der flächendeckenden Kalibrierung der Eingangs-Basisdaten. Exemplarisch konnte gezeigt werden, dass das Verfahren eine verbesserte Berechnung der Oberflächenrauigkeit ermöglicht, als bisher angewandte Ansätze. Zudem wurde eine auf ArcGIS basierende Prozesskette zur Berechnung von hierarchischen Flussnetzen entwickelt und erprobt. Das terrestrische Beispiel, die Analyse eines Abflusssystems auf Island, zeigte eine sehr große Übereinstimmung der errechneten Gewässernetze mit den morphologischen Gegebenheiten vor Ort. Daraus ließ sich eine hohe Genauigkeit der mit demselben Ansatz errechneten Gewässernetze auf dem Mars ableiten. Auf der Grundlage der in dieser Arbeit entwickelten Programme und Module lassen sich auch Daten zukünftiger Missionen aufbereiten und in ein solches System einbinden, um diese mit eigenen Ansätzen zu verwalten, zu aktualisieren und für neue wissenschaftliche Fragestellungen perfekt anzupassen, einzusetzen und zu präsentieren, um so neue wissenschaftliche Erkenntnisse in der Planetenforschung zu gewinnen.
Aus dem Vorwort: Der entstehende deutsche Staat hatte 928/29 mit der Unterwerfung der damals östlich von Elbe und Saale siedelnden Slawen begonnen. Den meisten Stämmen war es jedoch durch den Aufstand von 983 gelungen, nochmals ihre Freiheit zu erkämpfen. Im 12. Jahrhundert begann ein erneuter Vorstoß. Während dieser zweiten Etappe der feudalen deutschen Ostexpansion wurden bis um 1300 die nördlichen und mittleren Teile des jetzt zur DDR gehörenden Gebietes endgültig dem deutschen Reich angegliedert. Damals entstand die Mehrzahl unserer Städte und Dörfer. Im 10. Jahrhundert hatten die Könige Heinrich I. und Otto I. das Vordringen nach Osten geleitet. Während des 12. und 13. Jahrhunderts lag die Initiative in den Händen der ostsächsischen Fürsten. Sie gingen daran, ihren Einfluß auf die slawischen Gebiete auszudehnen, wie der Herzog von Sachsen, Heinrich der Löwe aus dem Geschlecht der Welfen, und Erzbischof Wichmann von Magdeburg, oder gründeten östlich der Elbe neue Territorialherrschaften, wie der Markgraf der Nordmark, Albrecht der Bär aus dem Hause der Askanier, der erste Markgraf von Brandenburg. Im Süden begannen die Wettiner die Marken Lausitz und Meißen zu festigen und zu erweitern. Wie sich die eben grob skizzierten Vorgänge jedoch im einzelnen abgespielt haben, liegt immer noch weitgehend im dunkeln. Vor allem muß damit gerechnet werden, daß sich die Herrschaftsverhältnissein verschiedenen Gebieten mehrfach geändert hatten, bevor etwa in der zweiten Hälfte des 13. Jahrhunderts die Strukturen entstanden waren, die im wesentlichen bis in die neuere Zeit bestimmend blieben. So ist heute vielfach noch unklar oder umrtritten, welche deutsche Feudalgewalt einen bestimmten Raum als erste besetzte und wo der Einflußbereich der nächsten Herrschaft begann. Das gilt in besonderem Maße für die Grenzzonen der sich ausdehnenden Fürstentümer. Aber auch Fragen, die seit langem als geklärt galten, werden plötzlich wieder aufgeworfen, wie die vor der 750-Jahr-Feier Berlins erneut aufgenommene Diekussion über die Anfänge unsarer Hauptstadt beweist.
Ziel dieser Arbeit war es, die Stickstoff- und Phosphorprozesse im nordostdeutschen Tiefland detailliert zu untersuchen und Handlungsoptionen hinsichtlich der Landnutzung zur nachhaltigen Steuerung der Stickstoff- und Phosphoreinträge in die Fließgewässer aufzuzeigen. Als Grundvoraussetzung für die Modellierung des Nährstoffhaushaltes mussten zunächst die hydrologischen Prozesse und die Abflüsse für die Einzugsgebiete validiert werden. Dafür wurde in dieser Arbeit das ökohydrologische Modell SWIM verwendet. Die Abflussmodellierung umfasste den Zeitraum 1991 - 2000. Die Ergebnisse dazu zeigen, dass SWIM in der Lage war, die hydrologischen Prozesse in den Untersuchungsgebieten adäquat wiederzugeben. Auf der Grundlage der Modellierung des Wasserhaushaltes wurden mit SWIM die Stoffumsatzprozesse für den Zeitraum 1996 - 2000 simuliert. Um dabei besonders das Prozessgeschehen im Tiefland zu berücksichtigen, war die Erweiterung von SWIM um einen Ammonium-Pool mit dessen Umsatzprozessen erforderlich. Außerdem wurde der Prozess der Nährstoffversickerung so ergänzt, dass neben Nitrat auch Ammonium und Phosphat durch das gesamte Bodenprofil verlagert und über die Abflusskomponenten zum Gebietsauslass transportiert werden können. Mit diesen Modellerweiterungen konnten die Stickstoff und Phosphorprozesse in den Untersuchungsgebieten gut abgebildet werden. Mit dem so validierten Modell wurden weitere Anwendungen ermöglicht. Nährstoffsimulationen für den Zeitraum 1981 bis 2000 dienten der Untersuchung des abnehmenden Trends in den Nährstoffkonzentrationen der Nuthe. Die Untersuchungsergebnisse lassen deutlich erkennen, dass sich die Konzentrationen nach 1990 hauptsächlich auf Grund der Reduzierung der Einträge aus punktförmigen Quellen und Rieselfeldern verringert haben. Weitere Modellrechnungen zur Herkunft der Nährstoffe haben ergeben, dass Nitrat überwiegend aus diffusen Quellen, Ammonium und Phosphat dagegen aus punktförmigen Quellen stammen. Als besonders sensitiv auf die Modellergebnisse haben sich die Parameter zu Landnutzung und -management und die Durchwurzelungstiefe der Pflanzen herausgestellt. Abschließend wurden verschiedene Landnutzungsszenarien angewendet. Die Ergebnisse zu den Szenariorechnungen zeigen, dass fast alle vorgegebenen Landnutzungsszenarien zu einer Verringerung der Stickstoff- bzw. Phosphoremissionen führten. Die Anwendung von Szenarien, die alle relevanten Zielvorgaben und Empfehlungen zum Ressourcenschutz berücksichtigen, zeigen die größten Veränderungen.
Ein hoher Verzehr von Obst und Gemüse scheint das Risiko der Inzidenz verschiedener Erkrankungen zu reduzieren. Es wird vermutet, dass eine Gruppe sekundärer Pflanzeninhaltsstoffe, die Flavonoide, hierfür verantwortlich sind. Mögliche Effekte auf die intestinale Barrierefunktion dieser Substanzklasse sind jedoch weitgehend ungeklärt. Parazelluläre Eigenschaften epithelialer Zellen werden hauptsächlich durch die Zell-Zell-Kontakte der Tight Junction (TJ) insbesondere durch die Proteine Occludin und die Claudine definiert. Ziel dieser Arbeit war es, die Effekte des am häufigsten vorkommenden Flavonoids Quercetin auf die Barrierefunktion der Kolonkarzinom-Zelllinie Caco-2 zu untersuchen. Hierbei zeigte sich, dass Quercetin konzentrationsabhängig (50-200 µM) den transepithelialen Widerstand erhöhte. Die Wirkung von 200 µM Quercetin war bereits nach 4 h Inkubation erkennbar und erreichte nach 48 h maximale Werte. Der Wirkverlust, welcher nach 72 h Inkubation eintrat, konnte durch eine tägliche Gabe des Flavonoids verhindert werden. Weiterhin zeigte sich, dass der Quercetin-induzierte Widerstandsanstieg durch mukosale oder serosale Zugabe gleichermaßen auslösbar war. Western Blot-Analysen der TJ-Proteine Occludin, Claudin-1, -3, -4 und -7 ergaben, dass der durch Quercetin-induzierte Widerstandsanstieg insbesondere mit einer Zunahme der Expression des abdichtenden TJ-Proteins Claudin-4 einherging. Quercetin erhöhte ebenfalls die mRNA-Expression von Claudin-4 (quantitative RT-PCR) und bewirkte eine Aktivierung des Claudin-4-Promotors (Luciferase-Reportergen-Analysen). Mittels Immunfluoreszenz-Färbungen und Laserscanning-Mikroskopie konnte ein vermehrter Einbau von Claudin-4 in die TJ nachgewiesen werden. Funktionelle Untersuchungen mittels radioaktiven Fluxmessungen zeigten, dass das Flavonoid die parazelluläre Permeabilität für Natrium und Chlorid reduzierte, aber die Durchlässigkeit von Mannitol als parazellulärer Marker unverändert blieb. Wir konnten hiermit erstmals nachweisen, dass Quercetin die Expression des abdichtenden TJ-Proteins Claudin-4 in den TJ-Komplex verstärkte, wodurch die Ionen-Durchlässigkeit für Natrium und Chlorid vermindert wurde. Das führte zu einer Abdichtung der intestinalen Barriere. Dieser direkte Effekte von Quercetin könnte eine neue Möglichkeit für die Behandlung oder Prävention von Diarrhöe-bedingten intestinalen Barrieredefekten darstellen.
Als ich anfing, ein Thema für meine Promotion zu erarbeiten, fand ich Massentests ziemlich beeindruckend. TIMSS: über 500000 Schüler getestet. PISA: 180000 Schüler getestet. Ich wollte diese Datenbasis nutzen, um Erkenntnisse für die Gestaltung von Unterricht zu gewinnen. Leider kam ich damit nicht weit. Je tiefer ich mich mit den Tests und den dahinterstehenden Theorien befasste, desto deutlicher schälte sich heraus, dass mit diesen Tests keine neue Erkenntnis generiert werden kann. Fast alle Schlussfolgerungen, die aus den Tests gezogen werden, konnten gar nicht aus den Tests selbst gewonnen werden. Ich konzentrierte mich zunehmend auf die Testaufgaben, weil die Geltung der Aussage eines Tests an der Aufgabe erzeugt wird: In der Aufgabe gerinnt das, was die Tester als „mathematische Leistungsfähigkeit“ konstruieren. Der Schüler wiederum hat nur die Aufgabe vor sich. Es gibt nur „gelöst“ (ein Punkt) und „ungelöst“ (kein Punkt). Damit der Schüler den Punkt bekommt, muss er an der richtigen Stelle ankreuzen, oder er muss etwas hinschrei-ben, wofür der Auswerter einen Punkt gibt. In der Dissertation wird untersucht, was die Aufgaben testen, was also alles in das Konstrukt von „mathematischer Leistungsfähigkeit“ einfließt, und ob es das ist, was der Test testen soll. Es stellte sich durchaus erstaunliches heraus: - Oftmals gibt es so viele Möglichkeiten, zur gewünschten Lösung (die nicht in jedem Fall die richtige Lösung ist) zu gelangen, dass man nicht benennen kann, welche Fähigkeit die Aufgabe eigentlich misst. Das Konstrukt „mathematische Leistungsfähigkeit“ wird damit zu einem zufälligen. - Es werden Komponenten von Testfähigkeit mitgemessen: Viele Aufgaben enthalten Irritationen, welche von testerfahrenen Schülern leichter überwunden werden können als von testunerfahrenen. Es gibt Aufgaben, die gelöst werden können, ohne dass man über die Fähigkeit verfügt, die getestet werden soll. Umgekehrt gibt es Aufgaben, die man eventuell nicht lösen kann, obwohl man über diese Fähigkeit verfügt. Als Kernkompetenz von Testfähigkeit stellt sich heraus, weder das gestellte mathematische Problem noch die angeblichen realen Proble-me ernst zu nehmen, sondern sich statt dessen auf das zu konzentrieren, was die Tester angekreuzt oder hinge-schrieben sehen wollen. Prinzipiell erweist es sich als günstig, mittelmäßig zu arbeiten, auf intellektuelle Tiefe in der Auseinandersetzung mit den Aufgaben also zu verzichten. - Man kann bei Multiple-Choice-Tests raten. Die PISA-Gruppe behauptet zwar, dieses Problem technisch über-winden zu können, dies erweist sich aber als Fehleinschätzung. - Sowohl bei TIMSS als auch bei PISA stellt sich heraus, dass die vorgeblich verwendeten didaktischen und psychologischen Theorien lediglich theoretische Mäntel für eine theoriearme Testerstellung sind. Am Beispiel der Theorie der mentalen Situationsmodelle (zur Bearbeitung von realitätsnahen Aufgaben) wird dies ausführlich exemplarisch ausgearbeitet. Das Problem reproduziert sich in anderen Theoriefeldern. Die Tests werden nicht durch Operationalisierungen von Messkonstrukten erstellt, sondern durch systematisches Zusammenstückeln von Aufgaben. - Bei PISA sollte „Mathematical Literacy“ getestet werden. Verkürzt sollte das die Fähigkeit sein, „die Rolle, die Mathematik in der Welt spielt, zu erkennen und zu verstehen, begründete mathematische Urteile abzugeben und sich auf eine Weise mit der Mathematik zu befassen, die den Anforderungen des gegenwärtigen und künftigen Lebens einer Person als eines konstruktiven, engagierten und reflektierten Bürgers entspricht“ (PISA-Eigendarstellung). Von all dem kann angesichts der Aufgaben keine Rede sein. - Bei der Untersuchung des PISA-Tests drängte sich ein mathematikdidaktischer Habitus auf, der eine separate Untersuchung erzwang. Ich habe ihn unter dem Stichwort der „Abkehr von der Sache“ zusammengefasst. Er ist geprägt von Zerstörungen des Mathematischen bei gleichzeitiger Überbetonung des Fachsprachlichen und durch Verwerfungen des Mathematischen und des Realen bei realitätsnahen Aufgaben. Letzteres gründet in der Nicht-beachtung der Authentizität sowohl des Realen als auch des Mathematischen. Die Arbeit versammelt neben den Untersuchungen zu TIMSS und PISA ein ausführliches Kapitel über das Prob-lem des Testens und eine Darstellung der Methodologie und Praxis der Objektiven Hermeneutik.