Refine
Year of publication
- 2016 (120) (remove)
Document Type
- Doctoral Thesis (120) (remove)
Language
- German (120) (remove)
Is part of the Bibliography
- yes (120)
Keywords
- Centrosom (2)
- Dictyostelium (2)
- Geschmack (2)
- Klimawandel (2)
- centrosome (2)
- climate change (2)
- dictyostelium (2)
- taste (2)
- 1970er Jahre (1)
- 1970s (1)
Institute
- Historisches Institut (14)
- Institut für Chemie (14)
- Wirtschaftswissenschaften (13)
- Institut für Ernährungswissenschaft (9)
- Sozialwissenschaften (9)
- Institut für Germanistik (7)
- Institut für Informatik und Computational Science (7)
- Öffentliches Recht (7)
- Institut für Biochemie und Biologie (6)
- Bürgerliches Recht (5)
Der junge Habermas
(2016)
Roman Yos' Untersuchung über die Ursprünge eines der einflussreichsten Werke der jüngeren Geistesgeschichte zeigt auf originelle Weise, wie Jürgen Habermas seine bereits in jungen Jahren ausgeprägten philosophisch-politischen Denkmotive allmählich in die Bahnen eines tragfähigen Systems überführte. Diese Entwicklung lässt sich als ein Lernprozess begreifen, in dessen Verlauf konträre intellektuelle Einflüsse aufeinandertrafen und der aufwändigen Vermittlung bedurften. Yos rekonstruiert die spannungsreiche Entstehung von Habermas‘ Denken aus dem Zusammenhang frühester Schriften und gibt zugleich einen Einblick in deren zeit- und ideengeschichtliche Hintergründe.
Die Projektierung und Abwicklung sowie die statische und dynamische Analyse von Geschäftsprozessen im Bereich des Verwaltens und Regierens auf kommunaler, Länder- wie auch Bundesebene mit Hilfe von Informations- und Kommunikationstechniken beschäftigen Politiker und Strategen für Informationstechnologie ebenso wie die Öffentlichkeit seit Langem.
Der hieraus entstandene Begriff E-Government wurde in der Folge aus den unterschiedlichsten technischen, politischen und semantischen Blickrichtungen beleuchtet.
Die vorliegende Arbeit konzentriert sich dabei auf zwei Schwerpunktthemen:
• Das erste Schwerpunktthema behandelt den Entwurf eines hierarchischen Architekturmodells, für welches sieben hierarchische Schichten identifiziert werden können. Diese erscheinen notwendig, aber auch hinreichend, um den allgemeinen Fall zu beschreiben.
Den Hintergrund hierfür liefert die langjährige Prozess- und Verwaltungserfahrung als Leiter der EDV-Abteilung der Stadtverwaltung Landshut, eine kreisfreie Stadt mit rund 69.000 Einwohnern im Nordosten von München. Sie steht als Repräsentant für viele Verwaltungsvorgänge in der Bundesrepublik Deutschland und ist dennoch als Analyseobjekt in der Gesamtkomplexität und Prozessquantität überschaubar.
Somit können aus der Analyse sämtlicher Kernabläufe statische und dynamische Strukturen extrahiert und abstrakt modelliert werden.
Die Schwerpunkte liegen in der Darstellung der vorhandenen Bedienabläufe in einer Kommune. Die Transformation der Bedienanforderung in einem hierarchischen System, die Darstellung der Kontroll- und der Operationszustände in allen Schichten wie auch die Strategie der Fehlererkennung und Fehlerbehebung schaffen eine transparente Basis für umfassende Restrukturierungen und Optimierungen.
Für die Modellierung wurde FMC-eCS eingesetzt, eine am Hasso-Plattner-Institut für Softwaresystemtechnik GmbH (HPI) im Fachgebiet Kommunikationssysteme entwickelte Methodik zur Modellierung zustandsdiskreter Systeme unter Berücksichtigung möglicher Inkonsistenzen (Betreuer: Prof. Dr.-Ing. Werner Zorn [ZW07a, ZW07b]).
• Das zweite Schwerpunktthema widmet sich der quantitativen Modellierung und Optimierung von E-Government-Bediensystemen, welche am Beispiel des Bürgerbüros der Stadt Landshut im Zeitraum 2008 bis 2015 durchgeführt wurden. Dies erfolgt auf Basis einer kontinuierlichen Betriebsdatenerfassung mit aufwendiger Vorverarbeitung zur Extrahierung mathematisch beschreibbarer Wahrscheinlichkeitsverteilungen.
Der hieraus entwickelte Dienstplan wurde hinsichtlich der erzielbaren Optimierungen im dauerhaften Echteinsatz verifiziert.
[ZW07a] Zorn, Werner: «FMC-QE A New Approach in Quantitative Modeling», Vortrag anlässlich: MSV'07- The 2007 International Conference on Modeling, Simulation and Visualization Methods WorldComp2007, Las Vegas, 28.6.2007.
[ZW07b] Zorn, Werner: «FMC-QE, A New Approach in Quantitative Modeling», Veröffentlichung, Hasso-Plattner-Institut für Softwaresystemtechnik an der Universität Potsdam, 28.6.2007.
In Gelehrte – Republik – Gelehrtenrepublik untersucht Marc Banditt die Eigenheiten aufklärerischer Tendenzen der Stadt Danzig. Deren Nukleus bildete die zur Jahreswende 1742/43 gegründete Naturforschende Gesellschaft, einer der am längsten existierenden privaten Zusammenschlüsse auf diesem Gebiet. Der strukturelle Wandel dieser Sozietät in den ersten knapp 80 Jahren ihres Bestehens wird dabei als die Summe einer Vielzahl von ineinandergreifenden Entwicklungssträngen verstanden, die die voranschreitende gesellschaftliche Durchdringung der Aufklärungsideen und -inhalte im Laufe des 18. Jahrhunderts kennzeichneten. Trotz der Kräfteverschiebungen in Nordosteuropa, die in Gestalt der Teilungen Polen-Litauens der autonomen Stellung der Hansestadt im Jahr 1793 ein Ende bereiteten, offenbart sich, dass die Geschichte des Danziger Naturforscherzirkels mehr Kontinuitäten als Brüche aufweist. Sowohl auf lokaler als auch auf transregionaler Ebene generierte sich die Vereinigung als eine elementare Schnittstelle zwischenmenschlicher Beziehungen, die von familiären Verflechtungen, weitreichenden Gelehrtennetzwerken und patronalen Abhängigkeitsverhältnissen geprägt waren. Auf diese Weise verkörperte die Naturforschende Gesellschaft zum einen den Aufklärungsprozess innerhalb der Stadt Danzig und zum anderen deren Stellenwert als ein wissenschaftlicher Standort im damaligen Europa.
Der gedachte Krieg
(2016)
Wie ein Damoklesschwert schwebte während des Ost-West-Konflikts die Möglichkeit einer offenen militärischen Auseinandersetzung mit den Streitkräften des Warschauer Pakts über dem "Frontstaat" Bundesrepublik Deutschland. Angesichts dieser permanenten Bedrohung wurde die Bundeswehrführung ständig mit der Frage nach dem Kriegsbild konfrontiert. Florian Reichenberger geht der Entwicklung von Kriegsbildern in der militärischen Führung der Bundeswehr im Zeitalter des Ost-West-Konflikts auf den Grund. Dabei werden Perzeptionsverläufe von einem möglichen "Dritten Weltkrieg" in den vielfältigen Wechselbeziehungen zu Politik, Gesellschaft, Wirtschaft, Wissenschaft und Technik beleuchtet. In einem interdisziplinären, epochenübergreifenden und zwischen den Teilstreitkräften vergleichenden Ansatz fragt der Autor nach Einheitlichkeit, Kontinuität und Wandel sowie Interessenleitung in den Denkmustern der westdeutschen Militärelite. Die Theorie zum Phänomen Kriegsbild bildet dabei den methodischen Rahmen.
"Der unterirdische Kampf"
(2016)
Die militärische Rüstungsbürokratie zwischen Niederlage des Deutschen Kaiserreiches und ›Totalem Krieg‹ der NS-Diktatur – in dieses Spannungsverhältnis begibt sich der Autor. Er untersucht, wie die Fachleute des Wehrwirtschafts- und Rüstungsamtes die Mobilisierung planten – und dabei scheiterten.
Bereits kurze Zeit nach der deutschen Niederlage von 1918 wurden die wirtschaftlichen Aspekte der Kriegführung wieder von einem kleinen, hochprofessionellen Offizierskreis diskutiert. Sie nahmen Gedanken aus der Zeit des Ersten Weltkrieges auf und forderten in der Reichswehr und noch stärker in der Wehrmacht die Steuerungshoheit des Militärs über die kriegsrelevante Wirtschaft. Ihre Planungen und Maßnahmen waren nicht nur im Offizierkorps selbst umstritten, sondern unterlagen letztlich auch den Widerständen der Privatwirtschaft und den Interessen von NS-Parteigrößen. Entlang dieser Fronten beschreibt der Autor eine militärische Organisation von ihrem Aufbau 1924 bis zu ihrer ›Zerschlagung‹ durch Albert Speer 1942. Dabei nimmt er auch das alles andere als eindeutige Verhalten des Führungspersonals im Amt in den Blick.
Die "Europäisch-jüdischen Studien" repräsentieren die interdisziplinär vernetzte Kompetenz des neuen "Zentrums Jüdische Studien Berlin-Brandenburg" (ZJS). Das Zentrum versammelt die wichtigsten Institutionen dieser Region, die sich mit Jüdischen Studien befassen - darunter die einschlägigen Universitäten und Einrichtungen in Berlin und Potsdam. Der interdisziplinäre Charakter der Reihe zielt insbesondere auf geschichts-, geistes- und kulturwissenschaftliche Ansätze sowie auf intellektuelle, politische und religiöse Grundfragen, die jüdisches Leben und Denken heute inspirieren und in der Vergangenheit beeinflusst haben. In den BEITRÄGEN werden exzellente Monographien und Sammelbändezum gesamten Themenspektrum Jüdischer Studien veröffentlicht. Die Reihe ist peer-reviewed. In den KONTROVERSEN werden grundlegende Debatten aufgenommen, die von zeitgenössischer und publizistischer Relevanz sind. Die Reihe ist peer-reviewed. In den EDITIONEN werden Werke herausragender jüdischer Autoren neu aufgelegt.
Klingende Eklats
(2016)
Der klingende Eklat ist mehr als der Pfeffer musikhistorischer Narrationen. Vielmehr ist der Musikskandal ein kultureller Störfall und ein ästhetisches Ereignis. Er überschreitet nicht nur die künstlerischen und moralischen Grenzen des guten Tons, sondern greift zudem gesellschaftliche Normen auf und an.
Anna Schürmer analysiert diese Verschränkung und nutzt das interdisziplinäre Potential, das der klingende Eklat als konfliktiver Seismograf sozialer Problem- wie ästhetischer Experimentierfelder bereithält. An der Schnittstelle von Geschichts- und Musikwissenschaften fokussiert die medienkulturwissenschaftlich inspirierte Studie den prismatischen Gegenstand des klingenden Eklats vor dem akustischen Hintergrund nicht nur der musikalischen Moderne.
Nachdem der Sicherheitsdienst der SS 1934 zum einzigen politischen Nachrichtendienst der NSDAP aufgestiegen war, entwickelten seine führenden Mitarbeiter ein ehrgeiziges Konzept zur Erfassung, Bewertung und praktischen Anwendung von Informationen über die Gegner des NS-Staates. Die Gegnerforscher im Amt II des Sicherheitshauptamtes versuchten so, politischen Einfluss auf die Partei- und Staatsführung des „Dritten Reiches“ zu nehmen. Ihre Analysen dienten auch zur Schulung und als Material für die exekutiv arbeitende Gestapo, lieferten also die materielle und ideologische Grundlage zur Verfolgung des „Gegners“ – Freimaurer, Juden, die „politischen Kirchen“, „Marxisten“ und Liberale. Unter den Gegnerforschern entstand ein gemeinsamer Denkstil. Daraus entwickelten sie Strategien zur Erkennung und Bekämpfung der Gegnergruppen und professionalisierten sie Mitte der 1930er-Jahre. Viele von ihnen wandten in den ersten Einsatzkommandos in Österreich, der Tschechoslowakei oder Polen, in den Stäben der Befehlshaber der Sicherheitspolizei und als „Judenberater“ genau die Methoden zur Gegnerbekämpfung an, die sie im Amt II des Sicherheitshauptamtes mitentwickelt hatten.
Begriffe wie „Türken“, „Menschen mit türkischem Migrationshintergrund“, etc., die in vielen Bereichen des Lebens verwendet werden, sind Ausdruck der vorliegenden Differenzordnungen und Machtstrukturen und können diskriminierend wirken. Das ist z.B. dann der Fall, wenn bestimmte Begriffe verwendet werden, obwohl eine Kontextrelevanz nicht unbedingt vorliegt. Einige ethnische Bezeichnungen werden dabei häufiger verwendet als andere, trotz vergleichbarer Kontextrelevanz: „türkische/arabische Kinder“ aber nicht „englische/spanische Kinder“ (Wiese 2012), „Deutsch-Türke“ Mesut Özil aber nicht „Deutsch-Tunesier“ Sami Khedira. Erst die Bezeichnungen schaffen hier die Subjekte. Die besondere Auszeichnung macht es in der Folge möglich, dass ihnen Eigenschaften zugeschrieben werden (do Mar Castro Varela/Dhawan 2004). Aus Studien geht hervor, dass Ethnisierung mit Unterschichtung (Hormel 2007) in Verbindung gebracht wird und Begriffe wie „Migrant“ mit negativen Eigenschaften (Scarvagliere/Zech 2013). Durch die Auszeichnung von Abweichungen von dem von der Mehrheit definierten unmarkierten Normalfall wird eine Differenzordnung (Mecheril/Melter 2012) hergestellt, die das vermeintliche Anders-Sein ins Zentrum der Aufmerksamkeit rückt. Folgen sind Abwertung bestimmter (Erst-)Sprachen, Unterwerfung durch Beschreibungspraxen und Restriktionen auf dem Feld der Repräsentation (Broden/Mecheril 2007).
Ausgehend von diesen Überlegungen wird in der Arbeit „Ethnizität“ diskutiert, worauf viele dieser Bezeichnungen rekurrieren. Barth (1969, 1994) stellt fest, dass Ethnizität der Abgrenzung dient und Zugehörigkeit zu ethnische Gruppen durch kategoriale Selbst- und Fremdzuschreibungen bestimmt wird. Brubaker (2004) folgert daher, dass „Gruppen“ nur in Form von Vorstellungen existieren, die Individuen davon haben und diese Subjektivität zu unterschiedlichen Konstruktionen ethnischer Identität führt. Dementsprechend können auch „multiple ethnische Identitäten“ (Keupp 2002) und „Hybriditäten“ (Foroutan 2013) das Ergebnis der individuellen Konstruktion sein, ohne dass diese Formen gemeinhin akzeptierte Bezeichnungen darstellen.
Um die individuelle Entstehung ethnischer Identität nachvollziehen zu können, werden in der Arbeit Spracherwerbsgeschichten analysiert, da verschiedene Studien nahelegen, dass das Sprechen einer Sprache in engem Zusammenhang zur Ethnizität steht. Ohm (2008) zeigt, dass Zweitsprachenerwerb mit Identitätsprozessen in einem wechselseitigen Bedingungsverhältnis steht. Giles/Bourhis/Taylor (1977: 326) zeigen anhand von Untersuchungen in mehrsprachigen Gebieten wie Quebec und Wales, dass Sprache enger mit ethnischer Identität verbunden ist als Nationalität oder „Kultur“. Rosenberg (2015) führt am Beispiel der ehemaligen UdSSR auf, dass das Sprechen einer Sprache gleichbedeutend mit dem Zugehörigkeit zu einer ethnischen „Gruppe“ war. Sprache greift auch als Ausschlusskriterium: Nur wer eine Sprache gut spricht, darf die damit verbundene Identität in Anspruch nehmen (Schroeder/Dollnick, 2013: 104).
Mithilfe der Methode des narrativen Interviews können Spracherwerbsgeschichten produziert, und individuelle kognitive Perspektiven und gesellschaftliche Prozesse aufgedeckt werden. In der Analyse können vier Wege der Entstehung ethnischer Identität unterschieden werden: I. Ethnizität als primäre und dauerhafte Dimension, II. Multiple ethnische Identität, III. Unmarkierte ethnische Identität, IV. Selbstbestimmtheit. So kommt die Untersuchung zu dem Schluss, dass Ethnische Identität bei „Menschen mit türkischem Migrationshintergrund“ durch individuelle Erfahrungen entsteht, sich verändern und Mehrfachzugehörigkeiten oder Hybriditäten zulassen kann. Dieses Ergebnis widerspricht dem alltäglichen Gebrauch bestimmter Begriffe und stellt damit gängige Bezeichnungsweisen und Differenzordnungen in Frage.
Faktor Mensch
(2016)
Eine Krisensituation ist eine Umbruchssituation. Sie kann als Chance, als Herausforderung sowie im Sinne einer SCHUMPETER’SCHEN „schöpferischen Zerstörung“ als Ausgangspunkt von bedeutsamen Veränderungen und neuen Entwicklungsmöglichkeiten begriffen werden. Die Krisensituation der 1970er und 1980er Jahre bildet dahingehend durch ihre Einzigartigkeit einen herausragenden wirtschaftshistorischen Untersuchungsgegenstand. Für die westeuropäischen Staaten waren es nicht nur Jahre einer, nach der außergewöhnlich langen Boomzeit der „Wirtschaftswunderjahre“, problematischen sozialen und wirtschaftliche Situation. Es war auch eine Zeit eines bedeutungsvollen und beschleunigten Wandels. Die Gleichzeitigkeit vieler Veränderungen, das zeitliche Zusammentreffen von konjunkturellen und strukturellen Problemlagen sowie die äußerst kritische Situation an den westeuropäischen Arbeitsmärkten bildete eine multiple Krisensituation. Deren Auswirkungen waren weitreichender, als es von den Zeitgenossen erahnt werden konnte. Es gab nicht nur Änderungen im (wirtschafts-)politischen Makrogefüge vieler Volkswirtschaften, auch bedeutende Einflüsse waren auf der Mikroebene feststellbar. Marktorientierte Unternehmen mussten sich auf die neue Situation einstellen und im Rahmen einer Neupositionierung von Betriebsstrategien, organisatorischen Umgestaltungen und einer stärkeren Ressourcenorientierung betriebswirtschaftlich handeln. Das schien letztlich zu einer stärkeren Beachtung und Entwicklung der in den Unternehmen vorhandenen humanen und sozialen Ressourcen zu führen.
Diese Arbeit stellt die Hypothese auf, dass umfassende organisatorische Veränderungen und strategische Neupositionierungen, insbesondere die effektivere Nutzung sowie der intensive Auf- und Ausbau betriebsinterner Personalressourcen Unternehmen maßgeblich halfen, die Krisensituation der 1970er und 1980er Jahre besser und nachhaltiger überwinden zu können. Anders als die bisherige wirtschaftshistorische Forschungsliteratur nimmt diese Dissertation nicht die makroökonomisch Perspektive in den Fokus, sondern untersucht die Hypothese anhand mehrerer Unternehmensfallstudien. Ausgewählt sind drei Großunternehmen der westeuropäischen Elektroindustrie. Diese Arbeit liefert mit dieser Untersuchung einen weiteren Baustein zur wirtschaftshistorischen Annäherung an die 1970er und 1980er Jahre und leistet ebenso einen Beitrag zur Fortschreibung der Firmengeschichte der drei Unternehmen.
Die Elektrobranche fand bisher wirtschaftshistorisch nur wenig Beachtung, dennoch ist sie ein gutes Beispiel für die umfassende Veränderungssituation jener Jahre. Entsprechende Sekundärquellen sind für diesen Zeitraum für die drei Unternehmen kaum vorhanden. Aus diesem Grund bildet eine Vielzahl von Archivalien das Fundament dieser Arbeit. Sie werden als Primärquellen aus den jeweiligen Unternehmensarchiven als Basis der Fallanalyse herangezogen. Mit Hilfe zahlreicher Dokumente des betrieblichen „Alltagsgeschäfts“, wie beispielsweise Daten des betrieblichen Personal- und Rechnungswesens, Protokolle von Sitzungen der Arbeitsnehmervertreter, des Aufsichtsrats oder des Vorstands sowie interne Strategiepapiere und Statistiken, wird nicht nur der anfangs aufgestellten Hypothese nachgegangen, sondern auch mehrerer sich aus ihr ergebende Fragenkomplexe. Im Rahmen derer wird untersucht, wie die Unternehmen – die Beschäftigten, die Leitungsebenen und die Aufsichtsräte – auf die Krisensituation reagierten, ob sie ggf. ihrerseits Einfluss darauf zu nehmen versuchten und welche betriebswirtschaftlichen Schlüsse daraus gezogen wurden. Es wird hinterfragt, ob eine stärkere Ressourcenorientierung wirklich eine neue Strategieperspektive bot und es diesbezüglich zu einer stärkeren Beachtung humaner und sozialer Ressourcen im Unternehmen kam. Diese Arbeit untersucht, ob gezielt zur Krisenüberwindung in diese Ressourcen investiert wurde und diese Investitionen halfen, die Krisensituation erfolgreich zu überstehen und nachhaltig den Unternehmenserfolg zu sichern.
Die vorliegende explorative empirische Untersuchung muslimischer Frauengruppen leistet einen Beitrag zur Erforschung des religiösen Wandels im religiösen Feld in Deutschland. Zum einen werden damit erstmals qualitative Daten zu religiösen Gruppen muslimischer Frauen erhoben. Zum anderen liefern die analysierten Anlässe der Gruppengründung und die Gruppenziele Einblicke in die relevanten Themen des religiös-muslimischen Engagements im Zeitverlauf. Gemäß der explorativen Konzeption interessiert sich diese Studie insbesondere für die Vielfalt muslimischer Frauengruppen in Deutschland. Es wurde gefragt, welche Selbstbeschreibungen als muslimische Frauengruppen sich derzeit erkennen lassen? Dazu wurden thematische Leitfadeninterviews mit Ansprechpartnerinnen muslimischer Frauengruppen im religiösen Feld (2006-2011) durchgeführt.
Die Gründungen der zwölf untersuchten muslimischen Frauengruppen lagen im Zeitraum von 1978 bis 2009. Dies umfasst im Hinblick auf das muslimisch-religiöse Engagement Phasen mit unterschiedlichen Schwerpunkten, die von der Verfestigung der religiösen Strukturen über den Kampf um rechtliche Gleichstellung als religiöse Minderheit bis zu einer Auseinandersetzung mit der staatlichen Islampolitik reichen. Die ältesten der untersuchten Gruppen reflektieren in ihrem historischen Verlauf den Aufbau der religiösen Strukturen, indem sie zunächst Räume für sich in den Gemeinden schufen. Diese füllten sie in Form von religiösen Bildungsprozessen und zwar indem sie einander an ihren Kenntnissen teilhaben ließen und gemeinsam die religiöse Quelle erschlossen. Andere Gruppen schlossen sich zusammen, um von den Kenntnissen religiöser Expertinnen zu profitieren, wieder andere etablierten Angebote, die über den eigenen Gruppenzusammenhang hinausreichten. Mit dieser Ausrichtung der Weltgestaltung ging auch die Gründung einer Organisation, d.h. ein Wandel der Sozialform einher.
Die Ergebnisse konstatieren eine Kontingenz hinsichtlich der Selbstzuordnung muslimische Frauengruppe. Es handelt sich um historisch spezifische Selbstzuschreibungen, die Ausdruck eines religiösen Wandels im muslimisch-religiösen Feld initiiert von muslimischen Frauen sind. Zentrales Ergebnis ist hier, dass die Gruppen zwar hinsichtlich ihrer Formen heterogen sind, allerdings eine Verbindungslinie in ihren Kernideen als Frauengruppen- und Organisationen besteht. Es zeigt sich durch alle Phasen des muslimisch-religiösen Engagements im religiösen Feld ein hohes Interesse an religiösen Bildungsthemen seitens muslimischer Frauen. Diese sind verbunden mit der Auseinandersetzung mit dem religiösen Geschlechterverhältnis.
Die Aufmerksamkeit, die das religiöse Geschlechterverhältnis im Kontext des Institutionalisierungs- und Partizipationsprozess des Islam im politischen Feld derzeit besitzt, kann einerseits als spezifisch gelten. Andererseits zeigen historische Kontextualisierungen mit der religiösen Frauenbewegung im 19. Jahrhundert, dass auch hier über religiöse Geschlechterbilder Partizipationsfragen verhandelt wurden.
Die Ergebnisse dieser Studie belegen die Relevanz von religiösen Gruppen innerhalb religiöser Wandlungsprozesse. Weiterhin liefern sie neue Erkenntnisse hinsichtlich des Verhältnisses von religiöser Individualisierung und Gruppenbindung: Muslimische Frauen vergemeinschaften sich aus religiösen Bildungszwecken innerhalb von religiösen Gruppen und behandeln dabei Themen ihre weibliche religiöse Identität und die religiöse Lebensführung als Frau betreffend und dies stärkt ihre individuelle religiöse Bindung.
Datenbankbasierte epidemiologische Untersuchung über die Versorgung demenzerkrankter Patienten
(2016)
Hintergrund:
Demenz wird von der Weltgesundheitsorganisation als ein in der Regel chronisch oder progressiv verlaufendes Syndrom definiert, das von einer Vielzahl von Hirnerkrankungen verursacht wird, welche das Gedächtnis, das Denkvermögen, das Verhalten und die Fähigkeit, alltägliche Tätigkeiten auszuführen, beeinflussen. Weltweit leiden 47,5 Millionen Menschen unter Demenz und diese Zahl wird sich voraussichtlich bis zum Jahr 2050 verdreifachen.
In den vorliegenden Studien wurden zum Einem die Faktoren, welche mit dem Risiko einhergehen eine Demenz zu entwickeln, analysiert. Zum Anderen wurde die Persistenz der medikamentösen Behandlung von depressiven Zuständen mit Antidepressiva sowie die Persistenz der medikamentösen Behandlung von Verhaltensstörungen, therapiert mit Antipsychotika, bei Demenzpatienten untersucht.
Durchführung:
Alle drei Studien basieren auf den Daten der IMS Disease Analyzer-Datenbank.
Die Daten der Disease Analyzer-Datenbank werden über standardisierte Schnittstellen direkt monatlich aus dem Praxiscomputer generiert. Die Daten werden vor der Übertragung verschlüsselt und entsprechen in Umfang und Detaillierungsgrad der Patientenakte.
Risikofaktoren für eine Demenzdiagnose
Methode:
Insgesamt wurden in die Studie 11.956 Patienten mit einer Erstdiagnose (Indexdatum) einer Demenz (ICD 10: F01, F03, G30) zwischen Januar 2010 und Dezember 2014 eingeschlossen. 11.956 Kontrollpatienten (ohne Demenz) wurden den Patienten nach Alter, Geschlecht, Art der Krankenversicherung und Arzt zugeordnet. In beiden Fällen wurden die Praxisaufzeichnungen dazu verwendet, sicherzustellen, dass die Patienten vor dem Indexdatum jeweils 10 Jahre kontinuierlich beobachtet worden waren. Insgesamt wurden 23.912 Personen betrachtet.
Mehrere Erkrankungen, die möglicherweise mit Demenz assoziiert sind, wurden anhand von allgemeinärztlichen Diagnosen bestimmt (ICD-10-Codes): Diabetes (E10-E14), Hypertonie (I10), Adipositas (E66), Hyperlipidämie (E78), Schlaganfall (einschließlich transitorische ischämische Attacke, TIA) (I63, I64, G45), Parkinson-Krankheit (G20, G21), intrakranielle Verletzung (S06), koronare Herzkrankheit (I20-I25), leichte kognitive Beeinträchtigung (F06) und psychische und Verhaltensstörungen durch Alkohol (F10). Das Vorhandensein mehrerer Medikamente, wie z. B. Statine, Protonenpumpenhemmer und Antihypertensiva (einschließlich Diuretika, Beta-Blocker, Calciumkanalblocker, ACE-Hemmer und Angiotensin-II), wurde ebenfalls bemessen.
Ergebnisse:
Das Durchschnittsalter für die 11.956 Demenzpatienten und die 11.956 der Kontrollkohorte war 80,4 (SD 5,3) Jahre. 39,0% der waren männlich. In dem multivariaten Regressionsmodell, wurden folgende Variablen mit einem erhöhten Risiko von Demenz in einem signifikanten Einfluß assoziiert: milde kognitive Beeinträchtigung (MCI) (OR: 2,12), psychische und Verhaltensstörungen durch Alkohol (1,96), Parkinson-Krankheit (PD) (1,89), Schlaganfall (1,68), intrakranielle Verletzung (1,30), Diabetes (1,17), Fettstoffwechselstörung (1,07), koronare Herzkrankheit (1,06). Der Einsatz von Antihypertensiva (0,96), Statinen (OR: 0,94) und Protonen-Pumpen-Inhibitoren (PPI) (0,93) wurden mit einem verringerten Risiko der Entwicklung von Demenz.
Schlussfolgerung:
Die gefundenen Risikofaktoren für Demenz stehen in Einklang mit der Literatur. Nichtsdestotrotz bedürfen die Zusammenhänge zwischen der Verwendung von Statinen, PPI und Antihypertensiva und einem verringerten Demenzrisiko weiterer Untersuchungen.
Persistenz der Behandlung mit Antidepressiva bei Patienten mit Demenz
Methode:
Patienten wurden ausgewählt, wenn bei ihnen im Zeitraum zwischen Januar 2004 und Dezember 2013 eine Demenzdiagnose (ICD 10: F01, F03, G30) und eine erste Verordnung eines trizyklischen Antidepressivums oder selektiven Serotonin-
Wiederaufnahmehemmers (SSRI) oder Serotonin-Noradrenalin-Wiederaufnahmehemmers (SSNRI) vorlagen. Ausgewählte Patienten wurden über einen Zeitraum von bis zu zwei Jahre nach dem Indexdatum beobachtet. Das letzte Nachbeobachtungsdatum eines Patienten war der 31. Dezember 2014. Insgesamt standen 12.281 Patienten für die Persistenzanalyse zur Verfügung. Der Hauptzielparameter war die Abbruchrate der Antidepressivabehandlung innerhalb von sechs Monaten nach dem Indexdatum. Behandlungsabbruch wurde definiert als ein Zeitraum von 90 Tagen ohne diese Therapie.
Als demographische Daten wurden Alter, Art der Krankenversicherung (privat oder gesetzlich), Art der Praxis (Neurologe oder Allgemeinmediziner) und Praxisregion (Ost- oder Westdeutschland) erhoben. Die folgenden Demenzdiagnosen wurden berücksichtigt: Alzheimer-Krankheit (G30), vaskuläre Demenz (F01) und nicht näher bezeichnete Demenz (F03). Darüber hinaus wurde der Charlson-Komorbiditäts-Index als allgemeiner Marker für Komorbidität verwendet. Darüber hinaus wurden die folgenden Diagnosen als Komorbiditäten in die Studie aufgenommen: Depression (ICD 10: F32-33), Delir (F05), Typ-2-Diabetes mellitus (E11, E14), Hypertonie (I10), koronare Herzkrankheit (I24, I25), Schlaganfall (I63, I64), Myokardinfarkt (I21-23) und Herzinsuffizienz (I50).
Ergebnisse:
Nach sechs Monaten Nachbeobachtung hatten 52,7 % (von 12,281 Demenzpatienten) der mit Antidepressiva behandelten Demenzpatienten die Medikamenteneinnahme abgebrochen. Die multivariaten Regressionsanalysen zeigten ein signifikant geringeres Risiko für einen Behandlungsabbruch bei mit SSRRI oder SSNRI behandelten Patienten verglichen mit Patienten, die trizyklische Antidepressiva einnahmen. Es zeigte sich ein signifikant geringeres Risiko eines Behandlungsabbruchs bei jüngeren Patienten.
Schlussfolgerung:
Die Ergebnisse zeigen eine unzureichende Persistenz mit Antipsychotika bei Demenzpatienten unter Alltagsbedingungen. Es muss eine Verbesserung erreicht werden, um die in den Richtlinien empfohlene Behandlung sicherzustellen.
Persistenz der Behandlung mit Antipsychotika bei Patienten mit Demenz
Methode:
Diese Studie umfasste Patienten im Alter ab 60 Jahren mit Demenz beliebigen Ursprungs, die zwischen Januar 2009 und Dezember 2013 (Indexdatum) zum ersten Mal Antipsychotikaverordnungen (ATC: N05A) von deutschen Psychiatern erhielten. Der Nachbeobachtungszeitraum endete im Oktober 2015. Die Demenz wurde auf Grundlage der ICD-10-Codes für vaskuläre Demenz (F01), nicht näher bezeichnete Demenz (F03) und Alzheimer-Krankheit (G30) bewertet.
Der Hauptzielparameter war die Behandlungspersistenzrate über einen Zeitraum von mehr als 6 Monaten nach dem Indexdatum. Die Persistenz wurde als Therapiezeit ohne Absetzen der Behandlung, definiert als mindestens 180 Tage ohne Antipsychotikatherapie, geschätzt. Alle Patienten wurden für eine Dauer von bis zu zwei Jahren ab ihrem Indexdatum beobachtet.
Gleichzeitig auftretende Erkrankungen wurden anhand von Diagnosen (ICD-10-Codes) von Depression (F32, F33), Parkinson-Krankheit (G20), psychischer Störungen aufgrund bekannter physiologischer Erkrankungen (F06) und Persönlichkeits- und Verhaltensstörungen aufgrund physiologischer Erkrankungen (F07) bestimmt. Als demographische Daten wurden Alter, Geschlecht und Art der Krankenversicherung (privat/gesetzlich) erhoben.
Ergebnisse:
12,979 Demenzpatienten mit einem Durchschnittsalter von 82 Jahre (52.1% leben in Pflegeheimen) wurden in diese Studie analysiert. Nach zwei Jahren Nachbeobachtung hatten 54,8 %, 57,2 %, 61,1 % bzw. 65,4 % der Patienten zwischen 60-69, 70-79, 80-89 bzw. 90-99 Jahren Antipsychotikaverordnungen erhalten (p<0,001). 82,6 % der in Pflegeheimen lebenden Patienten und 76,2 % der Patienten in häuslicher Pflege setzten ihre Behandlung ebenfalls länger als 6 Monate fort; nach zwei Jahren lag der Anteil bei 63,9 % (in Pflegeheimen) bzw. 55,0 % (in häuslicher Pflege) (p<0,001).
Schlussfolgerung:
Die Studie zeigt, dass der Anteil der mit Antipsychotika behandelten Demenzpatienten sehr hoch ist. Weitere Studien, einschließlich qualitativer Untersuchungen, sind nötig, um die Gründe für dieses Verschreibungsverhalten zu verstehen und zu erklären.
In der vorliegenden Arbeit wird die planetare Grenzschicht in Ny-Ålesund, Spitzbergen, sowohl bezüglich kleinskaliger („mikrometeorologischer“) Effekte als auch in ihrer Kopplung mit der Synoptik untersucht. Dazu werden verschiedene Beobachtungsdaten aus der Säule und in Bodennähe zusammengezogen und bewertet. Die so gewonnenen Datensätze werden dann zur Validierung eines nicht-hydrostatischen, regionalen Klimamodells genutzt. Weiterhin werden orographisch bedingte Einflüsse, die Untergrundbeschaffenheit und die lokale Heterogenität der Unterlage untersucht. Hierzu werden meteorologische Größen, wie die Variabilität der Temperatur und insbesondere die jährliche Windverteilung in Bodennähe untersucht und es erfolgt ein Vergleich von in-situ gemessenen turbulenten Flüssen von den Eddy-Kovarianz-Messkomplexen bei Ny-Ålesund und im Bayelva-Tal unter demselben Aspekt. Es zeigt sich, dass der Eddy-Kovarianz-Messkomplex im Bayelva-Tal sehr stark durch eine orographisch bedingte Kanalisierung der Strömung beeinflusst ist und sich nicht für Vergleiche mit regionalen Klimamodellen mit horizontalen Auflösungen von <1km eignet. Die hohe Bodenfeuchte im Bayelva-Tal führt zudem zu einem deutlich kleineren Bowen-Verhältnis, als es für diese Region zu erwarten ist. Der Eddy-Kovarianz-Messkomplex bei Ny-Ålesund erweist sich hingegen als geeigneter für solche Modellvergleiche, aufgrund der typischen, küstennahen Windverteilung und des repräsentativen Footprints. Letzteres wird durch die Bestimmung der Footprint-Klimatologie des Jahres 2013 mit einem aktuellen Footprint-Modell erarbeitet.
Weiterhin wird die Auswirkung von (Anti-) Zyklonen über den Archipel auf die zeitliche Variabilität der lokalen Grenzschichteigenschaften untersucht und bewertet. Dazu wird ein Zyklonen-Detektions-Algorithmus auf ERA-Interim-Reanalysedatensätze angewendet, wodurch die Häufigkeit von nahezu ideal konzentrischen Hoch- und die Tiefdruckgebieten für drei Jahre bestimmt wird. Aus dieser Verteilung werden insgesamt drei interessante Zeiträume zu verschiedenen Jahreszeiten ausgewählt und im Rahmen von Prozessstudien die lokalen bodennahen meteorologischen Messungen, der turbulente Austausch an der Oberfläche und die Grenzschichtdynamik in der Säule untersucht. Die zeitliche Variabilität der dynamischen Grenzschichtstabilität in der Säule wird anhand von zeitlich hoch aufgelösten vertikalen Profilen der Bulk-Richardson-Zahl aus Kompositprofilen aus Fernerkundungsinstrumenten (Radiometer, Wind-LIDAR) sowie Mastdaten (BSRN-Mast) untersucht und die Grenzschichthöhe ermittelt. Aus diesen Analysen ergibt sich eine deutliche Abhängigkeit der thermischen Stabilität beim Durchzug von Fronten, eine damit einhergehende erhebliche Abhängigkeit der Grenzschichtdynamik und der Grenzschichthöhe sowie des turbulenten Austauschs von der zeitlichen Variabilität der Windgeschwindigkeit in der Säule.
Auf Grundlage der Standortanalysen und Prozessstudien erfolgt ein Vergleich der bodennahen Messungen und den Beobachtungen aus der Säule, sowohl von den genannten Fernerkundungsinstrumenten als auch von In-situ-Messungen (Radiosonden) für den Zeitraum einer Radiosondierungskampagne mit dem nicht-hydrostatischen, regionalen Klimamodel WRF (ARW). Auf Grundlage der Fragestellung, inwieweit aktuelle Schemata die Grenzschichtcharakteristika in orographisch stark gegliedertem Gelände in der Arktis reproduzieren können, werden zwei Grenzschichtparametrisierungsschemata mit verschiedenen Ordnungen der Schließung validiert. Hierzu wird die zeitliche Variabilität der Temperatur, der Feuchte und des Windfeldes in der Säule bis 2000m in den Simulationen mit den Beobachtungsdaten vergleichen. Es wird gezeigt, dass durch Modifikation der Initialwertfelder eine sehr gute Übereinstimmung zwischen den Simulationen und den Beobachtungen bereits bei einer horizontalen Auflösung von 1km erreicht werden kann und die Wahl des Grenzschichtschemas nur untergeordneten Einfluss hat. Hieraus werden Ansätze der Weiterentwicklung der Parametrisierungen, aber auch Empfehlungen bezüglich der Initialwertfelder, wie der Landmaske und der Orographie, vorgeschlagen.
The impact of collagen modifications by methylglyoxal on fibroblast function and the role in aging
(2016)
Ephraim Carlebach
(2016)
Diese Arbeit befasst sich mit der Herstellung und Charakterisierung von thermoresponsiven Filmen auf Goldelektroden durch Fixierung eines bereits synthetisierten thermoresponsiven Polymers. Als Basis für die Entwicklung der responsiven Grenzfläche dienten drei unterschiedliche Copolymere (Polymere I, II und III) aus der Gruppe der thermisch schaltbaren Poly(oligo(ethylenglykol)methacrylate).
Die turbidimetrischen Messungen der Copolymere in Lösungen haben gezeigt, dass der Trübungspunkt vom pH-Wert, der Gegenwart von Salzen sowie von der Ionenstärke der Lösung abhängig ist. Nach der Charakterisierung der Polymere in Lösung wurden Experimente der kovalenten Kopplung der Polymere I bis III an die Oberfläche der Gold-Elektroden durchgeführt. Während bei Polymeren I und II die Ankopplung auf einer Amidverbrückung basierte, wurde bei Polymer III als alternative Methode zur Immobilisierung eine photoinduzierte Anbindung unter gleichzeitiger Vernetzung gewählt. Der Nachweis der erfolgreichen Ankopplung erfolgte bei allen Polymeren elektrochemisch mittels Cyclovoltammetrie und Impedanzspektroskopie in K3/4[Fe(CN)6]-Lösungen. Wie die Ellipsometrie-Messungen zeigten, waren die erhaltenen Polymer-Filme unterschiedlich dick. Die Ankopplung über Amidverbrückung lieferte dünne Filme (10 – 15 nm), während der photovernetzte Film deutlich dicker war (70-80 nm) und die darunter liegende Oberfläche relativ gut isolierte.
Elektrochemische Temperaturexperimente an Polymer-modifizierten Oberflächen in Lösungen in Gegenwart von K3/4[Fe(CN)6] zeigten, dass auch die immobilisierten Polymere I bis III responsives Temperaturverhalten zeigen. Bei Elektroden mit den immobilisierten Polymeren I und II ist der Temperaturverlauf der Parameterwerte diskontinuierlich – ab einem kritischen Punkt (37 °C für Polymer I und 45 °C für Polymer II) wird zunächst langsame Zunahme der Peakströme wird deutlich schneller. Das Temperaturverhalten von Polymer III ist dagegen bis 50 °C kontinuierlich, der Peakstrom sinkt hier durchgehend.
Weiterhin wurde mit den auf Polymeren II und III basierten Elektroden deren Anwendung als responsive Matrix für Bioerkennungsreaktionen untersucht. Es wurde die Ankopplung von kleinen Biorezeptoren, TAG-Peptiden, an Polymer II- und Polymer III-modifizierten Elektroden durchgeführt. Das hydrophile FLAG-TAG-Peptid verändert das Temperaturverhalten des Polymer II-Films unwesentlich, da es die Hydrophilie des Netzwerkes nicht beeinflusst. Weiterhin wurde der Effekt der Ankopplung der ANTI-FLAG-TAG-Antikörper an FLAG-TAG-modifizierte Polymer II-Filme untersucht. Es konnte gezeigt werden, dass die Antikörper spezifisch an FLAG-TAG-modifiziertes Polymer II binden. Es wurde keine unspezifische Anbindung von ANTI-FLAG-TAG an Polymer II beobachtet. Die Temperaturexperimente haben gezeigt, dass die thermische Restrukturierung des Polymer II-FLAG-TAG-Filmes auch nach der Antikörper-Ankopplung noch stattfindet. Der Einfluss der ANTI-FLAG-TAG-Ankopplung ist gering, da der Unterschied in der Hydrophilie zwischen Polymer II und FLAG-TAG bzw. ANTI-FLAG-TAG zu gering ist.
Für die Untersuchungen mit Polymer III-Elektroden wurde neben dem hydrophilen FLAG-TAG-Peptid das deutlich hydrophobere HA-TAG-Peptid ausgewählt. Wie im Falle der Polymer II Elektrode beeinflusst das gekoppelte FLAG-TAG-Peptid das Temperaturverhalten des Polymer III-Netzwerkes nur geringfügig. Die gemessenen Stromwerte sind geringer als bei der Polymer III-Elektrode. Das Temperaturverhalten der FLAG-TAG-Elektrode ähnelt dem der reinen Polymer III-Elektrode – die Stromwerte sinken kontinuierlich bis die Temperatur von ca. 40 °C erreicht ist, bei der ein Plateau beobachtet wird. Offensichtlich verändert FLAG-TAG auch in diesem Fall nicht wesentlich die Hydrophilie des Polymer III-Netzwerkes. Das an Polymer III-Elektroden gekoppelte hydrophobe HA-TAG-Peptid beeinflusst dagegen im starken Maße den Quellzustand des Netzwerkes. Die Ströme für die HA-TAG-Elektroden sind deutlich geringer als die für die FLAG-TAG-Polymer III-Elektroden, was auf geringeren Wassergehalt und dickeren Film zurückzuführen ist. Bereits ab 30 °C erfolgt der Anstieg von Stromwerten, der bei Polymer III- bzw. bei Polymer III-FLAG-TAG-Elektroden nicht beobachtet werden kann. Das gekoppelte hydrophobe HA-TAG-Peptid verdrängt Wasser aus dem Polymer III-Netzwerk, was in der Stauchung des Films bereits bei Raumtemperatur resultiert. Dies führt dazu, dass der Film im Laufe des Temperaturanstieges kaum noch komprimiert. Die Stromwerte steigen in diesem Fall entsprechend des Anstiegs der temperaturabhängigen Diffusion des Redoxpaares. Diese Untersuchungen zeigen, dass das HA-TAG-Peptid als Ankermolekül deutlich besser für eine potentielle Verwendung der Polymer III-Filme für sensorische Zwecke geeignet ist, da es sich deutlich in der Hydrophilie von Polymer III unterscheidet.
Möglichkeiten der Mittelstandsförderung durch Vergaberechtsgestaltung und Vergaberechtspraxis
(2016)
Die Förderungswürdigkeit und die Förderungsfähigkeit mittelständischer Unternehmen ist ein gesamteuropäisches, wirtschaftspolitisches Anliegen. Hiervon zeugen zum einen zahlreiche Regelungen im Primär-, Sekundär-, Verfassungs- und einfachgesetzlichem Recht, zum anderen auch die Bedeutung der mittelständischen Unternehmen im wirtschaftlichen, gesellschaftlichen und sozialen Gefüge. So herrscht innerhalb der Europäischen Union nicht nur der Slogan „Vorfahrt für KMU“, sondern auch die im Frühjahr 2014 verabschiedeten Vergaberichtlinien legten ein besonderes Augenmerk auf die Förderung des Zugangs der KMU zum öffentlichen Beschaffungsmarkt. Denn gemessen am Steuerungs- und Lenkungspotenzial der Auftragsvergabe, deren Einfluss auf die Innovationstätigkeit der Wirtschaft sowie deren Auswirkungen auf die Wirtschafts- und Wettbewerbstätigkeit auf der einen Seite und dem gesamtwirtschaftlichen Stellenwert der mittelständischen Unternehmen auf der anderen Seite, sind mittelständische Unternehmen trotz zahlreicher europäischer und nationaler Initiativen im Vergabeverfahren unterrepräsentiert. Neben der undurchsichtigen Regelungsstruktur des deutschen Vergaberechts, unterliegen die mittelständischen Unternehmen vom Beginn bis zum Ende des Vergabeverfahrens besonderen Schwierigkeiten. Dieser Ausgangsbefund wurde zum Anlass genommen, um die Möglichkeiten der Mittelstandsförderung durch Vergaberechtsgestaltung und Vergaberechtspraxis erneut auf den Prüfstand zu stellen.
Das Widerspenstige bändigen
(2016)
Dem Handeln von Lehrkräften wird in der schulischen Praxis wie in der wissenschaftlichen Literatur ein wesentlicher Einfluss auf die Qualität von schulischem Unterricht zugesprochen. Auch wenn umfangreiche normative Vorstellungen über ein gutes Lehr-Handeln bestehen, so gibt es wenig Erkenntnis darüber, welche Gründe Lehrkräfte für ihr pädagogisches Handeln haben. Das Handeln von Lehrkräften kann nur dann adäquat erfasst werden, wenn Bildung einerseits als Weitergabe von Kultur an die nachfolgende Generation und andererseits als eine vom sich bildenden Subjekt ausgehende Selbst- und Weltverständigung verstanden wird. Damit einhergehende Anforderungen an die Lehrkraft stehen notwendigerweise in Widerspruch zueinander; dies gilt besonders für eine Gesellschaft mit großer kultureller und sozialer Heterogenität. Bei der Suche nach Zusammenhängen zwischen Persönlichkeit, pädagogischem Wissen oder Kompetenzen und einem unterrichtlichen Handeln wird häufig von einer Bedingtheit dieses Handelns ausgegangen und dieses auf kognitive Aspekte und an externen Normen orientierte Merkmale verkürzt. Ertragreicher für eine Antwort auf die Frage nach den Begründungen sind wissenschaftliche Arbeiten, die Professionalität als eine Bezugnahme auf einen besonderen strukturellen Rahmen beschreiben, der durch Widersprüche geprägt ist und Entscheidungen zu den Spannungsfeldern pädagogischer Verhältnisse erfordert. Die subjektwissenschaftliche Lerntheorie bietet eine Basis für ein Verständnis eines Lernens in institutionellen Kontexten ausgehend von den Lerninteressen der Schülerinnen und Schüler. Lehren kann darauf bezugnehmend als Unterstützung von Selbst- und Weltverständigungsprozessen durch Wertschätzung, Verstehen und Angebote alternativer Bedeutungshorizonte verstanden werden. Das Handeln von Lehrkräften ist als sinngebende Bezugnahme auf daraus resultierende sowie institutionelle Anforderungen mittels gesellschaftlicher Bedeutungsstrukturen verstehbar. Das handelnde Subjekt erschließt sich selbst und die Welt mit Hilfe von Bedeutungen. Diese können verstanden werden als der Besonderheit der Biographie, der gesellschaftlichen Position sowie der Lebenslage geschuldete Reinterpretationen gesellschaftlicher Bedeutungsstrukturen. Im empirischen Verfahren können mittels eines Übergangs von sequentiellen zu komparativen Analysen Positionierungen als thematisch spezifische und über die konkrete Handlungssituation hinausreichende Bedeutungs-Begründungs-Zusammenhänge rekonstruiert werden. Daraus werden situationsunabhängige Strukturmomente des Gegenstands Lehren an beruflichen Schulen aber auch komplexe, situationsbezogene subjektive Bedeutungs-Begründungs-Muster abgeleitet. Als wesentliche strukturelle Merkmale lassen sich die Schlüsselkategorien ‚Deutungsmacht‘ und ‚instrumentelle pädagogische Beziehung‘ aus dem empirischen Material unter Zuhilfenahme weiterer theoretischer Folien entwickeln. Da Deutungsmacht auf Akzeptanz angewiesen ist und in instrumentellen Beziehungen eine kooperative Bezugnahme auf den Lehr-Lern-Gegenstand allenfalls punktuell erfolgt, können damit asymmetrische metastabile Arrangements zwischen einer Lehrkraft und Schülerinnen und Schülern verstanden werden. Als empirische Ausprägungen weist Deutungsmacht die Varianten ‚absoluter Anspruch‘, ‚Akzeptanz der Fragilität‘ und ‚Akzeptanz der Legitimität eines Infragestellens‘ auf. Bei der zweiten Schlüsselkategorie treten die Varianten ‚strukturelle Prägung‘, ‚unspezifischer allgemein-menschlicher Charakter‘ und ‚Außenprägung‘ der instrumentellen pädagogischen Beziehung auf. Die Bedeutungs-Begründungs-Musters weisen teilweise Inkonsistenzen und Übergänge in den Positionierungen bezogen auf die dargestellten Varianten auf. Nur bei einem Teil der Muster sind Bemühungen um Wertschätzung und Verstehen der Schülerinnen und Schüler plausibel ableitbar, gleiches gilt in Hinblick auf eine Offenheit für eine Revision der Muster. Die Muster, wie etwa ‚Durchsetzend-ertragendes Nachsteuern‘, ‚Direktiv-personalisierendes Praktizieren‘ oder ‚Regulierend-flexibles Managen‘ sind zu verstehen als Bewältigungsmodi der kontingenten pädagogischen (Konflikt-)Situationen, auf die sich die Fallschilderungen beziehen. Die jeweilige Lehrkraft hat dieses Muster in dem beschriebenen Fall genutzt, was allerdings keine Aussage darüber zulässt, auf welche Muster die Lehrkraft in anderen Fällen zugreifen würde. Die Ergebnisse der vorliegenden Arbeit eignen sich als eine heuristische bzw. theoretische Folie, die Lehrkräfte beim Erschließen ihres eigenen pädagogischen Handelns - etwa in einer als Fallberatung konzipierten Fortbildung - unterstützen kann. Möglich sind Anschlüsse an andere theoretische Ansätze zum Handeln von Lehrkräften aber auch deren veränderte Einordnung. Erweitert werden die Optionen, dieses Handeln über wissenschaftliche Zugänge zu erfassen.
Durch die Zunahme metabolischer Stoffwechselstörungen und Erkrankungen in der Weltbevölkerung wird in der Medizin und den Lebenswissenschaften vermehrt nach Präventionsstrategien und Ansatzpunkten gesucht, die die Gesundheit fördern, Erkrankungen verhindern helfen und damit auch die Gesamtlast auf die Gesundheitssysteme erleichtern. Ein Ansatzpunkt wird dabei in der Ernährung gesehen, da insbesondere der Konsum von gesättigten Fetten die Gesundheit nachträglich zu beeinflussen scheint. Dabei wird übersehen, dass in vielen Studien Hochfettdiäten nicht ausreichend von den Einflüssen einer zum Bedarf hyperkalorischen Energiezufuhr getrennt werden, sodass die Datenlage zu dem Einfluss von (gesättigten) Fetten auf den Metabolismus bei gleichbleibender Energieaufnahme noch immer unzureichend ist.
In der NUtriGenomic Analysis in Twins-Studie wurden 46 Zwillingspaare (34 monozygot, 12 dizygot) über einen Zeitraum von sechs Wochen mittels einer kohlenhydratreichen, fettarmen Diät nach Richtlinien der Deutschen Gesellschaft für Ernährung für ihr Ernährungsverhalten standardisiert, ehe sie zu einer kohlenhydratarmen, fettreichen Diät, die insbesondere gesättigte Fette enthielt, für weitere sechs Wochen wechselten. Beide Diäten waren dem individuellen Energiebedarf der Probanden angepasst, um so sowohl akut nach einerWoche als auch längerfristig nach sechs Wochen Änderungen des Metabolismus beobachten zu können, die sich in der vermehrten Aufnahme von (gesättigten) Fetten begründeten.
Die über die detaillierte Charakterisierung der Probanden an den klinischen Untersuchungstagen generierten Datensätze wurden mit statistischen und mathematischen Methoden (z.B. lineare gemischte Modellierung) analysiert, die der Größe der Datensätze und damit ihrem Informationsvolumen angepasst waren.
Es konnte gezeigt werden, dass die metabolisch gesunden und relativ jungen Probanden, die eine gute Compliance zeigten, im Hinblick auf ihren Glukosestoffwechsel adaptieren konnten, indem die Akutantwort nach einer Woche im Nüchterninsulin und dem Index für Insulinresistenz in den weiteren fünf Wochen ausgeglichen wurde.
Der Lipidstoffwechsel in Form der klassischen Marker wie Gesamtcholesterin, LDL und HDL war dagegen stärker beeinflusst und auch nach insgesamt sechs Wochen deutlich erhöht.
Letzteres unterstützt die Beobachtung im Transkriptom des weißen, subkutanen Fettgewebes, bei der eine Aktivierung der über die Toll-like receptors und das Inflammasom vermittelten subklinischen Inflammation beobachtet werden konnte.
Die auftretenden Veränderungen in Konzentration und Komposition des Plasmalipidoms zeigte ebenfalls nur eine teilweise und auf bestimmte Spezies begrenzte Gegenregulation.
Diesbezüglich kann also geschlussfolgert werden, dass auch die isokalorische Aufnahme von (gesättigten) Fetten zu Veränderungen im Metabolismus führt, wobei die Auswirkungen in weiteren (Langzeit-)Studien und Experimenten noch genauer untersucht werden müssen. Insbesondere wäre dabei ein längerer Zeitraum unter isokalorischen Bedingungen von Interesse und die Untersuchung von Probanden mit metabolischer Vorbelastung (z.B. Insulinresistenz).
Darüber hinaus konnte in NUGAT aber ebenfalls gezeigt werden, dass die Nutrigenetik und Nutrigenomik zwei nicht zu vernachlässigende Faktoren darstellen. So zeigten unter anderem die Konzentrationen einiger Lipidspezies eine starke Erblichkeit und Abhängigkeit der Diät.
Zudem legen die Ergebnisse nahe, dass laufende wie geplante Präventionsstrategien und medizinische Behandlungen deutlich stärker den Patienten als Individuum mit einbeziehen müssen, da die Datenanalyse interindividuelle Unterschiede identifizierte und Hinweise lieferte, dass einige Probanden die nachteiligen, metabolischen Auswirkungen einer Hochfettdiät besser ausgleichen konnten als andere.
Molekulare Charakterisierung des Centrosom-assoziierten Proteins CP91 in Dictyostelium discoideum
(2016)
Das Dictyostelium-Centrosom ist ein Modell für acentrioläre Centrosomen. Es besteht aus einer dreischichtigen Kernstruktur und ist von einer Corona umgeben, welche Nukleationskomplexe für Mikrotubuli beinhaltet. Die Verdoppelung der Kernstruktur wird einmal pro Zellzyklus am Übergang der G2 zur M-Phase gestartet. Durch eine Proteomanalyse isolierter Centrosomen konnte CP91 identifiziert werden, ein 91 kDa großes Coiled-Coil Protein, das in der centrosomalen Kernstruktur lokalisiert. GFP-CP91 zeigte fast keine Mobilität in FRAP-Experimenten während der Interphase, was darauf hindeutet, dass es sich bei CP91 um eine Strukturkomponente des Centrosoms handelt. In der Mitose hingegen dissoziieren das GFP-CP91 als auch das endogene CP91 ab und fehlen an den Spindelpolen von der späten Prophase bis zur Anaphase. Dieses Verhalten korreliert mit dem Verschwinden der zentralen Schicht der Kernstruktur zu Beginn der Centrosomenverdopplung. Somit ist CP91 mit großer Wahrscheinlichkeit ein Bestandteil dieser Schicht. CP91-Fragmente der N-terminalen bzw. C-terminalen Domäne (GFP-CP91 N-Terminus, GFP-CP91 C-Terminus) lokalisieren als GFP-Fusionsproteine exprimiert auch am Centrosom, zeigen aber nicht die gleiche mitotische Verteilung des Volllängenproteins. Das CP91-Fragment der zentralen Coiled-Coil Domäne (GFP-CP91cc) lokalisiert als GFP-Fusionsprotein exprimiert, als ein diffuser cytosolische Cluster, in der Nähe des Centrosoms. Es zeigt eine partiell ähnliche mitotische Verteilung wie das Volllängenprotein. Dies lässt eine regulatorische Domäne innerhalb der Coiled-Coil Domäne vermuten. Die Expression der GFP-Fusionsproteine unterdrückt die Expression des endogenen CP91 und bringt überzählige Centrosomen hervor. Dies war auch eine markante Eigenschaft nach der Unterexpression von CP91 durch RNAi. Zusätzlich zeigte sich in CP91-RNAi Zellen eine stark erhöhte Ploidie verursacht durch schwere Defekte in der Chromosomensegregation verbunden mit einer erhöhten Zellgröße und Defekten im Abschnürungsprozess während der Cytokinese. Die Unterexpression von CP91 durch RNAi hatte auch einen direkten Einfluss auf die Menge an den centrosomalen Proteinen CP39, CP55 und CEP192 und dem Centromerprotein Cenp68 in der Interphase. Die Ergebnisse deuten darauf hin, dass CP91 eine zentrale centrosomale Kernkomponente ist und für den Zusammenhalt der beiden äußeren Schichten der Kernstruktur benötigt wird. Zudem spielt CP91 eine wichtige Rolle für eine ordnungsgemäße Centrosomenbiogenese und, unabhängig davon, bei dem Abschnürungsprozess der Tochterzellen während der Cytokinese.
Die vorgelegte Dissertation präsentiert wissenschaftliche Ergebnisse, die in der Zeit vom Dezember 2012 bis August 2016, erarbeitet wurden. Der zentrale Inhalt der Arbeit ist die Simulation von Röntgenabsorptionsprozessen von verschiedenen Systemen in kondensierter Phase. Genauer gesagt, werden Nahkantenabsorptions- (NEXAFS) sowie Röntgenphotoelektronenspektren (XPS) berechnet. In beiden Fällen wird ein Röntgenphoton von einem molekularen System absorbiert. Aufgrund der hohen Photonenenergie wird ein stark gebundenes kernnahes Elektron angeregt. Bei der XPS gelangt dieses mit einer zu messenden kinetischen Energie in Kontinuumszustände. In Abhängigkeit der eingestrahlten Photonenenergie und der kinetischen Energie des austreten Elektrons, kann die Bindungsenergie berechnet werden, welche die zentrale Größe der XPS ist. Im Falle der NEXAFS-Spektroskopie wird das kernnahe Elektron in unbesetzte gebundene Zustände angeregt. Die zentrale Größe ist die Absorption als Funktion der eingestrahlten Photonenenergie. Das erste Kapitel meiner Arbeit erörtert detailliert die experimentellen Methoden sowie die daraus gewonnenen charakteristischen Größen.
Die experimentellen Spektren zeigen oft viele Resonanzen, deren Interpretation aufgrund fehlender Referenzmaterialien schwierig ist. In solchen Fällen bietet es sich an, die Spektren mittels quantenchemischer Methoden zu simulieren. Der dafür erforderliche mathematisch-physikalische Methodenkatalog wird im zweiten Kapitel der Arbeit erörtert.
Das erste von mir untersuchte System ist Graphen. In experimentellen Arbeiten wurde die Oberfläche mittels Bromplasma modifiziert. Die im Anschluss gemessenen NEXAFS-Spektren unterscheiden sich maßgeblich von den Spektren der unbehandelten Oberfläche. Mithilfe periodischer DFT-Rechnungen wurden verschiedene Gitterdefekte sowie bromierte Systeme untersucht und die NEXAFS-Spektren simuliert. Mittels der Simulationen können die Beiträge verschiedener Anregungszentren analysiert werden. Die Berechnungen erlauben den Schluss, dass Gitterdefekte maßgeblich für die entstandenen Veränderungen verantwortlich sind.
Polyvinylalkohol (PVA) wurde als zweites System behandelt. Hierbei sollte untersucht werden, wie groß der Einfluss der Molekularbewegung auf die Verbreiterung der Peaks im XP-Spektrum ist. Des Weiteren wurde untersucht, wie groß der Einfluss von intermolekularen Wechselwirkungen auf die Peakpositionen und Peakverbreiterung ist. Für die Berechnung dieses Systems wurde eine Kombination aus molekulardynamischen und quantenchemischen Methoden verwendet. Als Strukturen dienten Oligomermodelle, die unter dem Einfluss eines (ab initio) Potentials propagiert wurden. Entlang der erstellten Trajektorie wurden Schnappschüsse der Geometrien extrahiert und für die Berechnung der XP-Spektren verwendet. Die Spektren werden bereits mithilfe klassischer Molekulardynamik sehr gut reproduziert. Die erhaltenen Peakbreiten sind verglichen mit dem Experiment allerdings zu klein. Die Hauptursache der Peakverbreiterung ist die Molekularbewegung. Intermolekulare Wechselwirkungen verschieben die Peakpositionen um 0.6 eV zu kleineren Anregungsenergien.
Im dritten Teil der Arbeit stehen die NEXAFS-Spektren von ionischen Flüssigkeiten (ILs) im Fokus. Die experimentell gefundenen Spektren zeigen eine komplexe Struktur mit vielen Resonanzen. In der Arbeit wurden zwei ILs untersucht. Als Geometrien verwenden wir Clustermodelle, die aus experimentellen Kristallstrukturen extrahiert wurden. Die berechneten Spektren erlauben es, die Resonanzen den Anregungszentren zuzuordnen. Außerdem kann eine erstmals gemessene Doppelresonanz simuliert und erklärt werden. Insgesamt kann die Interpretation der Spektren mithilfe der Simulation signifikant erweitert werden.
In allen Systemen wurde zur Berechnung des NEXAFS-Spektrums eine auf Dichtefunktionaltheorie basierende Methode verwendet (die sogenannte Transition-Potential Methode). Gängige wellenfunktionsbasierte Methoden, wie die Konfigurationswechselwirkung mit Einfachanregungen (CIS), zeigen eine starke Blauverschiebung, wenn als Referenz eine Hartree-Fock Slaterdeterminante verwendet wird. Wir zeigen, dass die Verwendung von kernnah-angeregten Determinanten sowohl das resultierende Spektrum als auch die Anregungsenergien deutlich verbessert. Des Weiteren werden auch Referenzen aus Dichtefunktionalrechnungen getestet. Zusätzlich werden auch Referenzen mit gebrochenen Besetzungszahlen für kernnahe Elektronen verwendet. In der Arbeit werden die Resultate der verschiedenen Referenzen miteinander verglichen. Es zeigt sich, dass Referenzen mit gebrochenen Besetzungszahlen das Spektrum nicht weiter verbessern. Der Einfluss der verwendeten Elektronenstrukturmethode ist eher gering.
Physikalische Hydrogele gewinnen derzeit als Zellsubstrate zunehmend an Interesse, da Viskoelastizität oder Stressrelaxation ein bedeutender Parameter in der Mechanotransduktion ist, der bisher vernachlässigt wurde. In dieser Arbeit wurden multi-funktionelle Polyurethane entworfen, die über einen neuartigen Gelierungsmechanismus physikalische Hydrogele bilden. In Wasser bilden die anionischen Polyurethane spontan Aggregate, welche durch elektrostatische Abstoßung in Lösung gehalten werden. Eine schnelle Gelierung kann von hier aus durch Ladungsabschirmung erreicht werden, wodurch die Aggregation voranschreitet und ein Netzwerk ausgebildet wird. Dies kann durch die Zugabe von verschiedenen Säuren oder Salzen geschehen, sodass sowohl saure (pH 4 - 5) als auch pH-neutrale Hydrogele erhalten werden können. Während konventionelle Hydrogele auf Polyurethan-Basis in der Regel durch toxische isocyanat-haltige Präpolymere hergestellt werden, eignet sich der hier beschriebene physikalische Gelierungsmechanismus für in situ Anwendungen in sensitiven Umgebungen. Sowohl Härte als auch Stressrelaxation der Hydrogele können unabhängig voneinander über einen breiten Bereich eingestellt werden. Darüberhinaus zeichnen sich die Hydrogele durch exzellente Stressregeneration aus.
Seit der Einführung von Antibiotika in die medizinische Behandlung von bakteriellen Infektionskrankheiten existiert ein Wettlauf zwischen der Evolution von Bakterienresistenzen und der Entwicklung wirksamer Antibiotika. Während bis in die 80er Jahre verstärkt an neuen Antibiotika geforscht wurde, gewinnen multiresistente Keime heute zunehmend die Oberhand. Um einzelne Pathogene erfolgreich nachzuweisen und zu bekämpfen, ist ein grundlegendes Wissen über den Erreger unumgänglich. Bakterielle Proteine, die bei einer Infektion vorrangig vom Immunsystem prozessiert und präsentiert werden, könnten für die Entwicklung von Impfstoffen oder gezielten Therapeutika nützlich sein. Auch für die Diagnostik wären diese immundominanten Proteine interessant. Allerdings herrscht ein Mangel an Wissen über spezifische Antigene vieler pathogener Bakterien, die eine eindeutige Diagnostik eines einzelnen Erregers erlauben würden.
Daher wurden in dieser Arbeit vier verschiedene Humanpathogene mittels Phage Display untersucht: Neisseria gonorrhoeae, Neisseria meningitidis, Borrelia burgdorferi und Clostridium difficile. Hierfür wurden aus der genomischen DNA der vier Erreger Bibliotheken konstruiert und durch wiederholte Selektion und Amplifikation, dem sogenannten Panning, immunogene Proteine isoliert. Für alle Erreger bis auf C. difficile wurden immunogene Proteine aus den jeweiligen Bibliotheken isoliert. Die identifizierten Proteine von N. meningitidis und B. burgdorferi waren größtenteils bekannt, konnten aber in dieser Arbeit durch Phage Display verifiziert werden. Für N. gonorrhoeae wurden 21 potentiell immunogene Oligopeptide isoliert, von denen sechs Proteine als neue zuvor unbeschriebene Proteine mit immunogenem Charakter identifiziert wurden. Von den Phagen-präsentierten Oligopeptide der 21 immunogenen Proteine wurden Epitopmappings mit verschiedenen polyklonalen Antikörpern durchgeführt, um immunogene Bereiche näher zu identifizieren und zu charakterisieren. Bei zehn Proteinen wurden lineare Epitope eindeutig mit drei polyklonalen Antikörpern identifiziert, von fünf weiteren Proteinen waren Epitope mit mindestens einem Antikörper detektierbar. Für eine weitere Charakterisierung der ermittelten Epitope wurden Alaninscans durchgeführt, die eine detaillierte Auskunft über kritische Aminosäuren für die Bindung des Antikörpers an das Epitop geben.
Ausgehend von dem neu identifizierten Protein mit immunogenem Charakter NGO1634 wurden 26 weitere Proteine aufgrund ihrer funktionellen Ähnlichkeit ausgewählt und mithilfe bioinformatischer Analysen auf ihre Eignung zur Entwicklung einer diagnostischen Anwendung analysiert. Durch Ausschluss der meisten Proteine aufgrund ihrer Lokalisation, Membrantopologie oder unspezifischen Proteinsequenz wurden scFv-Antikörper gegen acht Proteine mittels Phage Display generiert und anschließend als scFv-Fc-Fusionsantikörper produziert und charakterisiert.
Die hier identifizierten Proteine und linearen Epitope könnten einen Ansatzpunkt für die Entwicklung einer diagnostischen oder therapeutischen Anwendung bieten. Lineare Epitopsequenzen werden häufig für die Impfstoffentwicklung eingesetzt, sodass vor allem die in dieser Arbeit bestimmten Epitope von Membranproteinen interessante Kandidaten für weitere Untersuchungen in diese Richtung sind. Durch weitere Untersuchungen könnten möglicherweise unbekannte Virulenzfaktoren entdeckt werden, deren Inhibierung einen entscheidenden Einfluss auf Infektionen haben könnten.
Diese Arbeit zu Grunde liegenden Forschung zielte darauf ab, neue schmelzbare Acrylnitril-Copolymere zu entwickeln. Diese sollten im Anschluss über ein Schmelzspinnverfahren zur Chemiefaser geformt und im letzten Schritt zur Carbonfaser konvertiert werden. Zu diesem Zweck wurden zunächst orientierende Untersuchungen an unterschiedlichen Copolymeren des Acrylnitril aus Lösungspolymerisation durchgeführt. Die Untersuchungen zeigten, dass elektrostatische Wechselwirkungen besser als sterische Abschirmung dazu geeignet sind, Schmelzbarkeit unterhalb der Zersetzungstemperatur von Polyacrylnitril zu bewirken. Aus der Vielzahl untersuchter Copolymere stellten sich jene mit Methoxyethylacrylat (MEA) als am effektivsten heraus. Für diese Copolymere wurden sowohl die Copolymerisationsparameter bestimmt als auch die grundlegende Kinetik der Lösungspolymerisation untersucht. Die Copolymere mit MEA wurden über Schmelzspinnen zur Faser umgeformt und diese dann untersucht. Hierbei wurden auch Einflüsse verschiedener Parameter, wie z.B. die der Molmasse, auf die Fasereigenschaften und -herstellung untersucht. Zuletzt wurde ein Heterophasenpolymerisationsverfahren zur Herstellung von Copolymeren aus AN/MEA entwickelt; dadurch konnten die Materialeigenschaften weiter verbessert werden. Zur Unterdrückung der thermoplastischen Eigenschaften der Fasern wurde ein geeignetes Verfahren entwickelt und anschließend die Konversion zu Carbonfasern durchgeführt.
Die Projektierung und Abwicklung sowie die statische und dynamische Analyse von Geschäftsprozessen im Bereich des Verwaltens und Regierens auf kommunaler, Länder- wie auch Bundesebene mit Hilfe von Informations- und Kommunikationstechniken beschäftigen Politiker und Strategen für Informationstechnologie ebenso wie die Öffentlichkeit seit Langem. Der hieraus entstandene Begriff E-Government wurde in der Folge aus den unterschiedlichsten technischen, politischen und semantischen Blickrichtungen beleuchtet.
Die vorliegende Arbeit konzentriert sich dabei auf zwei Schwerpunktthemen:
> Das erste Schwerpunktthema behandelt den Entwurf eines hierarchischen Architekturmodells, für welches sieben hierarchische Schichten identifiziert werden können. Diese erscheinen notwendig, aber auch hinreichend, um den allgemeinen Fall zu beschreiben. Den Hintergrund hierfür liefert die langjährige Prozess- und Verwaltungserfahrung als Leiter der EDV-Abteilung der Stadtverwaltung Landshut, eine kreisfreie Stadt mit rund 69.000 Einwohnern im Nordosten von München. Sie steht als Repräsentant für viele Verwaltungsvorgänge in der Bundesrepublik Deutschland und ist dennoch als Analyseobjekt in der Gesamtkomplexität und Prozessquantität überschaubar. Somit können aus der Analyse sämtlicher Kernabläufe statische und dynamische Strukturen extrahiert und abstrakt modelliert werden. Die Schwerpunkte liegen in der Darstellung der vorhandenen Bedienabläufe in einer Kommune. Die Transformation der Bedienanforderung in einem hierarchischen System, die Darstellung der Kontroll- und der Operationszustände in allen Schichten wie auch die Strategie der Fehlererkennung und Fehlerbehebung schaffen eine transparente Basis für umfassende Restrukturierungen und Optimierungen. Für die Modellierung wurde FMC-eCS eingesetzt, eine am Hasso-Plattner-Institut für Softwaresystemtechnik GmbH (HPI) im Fachgebiet Kommunikationssysteme entwickelte Methodik zur Modellierung zustandsdiskreter Systeme unter Berücksichtigung möglicher Inkonsistenzen
>Das zweite Schwerpunktthema widmet sich der quantitativen Modellierung und Optimierung von E-Government-Bediensystemen, welche am Beispiel des Bürgerbüros der Stadt Landshut im Zeitraum 2008 bis 2015 durchgeführt wurden. Dies erfolgt auf Basis einer kontinuierlichen Betriebsdatenerfassung mit aufwendiger Vorverarbeitung zur Extrahierung mathematisch beschreibbarer Wahrscheinlichkeitsverteilungen. Der hieraus entwickelte Dienstplan wurde hinsichtlich der erzielbaren Optimierungen im dauerhaften Echteinsatz verifiziert.
Die Empirie des beginnenden 21. Jahrhunderts weist mehr autoritäre Regime aus als am Ende des 20. Jahrhunderts angenommen. Die gegenwärtige Autoritarismusforschung versucht die Fortdauer dieses Regimetyps in Hinblick auf die politischen Institutionen zu erklären – dabei bleiben politische Akteure, die nicht zum Herrschaftszentrum gehören, außen vor.
Das vorliegende Projekt untersucht die Rolle und Funktion politischer Opposition in autoritären Regimen. Es wird davon ausgegangen, dass sich an der Opposition eine signifikante Charakteristik autoritärer Regime manifestiert. Das akteurszentrierte Projekt ist der qualitativ orientierten Politikwissenschaft zuzurechnen und verknüpft das Autoritarismuskonzept von Juan Linz mit klassischen Ansätzen der Oppositionsforschung und macht diese Theorien für die gegenwärtige Autoritarismusforschung nutzbar.
Die eigens entwickelte elitenorientierte Oppositionstypologie wird am Beispiel Kenias im Zeitraum 1990-2005 angewendet. Die Oppositionsgruppen werden im Institutionengefüge autoritärer Regime verortet und ihr politisches Agieren in den Dimensionen Handlungsstatus, Handlungsüberzeugung und Handlungsstrategie analysiert. Unter Beachtung der historisch gewachsenen regionalen und kulturellen Spezifika wird angenommen, dass generelle, Regionen übergreifende Aussagen zur Opposition in autoritären Regimen getroffen werden können: Kein Oppositionstyp kann allein einen Herrschaftswechsel bewirken. Der Wechsel bzw. die Fortdauer der Herrschaft hängt von der Dominanz bestimmter Oppositionstypen im Oppositionsgeflecht sowie der gleichzeitigen Schwäche anderer Oppositionstypen ab.
Durch die konzeptionelle Beschäftigung mit Opposition sowie deren empirische Erschließung soll ein substantieller Beitrag für die notwendige Debatte um autoritäre Regime im 21. Jahrhundert geleistet werden.
Der Klimawandel
(2016)
Was ist Gerechtigkeit? Wie könnten gerechte Regelungen aussehen für die Katastrophen und Leiden, die der Klimawandel auslöst bzw. auslösen wird? Diese sind häufig ungerecht, weil sie oft deutlich stärker diejenigen treffen, die am wenigsten zur Klimaveränderung beigetragen haben.
Doch was genau verstehen wir unter dem Schlagwort: ‚Klimawandel‘? Und kann dieser wirklich den Menschen direkt treffen? Ein kurzer naturwissenschaftlicher Abriss klärt hier die wichtigsten Fragen.
Da es sich hierbei um eine philosophische Arbeit handelt, muss zunächst geklärt werden, ob der Mensch überhaupt die Ursache von so etwas sein kann wie z.B. der Klimaerwärmung. Robert Spaemanns These dazu ist, dass der Mensch durch seinen freien Willen mit seinen Einzelhandlungen das Weltgeschehen verändern kann. Hans Jonas fügt dem hinzu, dass wir durch diese Fähigkeit, verantwortlich sind für die gewollten und ungewollten Folgen unserer Handlungen.
Damit wäre aus naturwissenschaftlicher Sicht (1. Teil der Arbeit) und aus philosophischer Sicht (Anfang 2. Teil) geklärt, dass der Mensch mit größter Wahrscheinlichkeit die Ursache des Klimawandels ist und diese Verursachung moralische Konsequenzen für ihn hat.
Ein philosophischer Gerechtigkeitsbegriff wird aus der Kantischen Rechts- und Moralphilosophie entwickelt, weil diese die einzige ist, die dem Menschen überhaupt ein Recht auf Rechte zusprechen kann. Diese entspringt der transzendentalen Freiheitsfähigkeit des Menschen, weshalb jedem das Recht auf Rechte absolut und immer zukommt. Gleichzeitig mündet Kants Philosophie wiederum in dem Freiheitsgedanken, indem Gerechtigkeit nur existiert, wenn alle Menschen gleichermaßen frei sein können.
Was heißt das konkret? Wie könnte Gerechtigkeit in der Realität wirklich umgesetzt werden? Die Realisierung schlägt zwei Grundrichtungen ein. John Rawls und Stefan Gosepath beschäftigen sich u.a. eingehend mit der prozeduralen Gerechtigkeit, was bedeutet, dass gerechte Verfahren gefunden werden, die das gesellschaftliche Zusammenleben regeln. Das leitende Prinzip hierfür ist vor allem: ein Mitbestimmungsrecht aller, so dass sich im Prinzip alle Bürger ihre Gesetze selbst geben und damit frei handeln.
In Bezug auf den Klimawandel steht die zweite Ausrichtung im Vordergrund – die distributive oder auch Verteilungs-Gerechtigkeit. Materielle Güter müssen so aufgeteilt werden, dass auch trotz empirischer Unterschiede alle Menschen als moralische Subjekte anerkannt werden und frei sein können.
Doch sind diese philosophischen Schlussfolgerungen nicht viel zu abstrakt, um auf ein ebenso schwer fassbares und globales Problem wie den Klimawandel angewendet zu werden? Was könnte daher eine Klimagerechtigkeit sein?
Es gibt viele Gerechtigkeitsprinzipien, die vorgeben, eine gerechte Grundlage für die Klimaprobleme zu bieten wie z.B. das Verursacherprinzip, das Fähigkeitsprinzip oder das Grandfathering-Prinzip, bei dem die Hauptverursacher nach wie vor am meisten emittieren dürfen (dieses Prinzip leitete die bisherigen internationalen Verhandlungen).
Das Ziel dieser Arbeit ist, herauszufinden, wie die Klimaprobleme gelöst werden können, so dass für alle Menschen unter allen Umständen die universellen Menschenrechte her- und sichergestellt werden und diese frei und moralisch handeln können.
Die Schlussfolgerung dieser Arbeit ist, dass Kants Gerechtigkeitsbegriff durch eine Kombination des Subsistenzemissions-Rechts, des Greenhouse-Development-Rights-Principles (GDR-Prinzip) und einer internationalen Staatlichkeit durchgesetzt werden könnte.
Durch das Subsistenzemissions-Recht hat jeder Mensch das Recht, so viel Energie zu verbrauchen und damit zusammenhängende Emissionen zu produzieren, dass er ein menschenwürdiges Leben führen kann. Das GDR-Prinzip errechnet den Anteil an der weltweiten Gesamtverantwortung zum Klimaschutz eines jeden Landes oder sogar eines jeden Weltbürgers, indem es die historischen Emissionen (Klimaschuld) zu der jetzigen finanziellen Kapazität des Landes/ des Individuums (Verantwortungsfähigkeit) hinzuaddiert. Die Implementierung von internationalen Gremien wird verteidigt, weil es ein globales, grenzüberschreitendes Problem ist, dessen Effekte und dessen Verantwortung globale Ausmaße haben.
Ein schlagendes Argument für fast alle Klimaschutzmaßnahmen ist, dass sie Synergien aufweisen zu anderen gesellschaftlichen Bereichen aufweisen wie z.B. Gesundheit und Armutsbekämpfung, in denen auch noch um die Durchsetzung unserer Menschenrechte gerungen wird.
Ist dieser Lösungsansatz nicht völlig utopisch?
Dieser Vorschlag stellt für die internationale Gemeinschaft eine große Herausforderung dar, wäre jedoch die einzig gerechte Lösung unserer Klimaprobleme. Des Weiteren wird an dem Kantischen Handlungsgrundsatz festgehalten, dass das ewige Streben auf ideale Ziele hin, die beste Verwirklichung dieser durch menschliche, fehlbare Wesen ist.
Protektiver Effekt von 6-Shogaol, Ellagsäure und Myrrhe auf die intestinale epitheliale Barriere
(2016)
Viele bioaktive Pflanzeninhaltsstoffe bzw. Pflanzenmetabolite besitzen antiinflammatorische Eigenschaften. Diese versprechen ein hohes Potential für den Einsatz in der Phytotherapie bzw. Prävention von chronisch-entzündlichen Darmerkrankungen (CED). Eine intestinale Barrieredysfunktion ist ein typisches Charakteristikum von CED Patienten, die dadurch an akuter Diarrhoe leiden.
In dieser Arbeit werden die Pflanzenkomponenten 6-Shogaol, Ellagsäure und Myrrhe an den intestinalen Kolonepithelzellmodellen HT-29/B6 und Caco-2 auf ihr Potential hin, die intestinale Barriere zu stärken bzw. eine Barrieredysfunktion zu verhindern, untersucht. Hauptschwerpunkt der Analysen ist die parazelluläre Barrierefunktion und die Regulation der dafür entscheidenden Proteinfamilie der Tight Junctions (TJs), der Claudine.
Die Barrierefunktion wird durch Messung des transepithelialen Widerstands (TER) und der Fluxmessung in der Ussing-Kammer bestimmt. Dazu werden die HT-29/B6- und Caco-2-Monolayer mit den Pflanzenkomponenten (6-Shogaol, Ellagsäure, Myrrhe), dem proinflammatorischen Zytokin TNF-α oder der Kombination von beiden Subsztanzen für 24 oder 48 h behandelt. Außerdem wurden zur weiteren Charakterisierung die Expression sowie die Lokalisation der für die parazelluläre Barriere relevanten Claudine, die TJ-Ultrastruktur und verschiedene Signalwege analysiert.
In Caco-2-Monolayern führten Ellagsäure und Myrrhe, nicht aber 6-Shogaol, allein zu einem TER-Anstieg bedingt durch eine verringerte Permeabilität für Natriumionen. Myrrhe verminderte die Expression des Kationenkanal-bildenden TJ-Proteins Claudin-2 über die Inhibierung des PI3K/Akt-Signalweges, während Ellagsäure die Expression der TJ-Proteine Claudin-4 und -7 reduzierte. Alle Pflanzenkomponenten schützten in den Caco-2-Zellen vor einer TNF-α-induzierten Barrieredysfunktion.
An den HT-29/B6-Monolayern änderte keine der Pflanzenkomponenten allein die Barrierefunktion. Die HT-29/B6-Zellen reagierten auf TNF-α mit einer deutlichen Verminderung des TER und einer erhöhten Fluoreszein-Permeabilität. Die TER-Abnahme war durch eine PI3K/Akt-vermittelte gesteigerte Claudin-2-Expression sowie eine NFκB-vermittelte Umverteilung des abdichtenden TJ-Proteins Claudin-1 gekennzeichnet. 6-Shogaol konnte den TER-Abfall partiell hemmen sowie die PI3K/Akt-induzierte Claudin-2-Expression und die NFκB-bedingte Claudin-1-Umverteilung verhindern. Ebenso inhibierte Myrrhe, nicht aber Ellagsäure, den TNF-α-induzierten TER-Abfall. Dabei konnte Myrrhe zwar den Claudin-2-Expressionsanstieg und die Claudin-1-Umverteilung unterbinden, jedoch weder die NFκB- noch die PI3K/Akt-Aktivierung hemmen. Diese Arbeit zeigt, dass auch STAT6 an dem Claudin-2-Expressionsanstieg durch
TNF-α in HT-29/B6-Zellen beteiligt ist. So wurde durch Myrrhe die TNF-α-induzierte Phosphorylierung von STAT6 und die erhöhte Claudin-2-Expression inhibiert.
Die Ergebnisse deuten darauf hin, dass die Pflanzenkomponenten 6-Shogaol, Ellagsäure und Myrrhe mit unterschiedlichen Mechanismen stärkend auf die Barriere einwirken. Zur Behandlung von intestinalen Erkrankungen mit Barrieredysfunktion könnten daher Kombinationspräparate aus verschiedenen Pflanzen effektiver sein als Monopräparate.
Das Ziel der Doktorarbeit war die Entwicklung und Evaluation eines skillsbasierten primären Präventionsprogramms (Mainzer Schultraining zur Essstörungsprävention (MaiStep)) für partielle und manifeste Essstörungen. Dabei wurde die Wirksamkeit durch einen primären (Reduktion vorhandener Essstörungssymptome) und sekundären (assoziierte Psychopathologie) Zielparameter 3 und 12 Monate nach Durchführung des Trainings überprüft. Innerhalb der randomisiert kontrollierten Studie gab es zwei Interventionsgruppe und eine aktive Kontrollgruppe. 1.654 Jugendliche (weiblich/männlich: 781/873; mittleres Alter: 13.1±0.7; BMI: 20.0±3.5) konnten für die Studie, an zufällig ausgewählten Schulen in Rheinland-Pfalz, rekrutiert werden. Die Entwicklung des Präventionsprogramms basiert auf einem systematischen Literaturreview von 63 wissenschaftlichen Studien über die Prävention von Essstörungen im Kindes- und Jugendalter. Eine Interventionsgruppe wurde durch Psychologinnen/Psychologen und eine zweite durch Lehrkräfte angeleitet. Das in der aktiven Kontrollgruppe durchgeführte Sucht- bzw. Stresspräventionsprogramm wurde durch Lehrkräfte geleitet. MaiStep zeigte zur 3-Monatskatamnese keine signifikanten Effekte im Vergleich zur aktiven Kontrollgruppe. Allerdings zeigten sich nach 12 Monaten multiple signifikante Effekte zwischen den Interventions- und der aktiven Kontrollgruppe. Im Rahmen der Analyse des primären Parameters wurden in den Interventionsgruppen signifikant weniger Jugendliche mit einer partiellen Anorexia nervosa (CHI²(2) = 8.74, p = .01**) und/oder partiellen Bulimia nervosa (CHI²(2) = 7.25, p = .02*) gefunden. Im Rahmen der sekundären Zielparameter zeigten sich signifikante Veränderungen in Subskalen des Eating Disorder Inventory (EDI-2) Schlankheitsstreben (F (2, 355) = 3.94, p = .02*) und Perfektionismus (F (2, 355) = 4.19, p = .01**) sowie dem Body Image Avoidance Questionnaire (BIAQ) (F (2, 525) = 18.79, p = .01**) zwischen den Interventions- und der aktiven Kontrollgruppe. MaiStep kann somit als erfolgreiches Programm zur Reduktion von partiellen Essstörungen für die Altersgruppe der 13- 15-jährigen bezeichnet werden. Trotz unterschiedlicher Wirkmechanismen zeigten sich die Lehrkräfte im Vergleich zu den Psychologinnen/Psychologen ebenso erfolgreich in der Durchführung.
Trial registration MaiStep is registered at the German Clinical Trials Register (DRKS00005050).
Was und von wem wurde mit wissenschaftlichem Anspruch während des ersten Drittels des 20. Jahrhunderts über Antisemitismus in Deutschland gearbeitet und geschrieben? Welche Ansätze bot die frühe Antisemitismusforschung? Das sind die Leitfragen dieser Studie, die ein Stück Kulturund Wissenschaftsgeschichte zugleich bietet. Darüber hinaus schlägt das Buch einen Bogen zur Geschichte des Abwehrkampfs gegen den Antisemitismus bis 1933. Das Fazit: Bereits in der Weimarer Republik existierte ein tiefergehendes Wissen über den Antisemitismus, das jedoch für den Abwehrkampf gegen antisemitische und völkische Bewegungen wenig Perspektiven bieten konnte.
Das Wissen um die lokale Struktur von Seltenen Erden Elementen (SEE) in silikatischen und aluminosilikatischen Schmelzen ist von fundamentalem Interesse für die Geochemie der magmatischen Prozesse, speziell wenn es um ein umfassendes Verständnis der Verteilungsprozesse von SEE in magmatischen Systemen geht. Es ist allgemein akzeptiert, dass die SEE-Verteilungsprozesse von Temperatur, Druck, Sauerstofffugazität (im Fall von polyvalenten Kationen) und der Kristallchemie kontrolliert werden. Allerdings ist wenig über den Einfluss der Schmelzzusammensetzung selbst bekannt. Ziel dieser Arbeit ist, eine Beziehung zwischen der Variation der SEE-Verteilung mit der Schmelzzusammensetzung und der Koordinationschemie dieser SEE in der Schmelze zu schaffen.
Dazu wurden Schmelzzusammensetzungen von Prowatke und Klemme (2005), welche eine deutliche Änderung der Verteilungskoeffizienten zwischen Titanit und Schmelze ausschließlich als Funktion der Schmelzzusammensetzung zeigen, sowie haplogranitische bzw. haplobasaltische Schmelzzusammensetzungen als Vertreter magmatischer Systeme mit La, Gd, Yb und Y dotiert und als Glas synthetisiert. Die Schmelzen variierten systematisch im Aluminiumsättigungsindex (ASI), welcher bei den Prowatke und Klemme (2005) Zusammensetzungen einen Bereich von 0.115 bis 0.768, bei den haplogranitischen Zusammensetzungen einen Bereich von 0.935 bis 1.785 und bei den haplobasaltischen Zusammensetzungen einen Bereich von 0.368 bis 1.010 abdeckt. Zusätzlich wurden die haplogranitischen Zusammensetzungen mit 4 % H2O synthetisiert, um den Einfluss von Wasser auf die lokale Umgebung von SEE zu studieren. Um Informationen über die lokalen Struktur von Gd, Yb und Y zu erhalten wurde die Röntgenabsorptionsspektroskopie angewendet. Dabei liefert die Untersuchung der Feinstruktur mittels der EXAFS-Spektroskopie (engl. Extended X-Ray Absorption Fine Structure) quantitative Informationen über die lokale Umgebung, während RIXS (engl. resonant inelastic X-ray scattering), sowie die daraus extrahierte hoch aufgelöste Nahkantenstruktur, XANES (engl. X-ray absorption near edge structure) qualitative Informationen über mögliche Koordinationsänderungen von La, Gd und Yb in den Gläsern liefert. Um mögliche Unterschiede der lokalen Struktur oberhalb der Glastransformationstemperatur (TG) zur Raumtemperatur zu untersuchen, wurden exemplarisch Hochtemperatur Y-EXAFS Untersuchungen durchgeführt.
Für die Auswertung der EXAFS-Messungen wurde ein neu eingeführter Histogramm-Fit verwendet, der auch nicht-symmetrische bzw. nichtgaußförmige Paarverteilungsfunktionen beschreiben kann, wie sie bei einem hohen Grad der Polymerisierung bzw. bei hohen Temperaturen auftreten können. Die Y-EXAFS-Spektren für die Prowatke und Klemme (2005) Zusammensetzungen zeigen mit Zunahme des ASI, eine Zunahme der Asymmetrie und Breite der Y-O Paarverteilungsfunktion, welche sich in sich in der Änderung der Koordinationszahl von 6 nach 8 und einer Zunahme des Y-O Abstand um 0.13Å manifestiert. Ein ähnlicher Trend lässt sich auch für die Gd- und Yb-EXAFS-Spektren beobachten. Die hoch aufgelösten XANESSpektren für La, Gd und Yb zeigen, dass sich die strukturellen Unterschiede zumindest halb-quantitativ bestimmen lassen. Dies gilt insbesondere für Änderungen im mittleren Abstand zu den Sauerstoffatomen. Im Vergleich zur EXAFS-Spektroskopie liefert XANES jedoch keine Informationen über die Form und Breite von Paarverteilungsfunktionen. Die Hochtemperatur EXAFS-Untersuchungen von Y zeigen Änderungen der lokalen Struktur oberhalb der Glasübergangstemperatur an, welche sich vordergründig auf eine thermisch induzierte Erhöhung des mittleren Y-O Abstandes zurückführen lassen. Allerdings zeigt ein Vergleich der Y-O Abstände für Zusammensetzungen mit einem ASI von 0.115 bzw. 0.755, ermittelt bei Raumtemperatur und TG, dass der im Glas beobachtete strukturelle Unterschied entlang der Zusammensetzungsserie in der Schmelze noch stärker ausfallen kann, als bisher für die Gläser angenommen wurde.
Die direkte Korrelation der Verteilungsdaten von Prowatke und Klemme (2005) mit den strukturellen Änderungen der Schmelzen offenbart für Y eine lineare Korrelation, wohingegen Yb und Gd eine nicht lineare Beziehung zeigen. Aufgrund seines Ionenradius und seiner Ladung wird das 6-fach koordinierte SEE in den niedriger polymerisierten Schmelzen bevorzugt durch nicht-brückenbildende Sauerstoffatome koordiniert, um stabile Konfigurationen zu bilden. In den höher polymerisierten Schmelzen mit ASI-Werten in der Nähe von 1 ist 6-fache Koordination nicht möglich, da fast nur noch brückenbildende Sauerstoffatome zur Verfügung stehen. Die Überbindung von brückenbildenden Sauerstoffatomen um das SEE wird durch Erhöhung der Koordinationszahl und des mittleren SEE-O Abstandes ausgeglichen. Dies bedeutet eine energetisch günstigere Konfiguration in den stärker depolymerisierten Zusammensetzungen, aus welcher die beobachtete Variation des Verteilungskoeffizienten resultiert, welcher sich jedoch für jedes Element stark unterscheidet. Für die haplogranitischen und haplobasaltischen Zusammensetzungen wurde mit Zunahme der Polymerisierung auch eine Zunahme der Koordinationszahl und des durchschnittlichen Bindungsabstands, einhergehend mit der Zunahme der Schiefe und der Asymmetrie der Paarverteilungsfunktion, beobachtet. Dies impliziert, dass das jeweilige SEE mit Zunahme der Polymerisierung auch inkompatibler in diesen Zusammensetzungen wird. Weiterhin zeigt die Zugabe von Wasser, dass die Schmelzen depolymerisieren, was in einer symmetrischeren Paarverteilungsfunktion resultiert, wodurch die Kompatibilität wieder zunimmt.
Zusammenfassend zeigt sich, dass die Veränderungen der Schmelzzusammensetzungen in einer Änderung der Polymerisierung der Schmelzen resultieren, die dann einen signifikanten Einfluss auf die lokale Umgebung der SEE hat. Die strukturellen Änderungen lassen sich direkt mit Verteilungsdaten korrelieren, die Trends unterscheiden sich aber stark zwischen leichten, mittleren und schweren SEE. Allerdings konnte diese Studie zeigen, in welcher Größenordnung die Änderungen liegen müssen, um einen signifikanten Einfluss auf den Verteilungskoeffizenten zu haben. Weiterhin zeigt sich, dass der Einfluss der Schmelzzusammensetzung auf die Verteilung der Spurenelemente mit Zunahme der Polymerisierung steigt und daher nicht vernachlässigt werden darf.
Bedeutung der abhängigen Streuung für die optischen Eigenschaften hochkonzentrierter Dispersionen
(2016)
Die Dissertation befasst sich mit der Organisation von humanitären Lufttransporten bei internationalen Katastrophen. Diese Flüge finden immer dann statt, wenn die eigene Hilfeleistungsfähigkeit der von Katastrophen betroffenen Regionen überfordert ist und Hilfe aus dem Ausland angefordert wird. Bei jedem der darauffolgenden Hilfseinsätze stehen Hilfsorganisationen und weitere mit der Katastrophenhilfe beteiligte Akteure erneut vor der Herausforderung, in kürzester Zeit eine logistische Kette aufzubauen, damit die Güter zum richtigen Zeitpunkt in der richtigen Menge am richtigen Ort eintreffen.
Humanitäre Lufttransporte werden in der Regel als Charterflüge organisiert und finden auf langen Strecken zu Zielen statt, die nicht selten abseits der hochfrequentierten Warenströme liegen. Am Markt ist das Angebot für derartige Transportdienstleistungen nicht gesichert verfügbar und unter Umständen müssen Hilfsorganisationen warten bis Kapazitäten mit geeigneten Flugzeugen zur Verfügung stehen. Auch qualitativ sind die Anforderungen von Hilfsorganisationen an die Hilfsgütertransporte höher als im regulären Linientransport.
Im Rahmen der Dissertation wird ein alternatives Organisationsmodell für die Beschaffung und den Betrieb sowie die Finanzierung von humanitären Lufttransporten aufgebaut. Dabei wird die gesicherte Verfügbarkeit von besonders flexibel einsetzbaren Flugzeugen in Betracht gezogen, mit deren Hilfe die Qualität und insbesondere die Planbarkeit der Hilfeleistung verbessert werden könnte.
Ein idealtypisches Modell wird hier durch die Kopplung der Kollektivgütertheorie, die der Finanzwissenschaft zuzuordnen ist, mit der Vertragstheorie als Bestandteil der Neuen Institutionenökonomik erarbeitet.
Empirische Beiträge zur Vertragstheorie bemängeln, dass es bei der Beschaffung von transaktionsspezifischen Investitionsgütern, wie etwa Flugzeugen mit besonderen Eigenschaften, aufgrund von Risiken und Umweltunsicherheiten zu ineffizienten Lösungen zwischen Vertragspartnern kommt. Die vorliegende Dissertation zeigt eine Möglichkeit auf, wie durch Aufbau einer gemeinsamen Informationsbasis ex-ante, also vor Vertragsschluss, Risiken und Umweltunsicherheiten reduziert werden können. Dies geschieht durch eine temporale Erweiterung eines empirischen Modells zur Bestimmung der Organisationsform bei transaktionsspezifischen Investitionsgütern aus der Regulierungsökonomik.
Die Arbeitet leistet darüber hinaus einen Beitrag zur Steigerung der Effizienz in der humanitären Logistik durch die fallspezifische Betrachtung von horizontalen Kooperationen und Professionalisierung der Hilfeleistung im Bereich der humanitären Luftfahrt.
Seit Jahren steigen Politikverdrossenheit und die Zahl der Menschen an, die sich von der Gesellschaft exkludiert fühlen. Können Basisaktivierung durch Quartiersmanagement und Community Organizing diesen Trends entgegenwirken? Fördert die Ermöglichung der gesellschaftlichen Teilhabe von benachteiligten Bevölkerungsgruppen die Sozialkapitalbildung im Sinne Putnams? Um diese Fragen zu beantworten, wurden die vorhandene Literatur analysiert und zahlreiche Experteninterviews geführt.
Effektivität frühzeitiger Interventionen zur Prävention von Lese- und Rechtschreibschwierigkeiten
(2016)
Die vorliegende Studie beschäftigt sich mit der Förderung der Lese- und Schreibkompetenz in der Anfangsphase des Schriftspracherwerbs. Ziel der Untersuchung ist die Erprobung und Evaluierung frühzeitiger, diagnosegeleiteter Interventionen zur Prävention von Lese- und Rechtschreibschwierigkeiten. Im Unterschied zu vielen Studien in diesem Bereich werden alle Maßnahmen unter realen schulischen Bedingungen im Rahmen des Erstlese- und Schreibunterrichts durch die Klassenlehrer selbst durchgeführt, wobei diese von der Autorin unterstützt und begleitet werden. Förder- und Prozessdiagnose sowie Elemente diagnosegeleiteter Förderung werden aus Theorien und Forschungslage abgeleitet und zu einem Interventionsset verbunden. Die Effektivität der evidenzbasierten Maßnahmen wird durch Parallelgruppenvergleiche überprüft.
An der empirischen Untersuchung nahmen insgesamt 25 Schulklassen mit 560 Erstklässlern teil, geteilt in Versuchs- und Kontrollgruppe. Mit der Eingangsdiagnose am Schulbeginn wurden Voraussetzungen für den Schriftspracherwerb erhoben und mit der Evaluierungsdiagnose am Ende der ersten Schulstufe entwicklungsadäquate schriftsprachliche Kompetenzen auf der Wortebene überprüft. Zusätzlich erfasst wurden internale und externale Einflussfaktoren, deren Wirkung in der statistischen Auswertung berücksichtigt wurde. Alle Datenerhebungen wurden in Versuchs- und Kontrollgruppe durchgeführt, während die evidenzbasierten Treatments nur in der Versuchsgruppe stattfanden.
Die Auswertung bestätigt mit signifikanten Ergebnissen den engen Zusammenhang zwischen der Phonologischen Bewusstheit zu Beginn des Schriftspracherwerbs und der Lese- und Rechtschreibfähigkeit am Ende der ersten Schulstufe sowie zwischen Familiärer Literalität und Lesefertigkeit. Schriftsprachliche Vorkenntnisse weisen eine Tendenz zur Signifikanz hinsichtlich ihrer positiven Wirkung auf die Basale Lesefertigkeit auf. Eine höchst signifikante positive Wirkung auf die Basale Lesefertigkeit zeigt die Druckschrift als Ausgangsschrift.
Die Ergebnisse deuten auf eine Überlegenheit vorschulischer präliteraler Fertigkeiten hinsichtlich ihrer Wirkung auf die Lese- und Rechtschreibfertigkeit am Ende der ersten Schulstufe gegenüber Fördermaßnahmen unter realen schulischen Bedingungen hin. Die positive Wirkung einer unverbundenen Ausgangsschrift auf den Leseerwerb betont die Wichtigkeit der Wahl der Ausgangsschrift. Im frühen Schriftspracherwerb sollte die Druckschrift für das Lesen und Schreiben verwendet werden.