Refine
Has Fulltext
- yes (739) (remove)
Year of publication
Document Type
- Doctoral Thesis (739) (remove)
Language
- German (739) (remove)
Keywords
- language acquisition (9)
- Modellierung (8)
- Spracherwerb (8)
- taste (7)
- Geschmack (6)
- Nanopartikel (6)
- Polymer (6)
- Selen (6)
- Serotonin (6)
- education (6)
Institute
- Institut für Biochemie und Biologie (121)
- Institut für Chemie (109)
- Institut für Ernährungswissenschaft (63)
- Institut für Physik und Astronomie (55)
- Wirtschaftswissenschaften (53)
- Department Psychologie (38)
- Institut für Umweltwissenschaften und Geographie (37)
- Sozialwissenschaften (36)
- Department Erziehungswissenschaft (35)
- Department Sport- und Gesundheitswissenschaften (27)
Die Entstehung der modernen britischen Nachrichtendienstarchitektur fiel in die erste Hälfte des zwanzigsten Jahrhunderts. Zeitgleich erfuhr die britische Gesellschaft eine nie dagewesene Demokratisierung. Die Arbeit versucht darzulegen, wie auch vermeintlich arkane Bereiche staatlichen Handelns in öffentliche Aushandlungsprozesse eingebettet sind und rekonstruiert deshalb erstmals systematisch öffentliche und fachöffentliche Diskurse über Nachrichtendienste Großbritanniens im Zeitalter der Weltkriege.
Pädagog*innen der Primarstufe nehmen an spezifischen bewegungsorientierten Weiterbildungen teil. Zahlreiche Untersuchungen im Kontext von Fort- und Weiterbildungen stellen dar, unter welchen Bedingungen sich Teilnahmen förderlich oder hinderlich auswirken. In didaktisch-konzeptionellen Überlegungen werden häufig Fragen diskutiert, wie äußere Umstände, etwa in Bezug auf zeitliche, räumliche oder inhaltliche Dimensionen, zu gestalten sind, damit Bildungsangebote im Schulsystem bestimmte Wirkungen erzielen. Unter welchen Bedingungen erfolgt sozusagen günstiger Weise eine Vermittlung von spezifischen Inhalten an Lehrer*innen, damit über diese ein Transfereffekt von (system-)relevantem Wissen in das Schulsystem erfolgen kann?
In dieser Forschungsarbeit soll nicht ein Bedingungsdiskurs im Vordergrund stehen, auf dessen Grundlage wirkungsvolle Vermittlungsstrategien für Bildungsangebote diskutiert werden. Im Zentrum steht die Frage nach je eigenen Teilnahme- und Lernbegründungen von Pädagog*innen, und wie sie sich zu ihrer Weiterbildung ins Verhältnis setzen. Dieser Zugang verändert die Perspektive auf die Thematik und erlaubt die Auseinandersetzung mit Subjekten im Rahmen eines Begründungsdiskurses. Im Zuge einer empirisch-qualitativen Studie werden narrative Interviews mit elf Absolvent*innen einer bewegungsorientierten Weiterbildung geführt, die Auswertung der Daten erfolgt mit der Dokumentarischen Methode. Die Rekonstruktionsergebnisse werden in Form von zwei Fallbeschreibungen und durch vier typische, in der Studie entwickelte, Begründungsfiguren dargestellt: die Figur Lernen, die Figur Wissensmanagement, die Figur Neugierige Suche und die Figur Körperliche Aktivität. Neben der Rekonstruktion von Teilnahme- und Lernbegründungsmustern wird deutlich, dass Teilnehmen und Lernen keine unterschiedlichen Zugangslogiken in Bezug auf Bedeutungs-Begründungs-Zusammenhänge verfolgen. Vielmehr sind sowohl expansive als auch defensive Lernbegründungen im Zuge von Teilnahmebegründungen identifizierbar.
In einer quasiexperimentellen Längsschnittstudie mit 380 Lehramtsstudierenden wurde das Interventionsprogramm „Gestärkt für den Lehrerberuf“, welches Elemente eines Self-Assessments der berufsrelevanten Kompetenzen mit konkreten Beratungsmöglichkeiten und einem Zieleffektivitätstraining (Dargel, 2006) zur Entwicklung individueller berufsbezogener Kompetenzen verbindet, auf seine Wirksamkeit (Reflexionskompetenz, Lehrerselbstwirksamkeit, berufsbezogene Kompetenzen, Beanspruchungserleben, Widerstandsfähigkeit) und den Wirkungsprozess (Zielbindung, Zielrealisierbarkeit, Zieleffektivität) hin überprüft. In dem Prä-Post-Follow-up-Test-Vergleichsgruppen-Design wurden eine Interventionsgruppe, deren Treatment auf dem Stärkenansatz basiert (1), eine defizitorientierte Interventionsgruppe (2), sowie eine kombinierte Interventionsgruppe, bei der der Stärkenansatz durch den Defizitansatz ergänzt wird (3), einer unbehandelten Kontrollgruppe sowie einer alternativ behandelten Kontrollgruppe, die ausschließlich in ihren sozial-kommunikativer Kompetenzen geschult wurde, gegenübergestellt. Es gelang zum Post- und Follow-up-Test, sowohl die individuellen beruflichen Kompetenzen als auch die Reflexionskompetenz von Teilnehmern der Interventionsgruppen im Vergleich zur unbehandelten Kontrollgruppe zu fördern. Die Teilnehmer der kombinierten Intervention profitierten im Vergleich zu den Teilnehmern der anderen beiden Interventionsgruppen stärker im Bereich Lehrerselbstwirksamkeit, Widerstandsfähigkeit und Zieleffektivität. Gegenüber der alternativen Kontrollgruppe zeigten sie ebenfalls einen stärkeren Zuwachs in der Entwicklung ihrer berufsrelevanten Kompetenzen und in ihrer Widerstandsfähigkeit. Die Studie liefert erste Hinweise darauf, dass ein Ansatz, welcher Stärkenfokussierung und Defizitorientierung integriert, besonders effektiv wirkt.
Der historische Spielfilm zählt zu den populärsten Formen geschichtskultureller Artikulation. Als solche ist er Gegenstand kontroverser Diskussionen über einen angemessenen didaktischen Umgang. Vor diesem Hintergrund ist es das Ziel der vorliegenden Arbeit, ein integratives, theoretisch und empirisch abgesichertes Analysemodell zu entwickeln, das nach den Tiefenstrukturen historischen Erzählens im Medium des Spielfilms fragt und dabei unterschiedliche Erscheinungsformen historischer Spielfilme berücksichtigt. Die Überlegungen bewegen sich deshalb in einem interdisziplinären Spannungsfeld von Theorien zum historischen Erzählen und Konzepten der Literatur- und Filmwissenschaft. Die Diskussion und Synthese dieser unterschiedlichen Konzepte geht dabei – auf der Grundlage einer großen Materialbasis – vom Gegenstand aus und ist induktiv angelegt. Als Orientierung für die praktische Arbeit werden am Ende der einzelnen Kapitel Toolkits entwickelt, die zu einer vertieften Auseinandersetzung mit historischen Spielfilmen anregen sollen.
Innerhalb dieser Arbeit erfolgte die erstmalige systematische Untersuchung von Vinylsulfonsäureethylester (1a), Phenylvinylsulfon (1b), N-Benzyl-N-methylethensulfonamid (1c) in der FUJIWARA-MORITANI Reaktion (alternativ als DHR bezeichnet). Bei dieser übergangsmetallkatalysierten Reaktion erfolgt der Aufbau einer neuen C-C-Bindung unter der doppelten Aktivierung einer C-H-Bindung. Somit kann ein atomökonomischer Aufbau von Molekülen realisiert werden, da keine Beiprodukte in Form von Salzen entstehen. Als aromatischer Reaktant wurden Acetanilide (2) verwendet, damit eine regiospezifische Kupplung durch die katalysatordirigierende Acetamid-Gruppe (CDG) erfolgt. Für die Pd-katalysierte DHR wurde eine umfangreiche Optimierung durchgeführt und anschließend konnten neun verschieden, substituierte 2 mit 1a und sieben verschieden, substituierte 2 mit 1b funktionalisiert werden. Da eine Reaktion mit 1c ausblieb, erfolgte ein Wechsel auf eine Ru-katalysierte Methode für die DHR. Mit dieser Methode konnte 1c mit Acetaniliden funktionalisiert werden und das Spektrum der verwendeten 2, in Form von deaktivierenden Substituenten erweitert werden.
Im Anschluss wurden die sulfalkenylierten Acetanilide in weiterführenden Reaktionen untersucht. Hierfür wurde eine Reaktionssequenz bestehend aus einer DeacetylierungDiazotierung-Kupplungsreaktion verwendet, um die Acetamid-Gruppe in eine Abgangsgruppe zu überführen und danach in einer MATSUDA-HECK Reaktion zu kuppeln. Mit dieser Methode konnten mehrere 1,2-Dialkenylbenzole erhalten werden und die CDG ein weiteres Mal genutzt werden. Neben der Überführung der CDG in eine Abgangsgruppe konnte diese auch in die Synthese verschiedener Heterozyklen integriert werden. Dafür erfolgte zunächst eine 1,3-Zykloaddition durch deprotonierten Tosylmethylisocanid an der elektronenarmen Sulfalkenylgruppe zur Synthese von Pyrrolen. Anschließend erfolgte eine Kupplung der PyrrolFunktion und der CDG durch Zyklokondensation, wodurch Quinoline dargestellt wurden. Durch diese Synthesen konnten Schwefelanaloga des Naturstoffes Marinoquionolin A erhalten werden.
Ein weitere übergangsmetallkatalysierte C-H-Aktivierungsreaktion, die MATSUDA-HECK Reaktion, wurde genutzt, um 1b zu mit verschieden, subtituierten Diazoniumsalzen zu arylieren. Hier konnten zahlreichen Styrenylsulfone erhalten werden. Der erfolgreiche Einsatz der Vinylsulfonylverbindungen in der Kreuzmetathese konnte innerhalb dieser Arbeit nicht erreicht werden. Daher erfolgte die Synthese verschiedener dialkenylierter Sulfonamide. Hierfür wurde die Kettenlänge der Alkenyl-Gruppe am Schwefel zwischen 2-3 und am Stickstoff zwischen 3-4 variiert. Der Einsatz der dialkenylierten Sulfonamide erfolgte in den zuvor untersuchten C-H-Aktivierungsmethoden.
N-Allyl-N-phenylethensulfonamid (3) konnte erfolgreich in der DHR und HECK Reaktion funktionalisiert werden. Hierbei erfolgte eine methodenspezifische Kupplung in Abhängigkeit von der Elektronendichte der entsprechenden Alkenyl-Gruppe. Die DHR führte zur selektiven Arylierung der Vinyl-Gruppe und die HECK Reaktion zur Arylierung an der Allyl-Gruppe. Gemischte Produkte wurden nicht erhalten. Für die weiteren Diolefine wurde komplexe Produktgemische erhalten. Des Weiteren wurden die Diolefine in der Ringschlussmetathese untersucht und die entsprechenden Sultame in sehr guten Ausbeuten erhalten. Die Verwendung der Sultame in der C-H-Aktivierung war erfolglos. Es wird vermutet, dass für diese zweifachsubstituierten Sulfonamide die vorhandenen Reaktionsbedingungen optimiert werden müssen.
Abschließend wurden verschiedene, enantiomerenreine Olefine ausgehend von Levoglucosenon dargestellt. Hierfür wurde Levoglucosenon zunächst mit einem Allyl- und 3-Butenylgrignard Reagenz umgesetzt. Die entsprechenden Produkte wurden in moderaten Ausbeuten erhalten. Eine weitere Methode begann mit der Reduktion von Levoglucosenon zum Levoglucosenol. Dieser Alkohol wurde mit Allylbromid erfolgreich verethert. Neben der Untersuchungen zur Ethersynthese, erfolgte die Veresterung von Levoglucosenol mit verschiedenen Sulfonylchloriden zu den entsprechenden Sulfonsäureestern. Diese Olefine wurden in einer Dominometathesereaktion untersucht. Ausgehend vom Allyllevoglucosenylether erfolgte die Darstellung eines Dihydrofurans.
Intensive Forschung hat in den vergangenen Jahrzehnten zu einer sehr detaillierten Charakterisierung des Geschmackssystems der Säugetiere geführt. Dennoch sind mit den bislang eingesetzten Methoden wichtige Fragestellungen unbeantwortet geblieben. Eine dieser Fragen gilt der Unterscheidung von Bitterstoffen. Die Zahl der Substanzen, die für den Menschen bitter schmecken und in Tieren angeborenes Aversionsverhalten auslösen, geht in die Tausende. Diese Substanzen sind sowohl von der chemischen Struktur als auch von ihrer Wirkung auf den Organismus sehr verschieden. Während viele Bitterstoffe potente Gifte darstellen, sind andere in den Mengen, die mit der Nahrung aufgenommen werden, harmlos oder haben sogar positive Effekte auf den Körper. Zwischen diesen Gruppen unterscheiden zu können, wäre für ein Tier von Vorteil. Ein solcher Mechanismus ist jedoch bei Säugetieren nicht bekannt. Das Ziel dieser Arbeit war die Untersuchung der Verarbeitung von Geschmacksinformation in der ersten Station der Geschmacksbahn im Mausgehirn, dem Nucleus tractus solitarii (NTS), mit besonderem Augenmerk auf der Frage nach der Diskriminierung verschiedener Bitterstoffe. Zu diesem Zweck wurde eine neue Untersuchungsmethode für das Geschmackssystem etabliert, die die Nachteile bereits verfügbarer Methoden umgeht und ihre Vorteile kombiniert. Die Arc-catFISH-Methode (cellular compartment analysis of temporal activity by fluorescent in situ hybridization), die die Charakterisierung der Antwort großer Neuronengruppen auf zwei Stimuli erlaubt, wurde zur Untersuchung geschmacksverarbeitender Zellen im NTS angewandt. Im Zuge dieses Projekts wurde erstmals eine stimulusinduzierte Arc-Expression im NTS gezeigt. Die ersten Ergebnisse offenbarten, dass die Arc-Expression im NTS spezifisch nach Stimulation mit Bitterstoffen auftritt und sich die Arc exprimierenden Neurone vornehmlich im gustatorischen Teil des NTS befinden. Dies weist darauf hin, dass Arc-Expression ein Marker für bitterverarbeitende gustatorische Neurone im NTS ist. Nach zweimaliger Stimulation mit Bittersubstanzen konnten überlappende, aber verschiedene Populationen von Neuronen beobachtet werden, die unterschiedlich auf die drei verwendeten Bittersubstanzen Cycloheximid, Chininhydrochlorid und Cucurbitacin I reagierten. Diese Neurone sind vermutlich an der Steuerung von Abwehrreflexen beteiligt und könnten so die Grundlage für divergentes Verhalten gegenüber verschiedenen Bitterstoffen bilden.
Die vorliegende Arbeit basiert auf Forschungen in den Jahren 2007-2009. Sie betrachtet die saisonale Arbeitsmigration aus der polnischen Region Konin, wo die Arbeitsmigration aus ökonomischen Gründen, wie auch in ähnlich strukturierten Gebieten Polens, eine lange Tradition hat, die bis ins 19. Jahrhundert zurückgeht. Sie wird die saisonale Migration ins Ausland mit den ökonomischen, sozialen und räumlichen Auswirkungen aus der Perspektive des Einzelnen und seiner unmittelbaren Umgebung, aber auch der Gesellschaft und Herkunftsgebiet der Migranten betrachtet.
In den letzten 20 Jahren hat sich der Maiszünsler (Ostrinia nubilalis HÜBNER), aus der Schmetterlingsfamilie der Pyralidae oder Zünsler, zum bedeutendsten tierischen Schädling des Maises (Zea mays) entwickelt. Eine Möglichkeit den Befall des Maiszünslers abzuwenden, bietet der Anbau von Bacillus thuringiensis-Mais (Bt-Mais). Mit Hilfe der Gentechnik wurden Gene des Bakteriums Bacillus thuringiensis übertragen, die einen für Fraßinsekten giftigen Wirkstoff bilden, wodurch die Pflanzen während der kompletten Vegetation vor den Larven des Maiszünslers geschützt sind. Ziel des vorliegenden Projektes war es, in einer 3-jährigen Studie die Auswirkungen des großflächigen Anbaus von Bt-Mais auf die ökologische Situation und den Handlungsrahmen des integrierten Pflanzenschutzes komplex zu untersuchen. Dazu wurden in Betrieben im Oderbruch, das als permanentes Befallsgebiet des Maiszünslers gilt, in den Jahren 2002 bis 2004 jährlich zwei Felder mit jeweils einer Bt-Sorte und einer konventionellen Sorte angelegt. Zusätzlich wurden biologische und chemische Maiszünsler-Bekämpfungsvarianten geprüft. Durch verschiedene Methoden wie Bonituren, Ganzpflanzenernten, Bodenfallenfänge und Beobachtungen des Wahlverhaltens von (Flug-)insekten konnten Aussagen zum Vorkommen von Insekten und Spinnentieren getroffen werden, wobei hierfür Daten aus Untersuchungen der Jahre 2000 und 2001 im Oderbruch ergänzend herangezogen werden konnten. Durch Ertragsmessungen, Energie- und Qualitätsermittlungen, sowie Fusarium- und Mykotoxinanalysen konnte der Anbau von Bt-Mais als neue Alternative zur Bekämpfung des Maiszünslers bewertet werden. Bezüglich des Auftretens von Insekten und Spinnentieren wurden im Mittel der fünfjährigen Datenerhebung beim Vergleich der Bt-Sorte zur konventionellen Sorte, mit Ausnahme der fast 100 %igen Bekämpfung des Maiszünslers, keine signifikanten Unterschiede festgestellt. Hierfür wurde ein besonderes Augenmerk auf Thripse, Wanzen, Blattläuse und deren Fraßfeinde, sowie mittels Bodenfallenfängen auf Laufkäfer und Spinnen gerichtet. Die erwarteten ökonomischen Vorteile wie etwa Ertragsplus oder bessere Nährstoff- und Energiegehalte durch geringeren Schaden beim Anbau von Bt-Mais als Silomais blieben in den Untersuchungsjahren aus. Allerdings zeigten Fusarium- und Mykotoxinanalysen eine geringere Belastung des Bt-Maises, was möglicherweise auf den geringeren Schaden zurückzuführen ist, da beschädigte Pflanzen für Fusarium und Mykotoxine anfälliger sind. Desweiteren konnten erste methodische Ansätze für ein auf EU-Ebene gefordertes, den Anbau von Bt-Mais begleitendes Monitoring, erarbeitet werden. So konnten Vorschläge für geeignete Methoden, deren Umfang sowie des Zeitpunktes der Durchführungen gemacht werden.
Die vorliegende Arbeit enthält eine statistische Analyse der Gesamtheit öffentlicher Unternehmen in Deutschland und ihrer wirtschaftlichen Lage. Für diese Untersuchung stand eine Datenbank für etwa 9000 öffentliche Unternehmen mit knapp 500 Merkmalen zur Verfügung, die im Wesentlichen den Posten der Jahresabschlüsse und verschiedenen Identifikationsmerkmalen (wie u. a. Unternehmenssitz, Wirtschaftszweig und Rechtsform) entsprechen. Die Analyse umfasst den Zeitraum von 1998 bis 2006. Die extrem umfangreiche Datengrundlage – Jahresabschlussstatistiken öffentlicher Unternehmen – ist für einen Statistiker eine große Versuchung. In der Arbeit wurden Methoden der beschreibenden Statistik und der Jahresabschlussanalyse mit Bilanzkennzahlen angewandt. Vor allem in den letzten zwanzig Jahren wurde die Entwicklung der Gesamtheit öffentlicher Unternehmen durch Wandelprozesse geprägt und von Diskussionen über ihre Leistungsfähigkeit begleitet. Die Dynamik der Gesamtheit öffentlicher Unternehmen zeigt sich v. a. an der Vielfalt ihrer Aufgabenbereiche und Organisationsformen. Daher wurde in dieser Arbeit versucht, zunächst eine Bestandsaufnahme des öffentlichen Unternehmensbereichs durchzuführen. Ein weiteres Ziel war die Beschreibung der Wirtschaftslage öffentlicher Unternehmen im letzten Jahrzehnt, wobei ihre Leistungsfähigkeit in den Vordergrund gestellt wird. Die Leistungsfähigkeit öffentlicher Unternehmen nur über die betriebswirtschaftliche Effizienz zu messen, ist gewiss einseitig und nicht ausreichend. Diese ließ sich aber im Vergleich zur volkswirtschaftlichen oder sozialen Effizienz leichter operationalisieren: Die betriebswirtschaftlichen Effizienzkriterien können gut aus den Jahresabschlüssen abgeleitet werden. Dadurch wird auch ein Vergleich mit privaten Unternehmen in gewissen Grenzen möglich. Die Beschreibung der Wirtschaftslage öffentlicher Unternehmen wurde als Analyse ihrer einzelnen Teillagen (Vermögens-, Finanz- und Ertragslage) strukturiert. Insgesamt unterstreicht die Analyse der Teillagen die enge Verflechtung zwischen öffentlichen Unternehmen und öffentlichen Haushalten. Die vorliegende Untersuchung soll die Forschung auf dem Gebiet der datengetriebenen Statistik, die im Universitätsbereich in letzten Jahren im Vergleich zur modellgetriebenen Statistik oft vernachlässigt wurde, ausweiten.
Automobildesigner haben als Gestaltungsexperten die Aufgabe, die Identität und damit die Werte einer Marke in Formen zu übersetzen, welche eine Vielzahl von Kunden ansprechen (Giannini & Monti, 2003; Karjalainen, 2002). Für diesen Übersetzungsprozess ist es zielführend, ästhetische Kundenbedürfnisse zu kennen, denn die Qualität einer Designlösung hängt auch davon ab, inwieweit der Designer Kundenbe-dürfnisse und damit das Designproblem richtig erfasst hat (Ulrich, 2006). Eine Grundlage hierfür entsteht durch eine erfolgreiche Designer-Nutzer-Interaktion und den Aufbau eines gemeinsamen Kontextwissens (Lee, Popovich, Blackler & Lee, 2009). Zwischen Designern und Kunden findet jedoch häufig kein direkter Austausch statt (Zeisel, 2006). Zudem belegen Befunde der Kunst- und Produktästhetikforschung, dass der Erwerb von gestalterischem Wissen und damit die Entwicklung ästhetischer Expertise mit Veränderungen der kognitiven Verarbeitung ästhetischer Objekte einhergeht, die sich in Wahrnehmung, Bewertung und Verhalten manifestieren. Damit ist auch zu erwarten, dass die Präferenzurteile von Designern und Kunden bei der ästhetischen Bewertung von Design nicht immer konvergieren. Ziel der vorliegenden Arbeit war daher die systematische Untersuchung dieser expertisebedingten Wahrnehmungs- und Bewertungsunterschiede zwischen designge-schulten und ungeschulten Personen bei der Betrachtung von Automobildesign. Damit sollten Perzeption, Verarbeitung und Bewertung von Automobildesign durch design-ungeschulte Personen transparenter gemacht und mit der Verarbeitung designgeschul-ter Personen verglichen werden, um einen Beitrag zur gemeinsamen Wissensbasis und damit einer erfolgreichen Designer-Nutzer-Interaktion zu leisten. Die theoretische Einbettung der Arbeit basierte auf dem Modell ästhetischer Erfahrung und ästheti-schen Urteilens von Leder, Belke, Oeberst und Augustin (2004), welches konkrete Annahmen zu Verarbeitungsunterschieden von ästhetischen Objekten zwischen Experten und Laien bietet, die bisher allerdings noch nicht umfassend geprüft wurden. Den ersten Schwerpunkt dieser Arbeit bildete die Untersuchung von Unter-schieden zwischen Designern und designungeschulten Rezipienten bei der Beschrei-bung und Bewertung auf dem Markt vorhandenen Fahrzeugdesigns. Dabei sollte auch geprüft werden, ob eine lexikalische Verbindung zwischen Beschreibungsattributen von Fahrzeugrezipienten und den postulierten Markenwerten von Automobilmarken hergestellt werden kann. Diesem ersten Untersuchungsanliegen wurde in zwei Studien nachgegangen: Studie I diente der Erhebung von Beschreibungsattributen mittels Triadenvergleich in Anlehnung an Kelly (1955). Es wurde geprüft, ob designgeschulte Teilnehmer produkti-ver verbalisieren, dabei anteilig mehr symbolbezogene als formbezogene Attribute generieren und innerhalb ihrer Gruppe häufiger gleiche Attribute nutzen als designun-geschulte Teilnehmer. Hierfür beschrieben 20 designgeschulte Probanden und 20 designungeschulte Probanden mit selbst gewählten Adjektiven die Unterschiede zwischen vier präsentierten Fahrzeugen. Die Gruppen nutzten dabei entgegen der Annahmen sehr ähnliche Attribute und unterschieden sich somit auch nicht in ihrer Verwendung symbolbezogener und formbezogener Attribute. Die generierten Attribute wurden mittels Prototypenansatz (Amelang & Zielinski, 2002) den ermittelten und nachfolgend kategorisierten Markenwerten von 10 Automobilherstellern zugeordnet, so dass sechs Skalen zur Erfassung der ästhetischen Wirkung von Fahrzeugen entstanden. In Studie II wurde ein diese sechs Skalen umfassender Fragebogen an einer Stichprobe von 83 Designern und Designstudierenden sowie 98 Probanden ohne Designausbildung in einer Onlinebefragung hinsichtlich Skalenkonsistenz geprüft. Außerdem wurden erste Annahmen aus dem Modell von Leder et al. (2004) abgeleitet und durch einen Vergleich der beiden Teilnehmergruppen hinsichtlich der Bewertung der vier präsentierten Fahrzeugmodelle für die Skalen mit guter interner Konsistenz (Attraktivität, Dynamik, Fortschritt, Qualität), sowie eines ästhetischen Gesamturteils, der benötigten Bewertungszeit und der Automobilaffinität überprüft. Hierbei vergaben Designstudierende und insbesondere ausgebildete Designer radikalere Bewertungen als Designlaien, benötigten mehr Zeit bei der Bewertung und waren automobilaffiner als die ungeschulten Befragungsteilnehmer. Den zweiten Schwerpunkt der Arbeit bildete eine konzeptionelle Zusammen-führung der Annahmen des Modells von Leder et al. (2004) und der Postulate zur Wirkung von Objekteigenschaften auf ästhetische Urteile (Berlyne, 1971; Martindale, 1988; Silvia, 2005b). Konkret sollte geprüft werden, welchen Einfluss marktrelevante Objekteigenschaften, wie z.B. das Ausmaß an Innovativität, auf die durch Expertise moderierte Bewertung von Design haben. In den Studien III und IV wurden hierfür systematisch bezüglich Innovativität und Balance gestufte Linienmodelle von Fahrzeu-gen präsentiert. In Studie III wurden die Modelle in einer Onlinebefragung durch 18 Designstudierende und 20 Studenten der Fahrzeugtechnik hinsichtlich Attraktivität, Innovativität und Balance bewertet. Im Einklang mit den Annahmen konnte gezeigt werden, dass sehr neuartiges Design von den designungeschulten Probanden als weniger attraktiv bewertet wird als von Betrachtern eines Designstudienganges. In Studie IV wurden neben den Ästhetikbewertungen zusätzlich das Blickverhal-ten und der affektiver Zustand der Versuchsteilnehmer in einem Messwiederholungs-design mit einer zwischengelagerten Phase elaborierter Designbewertung, in welcher der in Studie II geprüfte Fragebogen eingesetzt wurde, erhoben. An der Laborstudie nahmen je 11 Designer, Ingenieure, und Geisteswissenschaftler teil. Wiederum wurde innovatives Design von den designungeschulten Gruppen als weniger attraktiv bewertet. Dieser Unterschied reduzierte sich jedoch nach wiederholter Bewertung der Modelle. Die Manifestation expertisebedingten Blickverhaltens konnte nicht beobach-tet werden, wie auch die durch eine angenommene bessere Bewältigung einherge-hende positivere Stimmung oder höhere Zufriedenheit in der Expertengruppe. Gemeinsam mit den Befunden aus den Studien II und III wurde deutlich, dass Designausbildung und, noch ausgeprägter, Designexpertise neben einer höheren Attraktivitätsbewertung innovativen Designs auch zu einer differenzierteren Beurtei-lung von Innovativität führt. Dies wurde mit der Erweiterung des mentalen Schemas für Fahrzeuge durch die Beschäftigung mit vielfältigen Modellvarianten bereits während des Studiums interpretiert. Es wurden Hinweise auf eine stilbezogene, elaboriertere Verarbeitung von Fahrzeugdesign durch designgeschulte Betrachter beobachtet sowie eine mit Expertise einhergehende Autonomität ästhetischer Urteile als Ausdruck einer hohen ästhetischen Entwicklungsstufe (Parsons, 1987). Mit diesen bei unterschiedlichen Stichproben beobachteten, stabilen expertisebedingten Bewer-tungsunterschieden wurde eine begründete Basis für die geforderte Sensibilisierung für ästhetische Kundenbedürfnisse im Gestaltungsprozess geschaffen. Der in dieser Arbeit entwickelte Fragebogen kann hierbei für eine elaborierte Messung von Fahrzeugdesignpräferenzen, zum Vergleich der ästhetischen Wirkung mit den intendierten Markenwerten sowie für die Diskussion von Nutzereindrücken eingesetzt werden. Die Ergebnisse der vorliegenden Arbeiten tragen somit zur Erweiterung und Präzisierung des theoretischen Verständnisses von Ästhetikbewertungen bei und lassen sich gleichzeitig in die Praxis der Designausbildung und des Designprozesses übertragen.
Gegenstand der Arbeit sind die protestantischen Landprediger der Kurmark Brandenburg in der zweiten Hälfte des 18. Jahrhunderts. Die Landprediger standen zu dieser Zeit in schlechtem Ruf, indem sie von der gebildeten Öffentlichkeit für "verbauert" gehalten wurden. Sie versuchten ihre Zugehörigkeit zum aufgeklärten Bürgertum unter Beweis zu stellen, nicht zuletzt indem sie "Volksaufklärung" betrieben. Auf der Grundlage breiten archivalischen Materials werden die kulturellen, sozialen und ökonomischen Umstände beleuchtet, unter denen die Landprediger als Träger der Volksaufklärung agierten. In Rede stehen die Einkünfte, die Ausbildung in der Schule und an der Universität zu Halle/Saale, Herkunft und Karrierewege, das Kirchenpatronat, das Verhältnis zum preußischen Staat, der Pfarrer in der Sicht der Dorfgemeinde, der Pfarrer als Volksaufklärer.
Trotz der hohen innovationspolitischen Bedeutung der außeruniversitären Forschungseinrichtungen (AUF) sind sie bisher selten Gegenstand empirischer Untersuchungen. Keine der bisher vorliegenden Arbeiten legt ihren Fokus auf die Zusammenarbeit von Wissenschaftler:innen in Forschungsteams, obwohl wissenschaftliche Zusammenarbeit ein weitgehend unerforschtes Gebiet ist. Dies verwundert insofern, da gerade innovative und komplexe Aufgaben, wie sie im Bereich der Forschung bestehen, das kreative Potenzial Einzelner sowie eine gut funktionierende Kooperation der einzelnen Individuen benötigen. Die Zusammenarbeit von Wissenschaftler:innen in den AUF findet in einem kompetitiven Umfeld statt. Einerseits stehen die AUF auf Organisationsebene im Wettbewerb zueinander und konkurrieren um Forschungsgelder und wissenschaftliches Personal. Andererseits ist die kompetitive Einwerbung von Drittmitteln für Wissenschaftler:innen essentiell, um Leistungen, gemessen an hochrangigen Publikationen und Drittmittelquoten, für die eigene Karriere zu erbringen. Ein zunehmender Anteil an Drittmittelfinanzierung in den Einrichtungen hat zudem Auswirkungen auf die Personalpolitik und die Anzahl befristeter Arbeitsverhältnisse. Gleichzeitig wird Forschungsförderung häufig an Kollaborationen von Wissenschaftler:innen geknüpft und bei Publikationen und Forschungsergebnissen zeigen Studien, dass diese überwiegend das Resultat von mehreren Personen sind. Dieses Spannungsfeld zwischen Zusammenarbeit und Wettbewerb wird verstärkt durch die fehlenden Möglichkeiten für den wissenschaftlichen Nachwuchs in der Wissenschaft zu bleiben. Auch wenn die Bundesregierung auf diese Herausforderungen reagiert, muss der Einzelne seinen Weg zwischen Zusammenarbeit und Konkurrenz finden.
Zielsetzung dieser Arbeit ist es, nachfolgende Forschungsfragen zu beantworten:
1. Wie können naturwissenschaftliche Forschungsteams in AUF charakterisiert werden?
2. Wie agiert die einzelne Forscherin/ der einzelne Forscher im Spannungsfeld zwischen Kooperation und Wettbewerb?
3. Welche Potentiale und Hemmnisse lassen sich auf Individual-, Team- und Umweltebene für eine erfolgreiche Arbeit von Forschungsteams in AUF ausmachen?
Um die Forschungsfragen beantworten zu können, wurde eine empirische Untersuchung im Mixed Method Design, bestehend aus einer deutschlandweiten Onlinebefragung von 574 Naturwissenschaftler:innen in AUF und qualitativen Interviews mit 122 Teammitgliedern aus 20 naturwissenschaftlichen Forschungsteams in AUF, durchgeführt.
Die Ergebnisse zeigen, dass die Teams eher als Arbeitsgruppen bezeichnet werden können, da v.a. in der Grundlagenforschung kein gemeinsames Ziel als vielmehr ein gemeinsamer inhaltlicher Rahmen vorliegt, in dem die Forschenden ihre individuellen Ziele verfolgen. Die Arbeit im Team wird überwiegend als positiv und kooperativ beschrieben und ist v.a. durch gegenseitige Unterstützung bei Problemen und weniger durch einen thematisch wissenschaftlichen Erkenntnisprozess geprägt. Dieser findet vielmehr in Form kleiner Untergruppen innerhalb der Arbeitsgruppe und vor allem in enger Abstimmung mit der Teamleitung (TL) statt. Als wettbewerbsverschärfend werden vor allem organisationale Rahmenbedingungen, wie Befristungen und der Flaschenhals, thematisiert.
Die TL nimmt die zentrale Rolle im Team ein, trägt die wissenschaftliche, finanzielle und personelle Verantwortung und muss den Forderungen der Organisation gerecht werden. Promovierende konzentrieren sich fast ausschließlich auf ihre Qualifizierungsarbeit. Bei Postdocs ist ein Spannungsfeld zu erkennen, da sie eigene Projekte und Ziele verfolgen, die neben den Anforderungen der TL bestehen. Die Gatekeeperfunktion der TL wird gestärkt durch ihre Rolle bei der Weitergabe von karriererelevanten Informationen im Team, z.B. bei anstehenden Konferenzen. Sie hat die wichtigen Kontakte, sorgt für die Vernetzung des Teams und ist für die Netzwerkpflege zuständig. Der wissenschaftliche Nachwuchs verlässt sich bei seinen Aufgaben und den karriererelevanten Faktoren sehr auf ihre Unterstützung. Nicht-wissenschaftliche Mitarbeitende gilt es stärker zu berücksichtigen, dies sowohl in ihrer Funktion in den Teams als auch in der Gesamtorganisation. Sie sind die zentralen Ansprechpersonen des wissenschaftlichen Personals und sorgen für eine Kontinuität bei der Wissensspeicherung und -weitergabe. Für die Organisationen gilt es, unterstützende Rahmen-, Arbeits- und Aufgabenbedingungen für die TL zu schaffen und den wissenschaftlichen Nachwuchs bei einer frühzeitigen Verantwortung für wissenschaftliche und karriererelevante Aufgaben zu unterstützen. Dafür bedarf es verbesserter Personalentwicklungskonzepte und -angebote. Darüber hinaus gilt es, Kooperationsmöglichkeiten innerhalb der Einrichtung und zwischen den Gruppen zu schaffen, z.B. durch offene Räume und Netzwerkmöglichkeiten, und innovative Arbeitsumgebungen zu fördern, um neue Formen einer innovationsfreundlichen Wissenschaftskultur zu etablieren.
Seit dem Zusammenbruch der Sowjetunion kamen in diesem Raum neue Migrationsprozesse wie die Arbeitsmigration zwischen den südlichen GUS-Republiken und Russland, aber auch grenzüberschreitende Bevölkerungsbewegungen ethnischer Gruppen in ihre „historischen Herkunftsgebiete“ auf. Die in der vorliegenden Arbeit untersuchten, dynamischen Wanderungsprozesse von Kasachen zwischen der Mongolei und Kasachstan weisen Kennzeichen dieses Migrationstypus, aber auch einige Besonderheiten auf. Die vorliegende Arbeit hat längere Forschungsaufenthalte in Kasachstan und der Mongolei von 2006 bis 2009 zur Grundlage. Aus der Mongolei stammende kasachische Migranten im Umland von Almaty und Kasachen im westlichsten aymag der Mongolei, Bayan-Ölgiy, wurden mittels quantitativer und qualitativer Methoden empirischer Sozialforschung befragt. Ergänzend wurden in beiden Staaten Befragungen von Experten aus gesellschaftlichen, wissenschaftlichen und politischen Institutionen durchgeführt, um eine möglichst ausgeglichene Sicht auf die postsowjetischen Migrations- und Inkorporationsprozesse zwischen beiden Staaten sicherzustellen. Zwischen den Migranten in Kasachstan und ihren – noch bzw. wieder – in der Mongolei lebenden Verwandten haben sich in den letzten Jahrzehnten enge soziale Netzwerke entwickelt. Die Aufrechterhaltung der Bindungen wird durch eine Verbesserung der Transport- und Kommunikationsmöglichkeiten zwischen beiden Staaten gefördert. Zirkuläre Migrationsmuster, regelmäßige Besuche und Telefongespräche sowie grenzüberschreitende sozioökonomische Unterstützungsmechanismen haben sich insbesondere in den vergangenen Jahren intensiviert. Diese Interaktionen sind im Kontext der rechtlichen, politischen und wirtschaftlichen Bedingungen im Migrationssystem Mongolei-Kasachstan – und insbesondere in Wechselwirkung mit der staat¬lichen Migrations- und Inkorpora-tionspolitik – einzuordnen. Die Erkenntnisse der vorliegenden Untersuchung lassen sich in aller Kürze so zusammenfassen: (I) Die in sozialen Netzwerken organisierten Interaktionen der Kasachen aus der Mongolei weisen Merkmale von, aber auch Unterschiede zu Konzepten des Transnationalismus-Ansatzes auf. (II) Die sozialen Bindungen zwischen Verwandten generieren Sozialkapital und tragen zur alltäglichen Unterstützung bei. (III) Die lokalen und grenzüberschreitenden Aktivitäten der Migranten sind als Strategien der sozioökonomischen Eingliederung zu deuten. (IV) Ein wesentlicher Teil der aus der Mongolei stammenden Kasachen artikuliert von der Mehrheitsbevölkerung abweichende, hybride Identifikationsmuster, die die politischen Eliten in Kasachstan bisher zu wenig wahrnehmen.
Die Dissertation befasst sich mit den Reformprozessen, die sich vom Zeitpunkt des System-umbruchs 1989/90 bis zum EU-Beitritt 2004 in den Ministerialverwaltungen Estlands und Polens vollzogen haben. Die Veränderungen, die während dieser Zeit stattfanden, standen im Spannungsfeld zweier Prozesse: des von innenpolitischen Erfordernissen geprägten Transformationsprozesses und des Europäisierungsprozesses, in dem die EU als einflussreicher externer Akteur hinzutrat. Konzeptionell greift die Untersuchung auf die Diskussionen aus der institutionellen Transformationsforschung und die Debatten um die Europäisierung von Regierungs- und Verwaltungssystemen zurück. Die Arbeit konzentriert sich auf die Veränderungen auf der zentralstaatlichen Ebene und betrachtet diese Veränderungen in ihrer horizontalen und sektoralen Dimension. Die horizontale Dimension umfasst Rahmenbedingungen des Verwaltungssystems insgesamt, dies sind zentrale Strukturen des Regierungsapparates, die regierungsinternen Koordinationsmechanismen und die Etablierung des öffentlichen Dienstes. In der sektoralen Dimension wird die Verwaltung im Politikfeld Landwirtschaft betrachtet. In beiden Ländern gab es einen gemeinsamen Ausgangspunkt der Entwicklungen, das sozialistische Verwaltungssystem, und einen ähnlichen Zielpunkt der Verwaltungsreformen in den 1990er Jahren: eine wie auch immer definierte „moderne Verwaltung“. Auch die Rahmenbedingungen des EU-Integrationsprozesses in Mittelosteuropa lassen eher Konvergenzen erwarten. Doch spielen nationale politische Konstellationen eine entscheidende Rolle für die Entwicklungen, so dass man bilanzierend sagen kann: Estland und Polen haben mit Beginn der Transformation unterschiedliche nationale Entwicklungspfade eingeschlagen und ihre Verwaltungssysteme unterscheiden sich mittlerweile stärker voneinander als zur Zeit des Sozialismus.
Das nationale Recht wird mehr und mehr durch EG-Recht beeinflussst. In diesem Zusammenhang ergeben sich bei denjenigen EG-Rechtsakten, die anders als EG-Verordnungen nicht unmittelbar in den Mitgliedstaaten gelten, sondern von diesen in nationales Recht umgesetzt werden müssen, vielfältige Probleme. Diese Probleme behandelt der Verfasser aus der Sicht des Anwalts in einer Weise, dass diejenigen, die sich in der Praxis mit derartigen Umsetzungsfragen zu beschäftigen haben, wertvolle Hinweise für eine konkret zu lösende Umsetzungsproblematik erhalten. Ergänzt und damit noch transparenter werden seine Lösungsvorschläge dadurch, dass der Verfasser sie im zweiten Teil der Untersuchung auf die konkrete Fragestellung anwendet, inwieweit es zu einer Umsetzung bzw. ordnungsgemäßen Umsetzung der in den Jahren 1988 bis 2001 erlassenen Fleischhygienegebührenrechtsakte der EG gekommen ist. Diese Arbeit wurde betreut von Professor Dr. D.C. Umbach an der Universität Potsdam. Aus dem Inhalt: Abgrenzung der Umsetzungszuständigkeit zwischen Bund und Ländern. Anforderungen an das Vorliegen eines Umsetzungsaktes sowie an eine ordnungsgemäße Umsetzung. Rechtsfolgen bei Umsetzungsverstößen. Prozessuale Fragen.
Die internationale Staatengemeinschaft steht Sezessionsbestrebungen zur Aufspaltung bestehender Staaten gewöhnlich ablehnend gegenüber. Gleichzeitig wendet sie in vielen Ländern Instrumente der Entwicklungspolitik an und greift so auch in den dortigen politischen Prozess ein. Untersucht wird, inwiefern Entwicklungspolitik so gestaltet werden kann, dass sie nicht, quasi als Nebenwirkung, einer Sezessionsbewegung zum Durchbruch verhilft. Betrachtet wird dabei neben der gezielten Förderung wirtschaftlichen Wachstums auch das Instrument der Dezentralisierung, das oft als Mittel zur „Beruhigung“ separatistischer Bestrebungen vorgeschlagen wird. Zuvor jedoch wird aufgewiesen, dass eine Politik, die Sezessionen verhindern will, zumindest in vielen Fällen auch moralphilosophisch schlüssig begründet werden kann. Den Abschluss der Arbeit bilden drei Fallstudien zu Sezessionen auf dem Gebiet der ehemaligen Sowjetunion.
Mathematik spielt im Physikunterricht eine nicht unerhebliche Rolle - wenn auch eine zwiespältige. Oft wird sie sogar zum Hindernis beim Lernen von Physik und kann ihr emanzipatorisches Potenzial nicht entfalten. Die vorliegende Arbeit stellt zwei Bausteine für eine begründete Konzeption zum Umgang mit Mathematik beim Lernen von Physik zur Verfügung. Im Theorieteil der Arbeit werden zum Einen wissenschaftstheoretische Aspekte der Rolle der Mathematik in der Physik aufgearbeitet und der physikdidaktischen Forschungsgemeinschaft im Zusammenhang zugänglich gemacht. Zum anderen werden Forschungsergebnisse zu Vorstellungen Lernender über Physik und Mathematik sowie im Bereich der Epistemologie zusammengestellt. Im empirischen Teil der Arbeit werden Vorstellungen zur Rolle der Mathematik in der Physik von Schülerinnen und Schülern der Klassenstufen 10 und 12 sowie Physik-Lehramtstudierenden im Grundstudium mit Hilfe eines Fragebogens erhoben und unter Verwendung inhaltsanalytischer bzw. statistischer Methoden ausgewertet. Die Ergebnisse zeigen unter Anderem, dass Mathematik im Physikunterricht entgegen gängiger Meinungen bei den Lernenden nicht negativ, aber zumindest bei jüngeren Lernenden formal und algorithmisch konnotiert ist.
Die vorliegende Studie beschäftigt sich mit der Planung und Durchführung des Lernprozesses von Schauspielern, wobei das Hauptaugenmerk auf dem Einsatz von Lernstrategien liegt. Es geht darum, welcher Strategien sich professionell Lernende bedienen, um die für die Berufsausübung erforderliche Textsicherheit zu erlangen, nicht um die Optimierung des Lernerfolges.
Die Literaturrecherche machte deutlich, dass aktuelle Studien zum Lernen von Erwachsenen vor allem im berufsspezifischen Kontext angesiedelt sind und sich auf den Erwerb von Kompetenzen, Problemlösestrategien und gesellschaftliche Teilhabe beziehen. Dem Lernen von Schauspielern liegt aber keine Absicht einer Verhaltensänderung oder eines konkreten Wissenszuwachses zugrunde.
Für Schauspieler ist der Auftritt Bestandteil ihrer Berufskultur. Angesichts der Tatsache, dass präzisem Faktenwissen als Grundlage für kompetentes, überzeugendes Präsentieren entscheidende Bedeutung zukommt, sind die Ergebnisse der Studie auch für Berufsgruppen relevant, die öffentlich auftreten müssen, wie z. B. für Priester, Juristen und Lehrende. Das gilt ebenso für Schüler und Studenten, die Referate halten und/oder Arbeiten präsentieren müssen.
Für die empirische Untersuchung werden zwölf renommierte Schauspieler mittels problemzentriertem Interview befragt, anschließend wird eine qualitative Inhaltsanalyse durchgeführt.
In der Auswertung der Daten kann ein deutlicher Zusammenhang zwischen Körper und Sprechpraxis nachgewiesen werden. Ebenso ergibt die Analyse, wie wichtig Bewegung für den Lernprozess ist. Es können Ergebnisse in Bezug auf kognitive, metakognitive und ressourcenorientierte Strategien generiert werden, wobei der Lernumgebung und dem Lernen mit Kollegen entscheidende Bedeutung zukommt.
Das Ziel der Arbeit ist die Darstellung der preußischen Mittelschule für den Zeitraum von 1872 bis 1945. Neben der strukturell-curricularen Entwicklung dieser Schulform werden die Bereiche ‚Chemieunterricht’ und ‚Lehrerausbildung’ schwerpunktmäßig untersucht. Vorgeschaltet ist eine Analyse und Darstellung der zur Mittelschule hinführenden Entwicklung mit ihren politischen, wirtschaftlichen und sozialen Bedingungen. Die für die Strukturierung der Arbeit gewählte Phaseneinteilung orientiert an den bildungspolitischen Zäsuren, die durch die jeweiligen staatlichen ‚Bestimmungen’ charakterisiert sind. Mit diesen in den Jahren 1872, 1910, 1925, 1938 und 1942 vorgelegten Bestimmungen wurde das Mittelschulwesen jeweils neu geordnet. Schwerpunkt der benutzten Quellen ist, die Verbandszeitschrift der Mittelschullehrer, die „Die Mittelschule“. Weiter wurden zeitgenössische Quellen und Literatur sowie pädagogische Zeitschriften für die Analysen benutzt. Untersuchungsschwerpunkt ist die Darstellung der preußischen Mittelschule unter dem Aspekt der bildungspolitischen Institutionalisierung im Jahre 1872. Ein weiterer Untersuchungsschwerpunkt ist der Chemieunterricht. Als bedeutungsvoll für diesen Unterricht müssen die Diskussionen im Untersuchungszeitraum gesehen werden, die über inhaltliche Fragen und die methodische Gestaltung des Unterrichts geführt wurden. Der Einsatz der Schulbücher wird hierbei besonders berücksichtigt. Die Situation der Lehrer wird unter dem Aspekt ihrer Ausbildung untersucht. Als Mittelschullehrer wurden vornehmlich Volksschullehrer eingesetzt, die sich autodidaktisch auf die Prüfung zum Mittelschullehrer vorbereiten mussten. Die Verweigerung einer identitätsstiftenden schulformbezogenen Lehrerausbildung hat der Mittelschule die Möglichkeit genommen, sich frühzeitig zu einer selbständig-unabhängigen Schulform zu entwickeln. Bedeutungsvoll ist das festgestellte Verhalten der Lehrerschaft dieser Schulform in den unterschiedlichen politischen Systemen. In den zeitlichen Phasen steht die Mittelschule als eine zwischen Elementarschule und Gymnasium sich emanzipierende Schulform. Die Ambivalenz in der Stellung äußert sich in dem wechselvollen Verhalten zwischen Standesschule und Öffnung für andere gesellschaftliche Schichten. Im Zusammenhang mit der Verweigerung der Berechtigungen muss die Mittelschule als Anstalt zur Befriedigung der Bildungsansprüche mittlerer Schichten gesehen werden. Sie wurde aber auch als schulischer Abwehrmechanismus der oberen Schichten gegenüber unteren gesellschaftlichen Schichten instrumentalisiert.
Ghana ist ein Musterbeispiel dafür, dass ein Entwicklungsland den Weg zu Good Governance schaffen kann. In vielen Studien wird dem Land im afrikanischen Vergleich heute bescheinigt, hier ein Vorreiter zu sein. Dies ist Ausgangslage der vorliegenden Studie, die der Frage nachgeht „Welche Gründe, Muster und Bedingungen führen zur Entstehung von Good Governance?“. Im Zentrum der vorliegenden Studie steht, wie aus der erkenntnisleitenden Fragestellung hervorgeht, eine empirische Untersuchung zur Entstehung von Good Governance und damit ein Transformationsprozess. Dieser wird bewusst über einen sehr langen Zeitraum (über ein halbes Jahrhundert) untersucht, um auch langfristige Entwicklungen einbeziehen zu können. Die Studie wird mit Hilfe eines „Mixed-Methods-Ansatzes“ sowohl unter Rückgriff auf quantitative als auch auf qualitative Methoden durchgeführt, was sich im Rückblick als sehr ertragreich erwiesen hat. Zunächst wird die Qualität der Governance über den gesamten Zeitraum anhand von sechs Indikatoren gemessen. Danach werden qualitativ die Gründe für die Fort- und Rückschritte analysiert. Dabei lassen sich immer wieder Systematiken herausarbeiten, wie zum Beispiel zirkuläre Entwicklungen, die über viele Jahre den Weg hin zu Good Governance verhinderten, bis jeweils Ausbrüche aus den Kreisläufen geschafft werden konnten. Sowohl in der demokratischen und rechtsstaatlichen Entwicklung als auch bezogen auf die Versorgung der Bevölkerung mit öffentlichen Gütern und die wirtschaftliche Entwicklung. Auch wenn die verschiedenen Bereiche von Good Governance zunächst einzeln untersucht werden, so zeigen sich gleichzeitig deutlich die Wechselwirkungen der Komponenten. Zum Beispiel kristallisiert sich klar heraus, dass Rechtsstaatlichkeit sowohl auf die Stabilität politischer Systeme wirkt, als auch auf die wirtschaftliche Entwicklung. Ebenso beeinflussen diese wiederum die Korruption. Ähnliche Verknüpfungen lassen sich auch bei allen anderen Bereichen nachvollziehen. Die Entwicklung eines Landes kann also nur unter Berücksichtigung eines komplexen Governance-Systems verstanden und erklärt werden. Dabei können die Wechselwirkungen entweder konstruktiv oder destruktiv sein. Die Verflechtungen der einzelnen Bereiche werden in einem Negativ- und dann in einem Positiv-Szenario festgehalten. Diese Idealtypen-Bildung spitzt die Erkenntnisse der vorliegenden Arbeit zu und dient dem analytischen Verständnis der untersuchten Prozesse. Die Untersuchung zeigt, wie Good Governance über das Zusammenspiel verschiedener Faktoren entstehen kann und dass es wissenschaftlich sehr ertragreich ist, Transformationsforschung auf ein komplexes Governance-System auszuweiten. Hierbei werden die vielen empirisch erarbeiteten Ergebnisse zu den einzelnen Transformationen zu komplexen, in sich greifenden Gesamtszenarien zusammengeführt. Da es bisher keine explizite Good Governance-Transformationsforschung gab, wurde hiermit ein erster Schritt in diese Richtung getan. Es wird darüber hinaus deutlich, dass eine Transformation zu Good Governance nicht durch eine kurzfristige Veränderung der Rahmenbedingungen zu erreichen ist. Es geht um kulturelle Veränderungen, um Lernprozesse, um langfristige Entwicklungen, die in der Studie am Beispiel Ghana analysiert werden. In vielen vorangegangenen Transformationsstudien wurde diese zeitliche Komponente vernachlässigt. Ghana hat bereits viele Schritte getan, um einen Weg in die Zukunft und zu Good Governance zu finden. Die Untersuchung dieser Schritte ist Kern der vorliegenden Arbeit. Der Weg Ghanas ist jedoch noch nicht abgeschlossen.
Balance ist als die koordinative Fähigkeit anzusehen, die am meisten durch das Sinnes- und Nervensystem determiniert ist. Damit könnte sie als Indikator für Funktionseinschränkungen des Nervensystems - etwa bei Lernstörungen - von Wert sein. Aussagen über Zusammenhänge zwischen Balance und Kognition werden vielfach diskutiert, sind jedoch noch nicht hinreichend wissenschaftlich gesichert. Hieraus wird die zentrale Zielstellung der Arbeit abgeleitet, das Wissen über somatische und psychische Determinanten von Balance zu erweitern. Betrachtet werden daher bei Vorschulkindern mögliche Zusammenhänge mit dem Geschlecht, mit den anthropometrischen Parametern Körperhöhe und Fußgröße, mit Statikstörungen des Beckens und der Intelligenzleistung. An der Studie nahmen insgesamt 201 drei- bzw. vierjährige Kinder sowie 148 fünf- bzw. sechsjährige Kinder teil. Die Balancefähigkeit wurde mit Hilfe einer Kraftmomentenplattform sowie eines klinischen Tests erfasst und mit anthropometrischen Parametern, qualitativen statischen Befunden bzw. den Ergebnissen des BIVA-Intelligenztests nach SCHAARSCHMIDT verglichen. Für die Auswertung der Balanceparameter wurden sowohl lineare als auch nichtlineare Verfahren eingesetzt, die zum Teil gegenläufige Trends in Bezug auf Zusammenhänge lieferten. Im Ergebnis konnte ein starker Einfluss des Geschlechts nachgewiesen werden. Mädchen zeigten eine bessere Balanceleistung als Jungen sowohl bei 3-Jährigen als auch bei 6-Jährigen. Dies wird als Beleg für den geschlechtsspezifischen Vorsprung der sensomotorischen Entwicklung bei den Mädchen im Alter von 3 bis 6 Jahren angesehen. Außerdem gab es einige Hinweise auf einen Zusammenhang mit der Körperhöhe bzw. Fußlänge. Ein Zusammenhang mit den Umstellungen des ersten Gestaltwandels wird vermutet. Die Daten sprechen für einen statistisch schwachen Einfluss von Störungen der Beckenstatik (Beckenverwringung) auf die Balance bei den Kindern. Es wird vermutet, dass die Verrechnung Balance relevanter Inputs durch nozizeptive Impulse beeinträchtig werden kann. Dies könnte Anlass sein, diesen Aspekt bei Funktionsstörungen mit zu berücksichtigen. Signifikante Zusammenhänge mit Ergebnissen des BIVA-Intelligenztests konnten kaum gefunden werden. Allerdings fallen überzufällig viele Mittelwertvergleiche in Richtung der Hypothese aus, erreichen jedoch nicht Signifikanzniveau. Dies könnte ein Hinweis auf einen schwachen Zusammenhang darstellen, der jedoch mit einer größeren Gruppe noch bestätigt werden müsste. Weitere Forschung auf diesem Gebiet ist erforderlich. Sollte hinreichende Evidenz erreicht werden können, so könnte in der Förderung koordinativer Fähigkeiten und insbesondere der posturalen Balance eine wichtige pädagogische Reserve liegen.
Die vorliegende Studie beschäftigt sich mit dem Berufseinstieg von Lehrpersonen und untersucht Zusammenhänge zwischen der Nutzung von Lerngelegenheiten, sozialer Kooperation, individuellen Determinanten und Kompetenzselbsteinschätzungen, die erstmalig in dieser Zusammenstellung überprüft worden sind.
Die Literaturrecherche machte deutlich, dass der Berufseinstieg eine besonders wichtige Phase für die berufliche Sozialisation darstellt. Die Nutzung von Lerngelegenheiten wurde empirisch noch nicht sehr oft untersucht vor allem nicht im Zusammenhang mit individuellen Determinanten und die Kooperation meist nur unter dem Fokus der Bedeutung für die Schule.
An der empirischen Untersuchung nahmen 223 berufseinsteigende Lehrkräfte aus dem Allgemeinen Pflichtschulbereich in Niederösterreich teil, die verpflichtend in den ersten beiden Dienstjahren Fortbildungen besuchen müssen. Diese Situation ist einzigartig in Österreich, da es nur in diesem Bundesland seit 2011 eine verpflichtend zu besuchende Berufseinstiegsphase gibt. Ab 2019 wird es in Österreich eine Induktionsphase für alle Lehrkräfte geben, die in den Beruf einsteigen.
Mit Hilfe von Strukturgleichungsmodellen wurden die Zusammenhänge untersucht und es zeigte sich, dass es diese in allen Bereichen gibt. Am Ende konnte ein neues Theoriemodell zur Nutzung von Lerngelegenheiten abgeleitet werden, das sich in Theorien zu professionellen Kompetenzentwicklung und zu Lernen in Aus-, Fortund Weiterbildung einordnen lässt.
Problemstellung: Schuleingangsuntersuchungen belegen zunehmend Defizite in der motorischen und kognitiven Entwicklung von Einschülern. Im Hinblick auf Präventivmaßnahmen gilt dem motorischen und kognitiven Entwicklungsstand von Vorschulkindern ein verstärktes Forschungsinteresse. Die bisherige Wissensbasis soll mit aktuellen Untersuchungsergebnissen zum Zusammenhang von Motorik und Kognition bei Vorschulkindern erweitert werden. Methodik: Untersucht wurden 101 Kinder in vier Potsdamer Kitas im Alter von 3,5-4,6 Jahren. Zur Überprüfung der koordinativen und konditionellen Fähigkeiten wurden Standweitsprung, Sechs-Meter-Lauf, Balancieren, Einbeinstand und Seitliches Umsetzen sowie Handkoordination eingesetzt (KTK; Kiphard & Schilling 1972; Vogt 1978). Zusätzlich wurden in Anlehnung an das Brain-Gym-Konzept (Dennison 1984) körpermitteüberschreitende Armbewegungen qualitativ bewertet und auf Validität und Reliabilität geprüft. Die kognitiven Fähigkeiten wurden mit dem Bildbasierten Intelligenztest getestet (Schaarschmidt, Ricken, Kieschke & Preuß 2004). Ergebnisse: Jungen sind deutlich schneller und kräftiger als Mädchen, können aber geringfügig schlechter balancieren und feinkoordinieren. Ein Entwicklungssprung in den motorischen Leistungen ab dem vierten Lebensjahr konnte nachgewiesen werden. Weiterhin zeigte sich ein positiver signifikanter Zusammenhang zwischen der Gleichgewichtsfähigkeit und kognitiven Fähigkeiten bei den männlichen 3,5-Jährigen (r=.28-r=.32; p=0,01). Dies bestätigt: Je jünger die Kinder, desto stärker der Zusammenhang von Motorik und Intelligenz. Bei einseitiger Testung zeigten sich schwache signifikante Korrelationen von kognitiven Leistungen der Kinder und Qualifikation der Eltern (r=.18 - r=.21; p=0,01). Die Qualitative Bewertung der Arm- und Handbewegungen eignet sich wegen unbestätigter Validität und Reliabilität nicht als Untersuchungsmethode im Sinne einer frühfunktionellen Diagnostik.
Die vorliegende Studie beschäftigt sich mit dem nach einer Strukturveränderung in der Sekundarstufe I entstandenen Schulmodell der Neuen Mittelschule. Untersucht wird, ob sich durch dieses Schulmodell und der damit intendierten neuen Lehr-, Lern- und Prüfungskultur Zusammenhänge zwischen gemessenen mathematischen Kompetenzen der Schüler und den durch Lehrer vergebenen Jahresnoten feststellen lassen.
Die Literaturrecherche macht deutlich, dass die Kritik an der Monokultur des leh-rerzentrierten Unterrichts zwar zu einer neuen Lehr-, Lern- und Prüfungskultur führt, deren Inhalte sind aber recht unterschiedlich, komplex und nicht eindeutig definiert. In der NMS soll die Leistungsbewertung als Lernhilfe fungieren, aber auch verlässliche Aussagen über die Leistung der Schüler treffen. Zur Wirkung der neuen Lernkultur in der NMS gibt es ebenso keine empirischen Befunde wie über die Wirkung der Leistungsbewertung.
An der empirischen Untersuchung nehmen 79 Schüler der sechsten Schulstufe aus drei Neuen Mittelschulen (dicht besiedelte, mittel besiedelte, dünn besiedelte Gemeinde) in Niederösterreich teil. In jeder Schule werden zwei Klassen untersucht. Dabei werden der Kompetenzstand in Mathematik, Schülerzentriertheit sowie Sozial- und Leistungsdruck aus Sicht der Schüler gemeinsam mit der Jah-resnote erhoben.
Für die Studie wird ein Pfadmodell entwickelt und mit einer Pfadanalyse ausge-wertet. Dabei zeigen sich zwar Zusammenhänge zwischen den gemessenen Kompetenzen in Mathematik und den Jahresnoten. Diese Jahresnoten besitzen über die Klasse bzw. die Schule hinaus aber nur eine bedingte Aussagekraft über die erbrachten Leistungen.
Diese Arbeit befasst sich mit den sogenannten relativähnlichen Sätzen im Frühneuhochdeutschen und leistet somit einen Beitrag zur Subordinationsforschung des älteren Deutsch. Relativähnliche Sätze sind formal durch ein satzinitiales anaphorisches d-Element und die Endstellung des finiten Verbs gekennzeichnet. Semantisch gesehen beziehen sie sich auf den vorangehenden Satz als Ganzes, indem sie ihn in bestimmter Weise weiterführen oder kommentieren. In der bisherigen Forschung werden diese Sätze satztypologisch als Hauptsätze mit Verbendstellung analysiert (vgl. dazu Maurer 1926, Behaghel 1932 und Lötscher 2000). Nach der ausführlichen Diskussion der formalen Abhängigkeitsmarker im älteren Deutsch sowie anhand einer umfangreichen korpusbasierten Untersuchung wird in dieser Arbeit gezeigt, dass relativähnliche Sätze im Frühneuhochdeutschen auch als abhängige Sätze - analog zu den weiterführenden Relativsätzen im Gegenwartsdeutschen - analysiert werden können. Die weiterführenden Relativsätze im Gegenwartsdeutschen enthalten satzinitial auch ein anaphorisches Element, das sich auf das Gesagte in dem vorangehenden Satz bezieht. Verbendstellung weisen sie ebenfalls auf (mehr zur Grammatik der weiterführenden Relativsätze vgl. insb. Brandt 1990 und Holler 2005). Über die Untersuchung relativähnlicher Sätze hinaus befasst sich diese Arbeit ausführlich mit formalen Abhängigkeitsmarkern des älteren Deutsch, wie Verbendstellung, Einleiter und afinite Konstruktion.
Im Fokus der bildungshistorischen und doppelbiografischen Dissertation steht die Darstellung des vielseitigen Reformengagements der Torhorst-Schwestern Adelheid und Marie im (Aus-) Bildungswesen der Weimarer Republik. Die Begriffe „Reform“ und „Engagement“ stellen tragende inhaltliche Signaturen der quellenbasierten Annäherung an das Geschwisterpaar dar. Thematisiert werden ihre Berufsbiografien in ihren jeweiligen bildungspolitischen sowie bildungspraktischen Wirkungskreisen – inmitten der ersten „echten“ deutschen Demokratie. Die Studie zielt insbesondere darauf ab, den Kreis der bildungshistorischen Repräsentantinnen für eine konstruktive Ausgestaltung des (Fort-)Bildungswesens im Sinne eines notwendigen, aber nicht realisierten Modernisierungs- und Demokratisierungsprozesses in jenem Zeitraum zu erweitern. Die Aufarbeitung des bisher in der bildungsgeschichtlichen Forschung weitestgehend unbekannten Schaffens vermag es, den vielschichtigen Bedeutungsebenen von Schulreform(en) und Reformpädagogik gerecht(er) zu werden. Die Arbeit intendiert zudem eine Horizonterweiterung des bildungshistorischen Blickfeldes – vor allem in Bezug auf bildungspolitische und schulpraktische Realisierungen von essenziellen Reformen in den Bereichen sekundärer (Aus-)Bildungseinrichtungen.
Die Schwestern bestimmten sowohl als kommunalpolitische als auch als schulpraktische Akteure die neue Praxis und die neuen Anforderungen der demokratischen Staatsform mit. Adelheid Torhorst kämpfte – über ihren kommunalen Verantwortungsradius hinausreichend – aktiv im Rahmen ihrer von 1924–1931 andauernden Mitgliedschaft im Bund der Freien Schulgesellschaften (BFS) für eine gesamte Weltlichkeit des deutschen Schul- und (Aus-)Bildungswesens. Beide Frauen mussten auf ihren Tätigkeitsebenen erfahren, dass ihre immer stärker werdenden sozialistisch geprägten Vorstellungen bezüglich der deutschen Bildungslandschaft Illusionen blieben. Vielmehr erkannten sie zunehmend einen Zusammenhang zwischen den etablierten Machtstrukturen; ein gesellschaftlicher Fortschritt, der sich in ihren Augen in einem sozial durchlässigen und weltlichen Bildungswesen formierte, erforderte vor allem strukturelle Veränderungen. Für diese jedoch gab es keine gesellschaftlichen und politischen Mehrheiten.
Die doppelbiografische Perspektive mit dem Fokus auf das Bleibende des Reformengagements sensibilisiert für gegenwärtige bildungspolitische Streitfragen. Der kritisch-reflexive Blick geht zunächst mit einer Würdigung der qualifizierenden deutschen (Aus-) Bildungslandschaft einher; schätzt die liberalen Errungenschaften wie die Entscheidungsfreiheit der Eltern in Bezug zum Besuch des Religionsunterrichts ihrer Kinder als ein Privileg einer demokratischen, sozial offenen Gesellschaft. Es braucht in einer herausfordernden Zukunft mehr denn je mutige Akteure mit progressivem Reformpotenzial. Das wegweisende Engagement der Torhorst-Schwestern stand im Kontext eines schulischen sowie gesellschaftlichen Fortschrittgedankens, der sowohl die Moderne positiv prägt und trägt, der aber auch für deren Krisen und Konflikte steht. Im gegenwärtigen (Aus-)Bildungswesen entstehen ebenso immer wieder neue Spannungen und Reformbedarfe, die es gilt, mit entsprechenden bildungspolitischen Richtlinien „von oben“ gesetzlich neu zu reglementieren – mit Leben gefüllt werden sie mit dem Engagement „von unten“.
Der W-Fragen-Erwerb stellt einen Teilbereich der kindlichen Syntaxentwicklung dar, die sich maßgeblich innerhalb der ersten drei Lebensjahre eines Kindes vollzieht. Eine wesentliche Rolle spielen dabei zwei Bewegungsoperationen, die sich auf die Position des Interrogativpronomens an die erste Stelle der W-Frage sowie die Position des Verbs an die zweite Stelle beziehen. In drei Studien wurde einerseits untersucht, ob deutschsprachige Kinder, die noch keine W-Fragen produzieren können, in der Lage sind, grammatische von ungrammatischen W-Fragen zu unterscheiden und andererseits, welche Leistungen sprachunauffällige und sprachauffällige deutschsprachige Kinder beim Verstehen und Korrigieren unterschiedlich komplexer W-Fragen (positive und negative W-Fragen) zeigen. Die Ergebnisse deuten auf ein frühes syntaktisches Wissen über W-Fragen im Spracherwerb hin und stützen damit die Annahme einer Kontinuität der kindlichen Grammatik zur Standardsprache. Auch scheinen sprachauffällige Kinder sich beim Erwerb von W-Fragen nicht qualitativ von sprachgesunden Kindern zu unterscheiden, sondern W-Fragen lediglich später korrekt umzusetzen. In beiden Populationen konnte ein syntaktischer Ökonomieeffekt beobachtet werden, der für eine spätere Umsetzung der Verbbewegung im Vergleich zur Bewegung des W-Elementes spricht.
Im Landschaftszustand und in der Landschaftsentwicklung kommen funktionale Beziehungen zwischen dem naturbedingten Energie-, Wasser- und Stoffhaushalt einerseits und den Auswirkungen der Landnutzung andererseits zum Ausdruck. Gegenwärtig verändert der globale Anstieg der bodennahen Temperaturen vielerorts den landschaftlichen Energie-, Wasser- und Stoffhaushalt, wobei besonders in Trockengebieten zu erwarten ist, dass dieser Trend in Verbindung mit einer unangepassten Landnutzung das Regenerationsvermögen der Vegetation einschränkt und zur Zerstörung der Bodendecke führt. Für die Mongolei und für benachbarte Gebiete Asiens sind in Szenarien zur globalen Erwärmung hohe Werte des Temperaturanstiegs prognostiziert worden. Eine globale Einschätzung der anthropogen induzierten Bodendegradation hat diese Region als stark oder extrem stark betroffen eingestuft. Vor diesem Hintergrund wurde im Uvs-Nuur-Becken, das im Nordwesten der Mongolei und damit in einer der trockensten Regionen des Landes gelegen ist, untersucht, wie sich der globale Temperaturanstieg auf der lokalen und regionalen Ebene widerspiegelt und wie der Landschaftshaushalt dabei verändert wird. Die Auswirkungen des sommerlichen Witterungsverlaufes auf den Landschaftszustand sind 1997 bis 1999 an einem Transsekt erfasst worden, das sich zwischen dem Kharkhiraa-Gebirge am Westrand des Beckens und dem See Uvs Nuur im Beckeninneren von den Polsterfluren und Matten der alpinen Stufe über die Gebirgswaldsteppe, die Trockensteppe bis zur Halbwüste erstreckt. An neun Messpunkten wurden witterungsklimatische Daten in Verbindung mit Merkmalen der Vegetation, des Bodens und der Bodenfeuchte aufgenommen. Die im Sommer 1998 gewonnenen Messwerte wurden mit Hilfe einer Clusteranalyse gebündelt und verdichtet. Auf dieser Grundlage konnten landschaftliche Zustandsformen inhaltlich gekennzeichnet, zeitlich eingeordnet und durch Zeit-Verhaltens-Modelle (Stacks) abgebildet werden. Aus den Zeit-Verhaltens-Modellen wird ersichtlich, dass man Zustandsformen, in denen die Hitze und die Trockenheit des Sommers 1998 besonders stark zum Ausdruck kommen, an allen Messpunkten beobachten kann, nimmt man die Station auf dem fast 3.000 m hohen Gipfel des Khukh Uul sowie die grundwasserbeeinflusste Station in unmittelbarer Seenähe aus. In ihrer extremen Form sind Trockenperioden jedoch nur im Beckeninneren und am Fuß der Randgebirge, also in der Halbwüste, in der Trockensteppe und in der Wiesensteppe aufgetreten. Im Bergwald sowie im Bereich der alpinen Matten und Polsterfluren fehlen sie. Am stärksten sind die grundwasserfreien Bereiche der Halbwüste von der Hitze und Niederschlagsarmut des Sommers 1998 betroffen. An vier Fünfteln der Tage des Beobachtungszeitraumes herrscht an diesem Messpunkt extreme Trockenheit. Es fällt entweder gar kein Niederschlag oder nur so wenig, dass der seit dem Frühjahr erschöpfte Bodenwasservorrat nicht aufgefüllt wird. Das Verhältnis zwischen Niederschlag und potenzieller Verdunstung liegt hier bei 1:12. In der Halbwüste zeichnet sich eine fortschreitende Desertifikation ab, zumal hier eine nichtangepasste Weidenutzung dominiert, in der Ziegen eine immer größere Rolle spielen. Dies gilt insbesondere für Bereiche in Siedlungsnähe. Örtlich ist auch der Bestand der Trockensteppe gefährdet, die sich an die Halbwüste zum Beckenrand hin anschließt. Hier ist nicht nur die Viehdichte am höchsten, sondern hier werden auch die meisten unbefestigten Fahrwege wild angelegt und die Bodendecke damit zerstört. Dies kann im Endeffekt zu einem Übergreifen von Prozessen der Desertifikation führen. Aus methodischer Sicht zeigt sich, dass die Kennzeichnung landschaftlicher Zustandsformen durch Zeit-Verhaltens-Modelle die Ermittlung der Auswirkungen von Witterung und Klima auf den Landschaftszustand erleichtert, da sie deren Aussage konzentriert. Zur Interpretation der Ergebnisse ist jedoch ein Rückgriff auf die beschreibende Darstellung der Messwerte notwendig. Die im westlichen Uvs-Nuur-Becken und seinen Randgebirgen angewandte Verfahrensweise ermöglicht es, globale Aussagen zur globalen Erwärmung der Kontinente regional oder lokal zu überprüfen und zu untersetzen."
Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion
(2021)
Wir leben in einer Gesellschaft, die von einem stetigen Wunsch nach Innovation und Fortschritt geprägt ist. Folgen dieses Wunsches sind die immer weiter fortschreitende Digitalisierung und informatische Vernetzung aller Lebensbereiche, die so zu immer komplexeren sozio-technischen Systemen führen. Ziele dieser Systeme sind u. a. die Unterstützung von Menschen, die Verbesserung ihrer Lebenssituation oder Lebensqualität oder die Erweiterung menschlicher Möglichkeiten. Doch haben neue komplexe technische Systeme nicht nur positive soziale und gesellschaftliche Effekte. Oft gibt es unerwünschte Nebeneffekte, die erst im Gebrauch sichtbar werden, und sowohl Konstrukteur*innen als auch Nutzer*innen komplexer vernetzter Technologien fühlen sich oft orientierungslos. Die Folgen können von sinkender Akzeptanz bis hin zum kompletten Verlust des Vertrauens in vernetze Softwaresysteme reichen. Da komplexe Anwendungen, und damit auch immer komplexere Mensch-Technik-Interaktionen, immer mehr an Relevanz gewinnen, ist es umso wichtiger, wieder Orientierung zu finden. Dazu müssen wir zuerst diejenigen Elemente identifizieren, die in der Interaktion mit vernetzten sozio-technischen Systemen zu Komplexität beitragen und somit Orientierungsbedarf hervorrufen.
Mit dieser Arbeit soll ein Beitrag geleistet werden, um ein strukturiertes Reflektieren über die Komplexität vernetzter sozio-technischer Systeme im gesamten Konstruktionsprozess zu ermöglichen. Dazu wird zuerst eine Definition von Komplexität und komplexen Systemen erarbeitet, die über das informatische Verständnis von Komplexität (also der Kompliziertheit von Problemen, Algorithmen oder Daten) hinausgeht. Im Vordergrund soll vielmehr die sozio-technische Interaktion mit und in komplexen vernetzten Systemen stehen. Basierend auf dieser Definition wird dann ein Analysewerkzeug entwickelt, welches es ermöglicht, die Komplexität in der Interaktion mit sozio-technischen Systemen sichtbar und beschreibbar zu machen.
Ein Bereich, in dem vernetzte sozio-technische Systeme zunehmenden Einzug finden, ist jener digitaler Bildungstechnologien. Besonders adaptiven Bildungstechnologien wurde in den letzten Jahrzehnten ein großes Potential zugeschrieben. Zwei adaptive Lehr- bzw. Trainingssysteme sollen deshalb exemplarisch mit dem in dieser Arbeit entwickelten Analysewerkzeug untersucht werden. Hierbei wird ein besonderes Augenmerkt auf den Einfluss von Adaptivität auf die Komplexität von Mensch-Technik-Interaktionssituationen gelegt. In empirischen Untersuchungen werden die Erfahrungen von Konstrukteur*innen und Nutzer*innen jener adaptiver Systeme untersucht, um so die entscheidenden Kriterien für Komplexität ermitteln zu können. Auf diese Weise können zum einen wiederkehrende Orientierungsfragen bei der Entwicklung adaptiver Bildungstechnologien aufgedeckt werden. Zum anderen werden als komplex wahrgenommene Interaktionssituationen identifiziert. An diesen Situationen kann gezeigt werden, wo aufgrund der Komplexität des Systems die etablierten Alltagsroutinen von Nutzenden nicht mehr ausreichen, um die Folgen der Interaktion mit dem System vollständig erfassen zu können. Dieses Wissen kann sowohl Konstrukteur*innen als auch Nutzer*innen helfen, in Zukunft besser mit der inhärenten Komplexität moderner Bildungstechnologien umzugehen.
Die Ausprägung der Lateralität der Körperextremitäten steht in engem Zusammenhang mit der Hemisphärenspezialisierung des menschlichen Gehirns. Die Lateralität und die Dominanz einer Hemisphäre mit ihren Auswirkungen auf die Leistungsfähigkeit ist ein bislang unvollständig untersuchtes Phänomen im Sport. In der vorliegenden Arbeit soll daher die Bedeutung der Seitigkeitsausprägung im Rahmen sportlicher Bewegungsabläufe geprüft werden. Sowohl bei Messungen im "Freiwasser", als auch in der "Kanu–Gegenstromanlage" im Bereich des Kanurennsportes werden seit einigen Jahren sich in Qualität und Quantität unterscheidende Kraft–Zeit–Funktionen der linken und rechten Körperseite beobachtet, die zwar dokumentiert, aber bislang ungeprüft in ihrer Bedeutung als leistungsbeeinflussend angenommen werden. Im Zeitraum von Oktober 1997 bis Oktober 2000 wurden 275 Kajakfahrer und Canadierfahrer im Alter zwischen 11 und 20 Jahren zweimal jährlich (März und Oktober) mit einem umfangreichen trainings- und bewegungswissenschaftlichen sowie biomechanischen Instrumentarium untersucht. Die Athleten gehören zum Nachwuchs- und Anschlusskader des LKV Brandenburg. Schwerpunkt der Fragestellung ist der Zusammenhang von auftretenden Kraftdifferenzen zwischen der linken und rechten oberen Extremität und sportartspezifischen Leistungen unter Laborbedingungen und Feldbedingungen. Es wurden objektive Daten zu ausgewählten Kraftfähigkeiten der oberen Arm–Beuge–Schlinge an einem Kraftdiagnosegerät, Kraftverläufe am Messpaddel während Leistungsüberprüfungen im "Kanu–Gegenstromkanal" und im "Freiwasser" über 250 m und 2.000 m im Jahresverlauf erhoben. Die Ergebnisse zeigen einen Trend der im Altersverlauf ansteigenden Differenz der Mittelwertunterschiede in der Maximalkraft zwischen dem linken und rechten Arm. Bei bestehenden Maximalkraftdifferenzen zwischen linker und rechter oberer Extremität in der Längsschnittgruppe liegen die Leistungen mit dem rechten Arm deutlich über den Kraftleistungen des linken Arms und sind nicht zufällig. Mit steigendem Maximalkraftniveau nimmt überraschenderweise auch die Differenz der Maximalkraft zwischen der linken und rechten oberen Extremität trotz bilateralen Trainings zu. Die Ergebnisse der EMG–Analyse bestätigen, dass die Maximalkraft leistungsbestimmend für die Bootsleistungen ist. In den EMG–Signalverläufen werden die unterschiedlichen Belastungen der Labor– und Feldbedingungen mit individuellen Charakteristika nachgezeichnet. Deutlich unterscheiden sich die Kraftverläufe im "Freiwasser" gegenüber den Kraftverläufen in der "Kanu–Gegenstromanlage". Bei der vorliegenden Untersuchung handelt es sich um eine erste empirische Arbeit zur Auswirkung von Seitigkeitsunterschieden in zyklischen Sportarten auf der Expertiseebene. In der Untersuchung wurden methodische Verfahren eingesetzt, die dem derzeitigen Forschungsstand in der Trainings- und Bewegungswissenschaft entsprechen. Neben varianzanalytischen Verfahren der Auswertung zur Darstellung von Mittelwertunterschieden und Zusammenhänge prüfenden Verfahren wurden ebenso explorative EMG–Analysen angewandt. Die Ergebnisse aus dem Längsschnitt belegen bei ausschließlich rechtshändigen Probanden, dass die Schlussfolgerung von bevorzugter Extremität auf ein höheres Kraftniveau nicht eineindeutig ist. Zwischen den oberen Extremitäten bei Kanurennsportlern bestehen nicht nur zufällige Kraftunterschiede, trotz des bilateralen Trainings. Kontrovers diskutiert wird die Beziehung von bevorzugter Extremität und der Höhe der Kraftentfaltung. Im Alltagsverständnis wird häufig angenommen, dass ein höheres Maximalkraftniveau in der Extremität vorliegen muss, die auch die bevorzugte (z.B. Schreibhand) ist (WIRTH & LIPHARDT, 1999). Diese Eindeutigkeit konnte in der durchgeführten Untersuchung nicht bestätigt werden. Wie die Ergebnisse dieser Untersuchung deutlich zeigen, nimmt mit der höheren Maximalkraft aber auch die Differenz der Kraftleistungen zwischen dem linken und rechten Arm bei bilateral ausgerichtetem Training zu. FISCHER (1988; 1992) wies nach, dass sich ein Training auf der subdominanten Seite in einem kontralateralen Leistungstransfer auf der dominanten Seite positiv auswirkte. Erkenntnisse von KUHN (1986) und HOLLMANN & HETTINGER (2000) unterstützen nachhaltig die Ergebnisse. Die EMG–Ergebnisse zeigen die individuelle Reaktion auf die Belastungsanforderungen. Die elektromyographischen Daten beziehen sich auf den neuromuskulären Komplex. Somit sprechen hohe Amplitudenwerte einerseits für eine hohe Innervation der beteiligten motorischen Einheiten an der Bewegungsausführung und andererseits für einsetzende Ermüdungserscheinungen im Muskel. In Bezug auf die Ermüdung der oberen Extremitätenmuskeln der rechten und linken Seite beschreiben WILLIAMS, SHARMA & BILODEAU (2002) keine signifikanten Unterschiede zwischen der dominanten und nichtdominanten Handseite.
Die Frage nach der Herkunft und der dynamischen Entwicklung langlebiger kosmischer Magnetfelder ist in vielen Details noch unbeantwortet. Es besteht zwar kein Zweifel daran, dass das Magnetfeld der Erde und anderer kosmischer Objekte durch den sogenannten Dynamoeffekt verursacht werden, der genaue Mechanismus als auch die notwendigen Voraussetzungen und Randbedingungen der zugrundeliegenden Strömungen sind aber weitgehend unbekannt. Die für einen Dynamo interessanten Strömungsmuster, die im Inneren von Himmelskörpern durch Konvektion und differentielle Rotation entstehen, sind Konvektionsrollen parallel zur Rotationsachse. Auf einer Strömung mit eben solcher Geometrie, der sogenannten Roberts-Strömung, basieren die in der vorliegenden Arbeit untersuchten Dynamomodelle. Mit Methoden der nichtlinearen Dynamik wird versucht, das Systemverhalten bei Änderung der Systemparamter genauer zu charakterisieren. Die numerischen Untersuchungen beginnen mit einer Analyse der Dynamoaktivität der Roberts-Strömung in Abhängigkeit von den zwei freien Parametern in den Modellgleichungen, der magnetischen Prandtl-Zahl und der Stärke des Energieinputs. Gefunden werden verschiedene Lösungstypen die von einem stationären Magnetfeld über periodische bis zu chaotischen Zuständen reichen. Die yugrundeliegenden Symmetrien werden beschrieben und die Bifurkationen, die zum Wechsel der Lösungstypen führen, charakterisiert. Zusätzlich gibt es Bereiche bei sehr kleinen Prandtl-Zahlen, in denen überhaupt kein Dynamo existiert. Dieses Verhalten wird in der Literatur auch für viele andere numerisch ausgewertete Modelle beschrieben. Im Übergangsbereich zwischen dynamoaktivem und dynamoinaktivem Bereich wird das Auftreten einer sogenannten Blowout-Bifurkation gefunden. Desweiteren beschäftigt sich die Arbeit mit der Frage, inwiefern Helizität, also eine schraubenförmige Bewegung, der Strömung den Dynamoeffekt beeinflusst. Dazu werden ähnliche Strömungstypen verglichen, die sich hauptsächlich in ihrem Helizitätswert unterscheiden. Es wird gefunden, dass ein bestimmter Wert der Helizität nicht unterschritten werden darf, um einen stabilen Roberts-Dynamo zu erhalten.
Einleitung & Problemstellung: Beschwerden nach Beschleunigungsverletzungen der Halswirbelsäule sind oft nur unzureichend einzuordnen und diagnostizierbar. Eine eindeutige Diagnostik ist jedoch für eine entsprechende Therapie wie auch möglicherweise entstehende versicherungsrechtliche Forderungen notwendig. Die Entwicklung eines geeigneten Diagnoseverfahrens liegt damit im Interesse von Betroffenen wie auch Kostenträgern. Neben Störungen der Weichteilgewebe ist fast immer die Funktion der Halsmuskulatur in Folge eines Traumas beeinträchtigt. Dabei wird vor allem die sensorische Funktion der HWS-Muskulatur, die an der Regulation des Gleichgewichts beteiligt ist, gestört. In Folge dessen kann angenommen werden, dass es zu einer Beeinträchtigung der Gleichgewichtsregulation kommt. Die Zielstellung der Arbeit lautete deshalb, die möglicherweise gestörte Gleichgewichtsregulation nach einem Trauma im HWS-Bereich apparativ zu erfassen, um so die Verletzung eindeutig diagnostizieren zu können. Methodik: Unter Verwendung eines posturographischen Messsystems mit Kraftmomentensensorik wurden bei 478 Probanden einer Vergleichsgruppe und bei 85 Probanden eines Patientenpools Kraftmomente unter der Fußsohle als Äußerung der posturalen Balanceregulation aufgezeichnet. Die gemessenen Balancezeitreihen wurden nichtlinear analysiert, um die hohe Variabilität der Gleichgewichtsregulation optimal zu beschreiben. Über die dabei gewonnenen Parameter kann überprüft werden, ob sich spezifische Unterschiede im Schwankungsverhalten anhand der plantaren Druckverteilung zwischen HWS-Traumatisierten und den Probanden der Kontrollgruppe klassifizieren lassen. Ergebnisse: Die beste Klassifizierung konnte dabei über Parameter erzielt werden, die das Schwankungsverhalten in Phasen beschreiben, in denen die Amplitudenschwankungen relativ gering ausgeprägt waren. Die Analysen ergaben signifikante Unterschiede im Balanceverhalten zwischen der Gruppe HWS-traumatisierter Probanden und der Vergleichsgruppe. Die höchsten Trennbarkeitsraten wurden dabei durch Messungen im ruhigen beidbeinigen Stand mit geschlossenen Augen erzielt. Diskussion: Das posturale Balanceverhalten wies jedoch in allen Messpositionen eine hohe individuelle Varianz auf, so dass kein allgemeingültiges Schwankungsmuster für eine Gruppengesamtheit klassifiziert werden konnte. Eine individuelle Vorhersage der Gruppenzugehörigkeit ist damit nicht möglich. Die verwendete Messtechnik und die angewandten Auswerteverfahren tragen somit zwar zu einem Erkenntnisgewinn und zur Beschreibung des Gleichgewichtsverhaltens nach HWS-Traumatisierung bei. Sie können jedoch zum derzeitigen Stand für den Einzelfall keinen Beitrag zu einer eindeutigen Bestimmung eines Schleudertraumas leisten.
In dieser Arbeit wurden die Möglichkeiten und Grenzen für Zirkulardichroismus-Messungen mit Synchrotronstrahlung untersucht. Dazu wurde ein Messaufbau für Zirkulardichroismus-Messungen an zwei Strahlrohren am Berliner Elektronenspeicherring für Synchrotronstrahlung eingesetzt, die für Messungen im Bereich des ultravioletten Lichts geeignet sind. Eigenschaften der Strahlrohre und des Messaufbau wurden in einigen wichtigen Punkten mit kommerziellen Zirkulardichroismus-Spektrometern verglichen. Der Schwerpunkt lag auf der Ausdehnung des zugänglichen Wellenlängenbereichs unterhalb von 180 nm zur Untersuchung des Zirkulardichroismus von Proteinen in diesem Bereich. In diesem Bereich ist es nicht nur die Lichtquelle sondern vor allem die Absorption des Lichts durch Wasser, die den Messbereich bei der Messung biologischer Proben in wässriger Lösung einschränkt. Es wurden Bedingungen gefunden, unter denen der Messbereich auf etwa 160 nm, in einigen Fällen bis auf 130 nm ausgedehnt werden konnte. Dazu musste die Pfadlänge deutlich reduziert werden und verschieden Probenküvetten wurden getestet. Der Einfluss der dabei auftretenden Spannungsdoppelbrechung in den Probenküvetten auf das Messsignal konnte mit einem alternativen Messaufbau deutlich reduziert werden. Systematische Fehler im Messsignal und auftretende Strahlenschäden begrenzen jedoch die Zuverlässigkeit der gemessenen Spektren. Bei Proteinfilmen schränkt die Absorption von Wasser den Messbereich kaum ein. Es wurden jedoch meist deutliche Unterschiede zwischen den Spektren von Proteinfilmen und den Spektren von Proteinen in wässriger Lösung festgestellt. Solange diese Unterschiede nicht minimiert werden können, stellen Proteinfilme keine praktikable Alternative zu Messungen in wässriger Lösung dar.
Die Arbeit geht der Frage nach, wie Innovationen in einer Organisation des öffentlichen Sektors aufgenommen wurden und zu welchen Veränderungen dies führte. Im Vordergrund steht hier nicht die Innovation selbst, sondern vielmehr die Anpassungsmechanismen in der Organisation. Folgende Forschungsfragen wurden dazu gewählt:
1. Wie wurde das Instrument Zielsteuerung bzw. Zielvereinbarung im öffentlichen Sektor eingeführt und in die Managementroutinen integriert?
2. Welche Faktoren führen zu einer Integration der Zielsteuerung in die Managementroutinen?
3. Welche Empfehlungen für die Praxis lassen sich daraus ableiten?
Dazu wurde ein Landesbetrieb in Brandenburg detailliert untersucht und 31 Interviews mit Führungskräften der zweiten und dritten Managementebene geführt. In dieser Organisation wurde im Rahmen der deutschlandweiten Reformbewegung in der öffentlichen Verwaltung das Instrument Zielsteuerung bzw. Zielvereinbarung eingeführt und mit ganz konkreten Erwartungen verbunden. Als Untersuchungseinheit der möglichen Anpassungen und Veränderungen wurde das Konstrukt der Managementroutinen herangezogen, welche als kollektive Handlungsmuster ganz bewusst individuelle Verhaltensweisen ausklammerten.
Die Arbeit konnte eine Reihe von früheren Erkenntnissen bestätigen und zudem nachweisen, dass, entgegen des häufigen Vorurteils, Innovationen aus dem privatwirtschaftlichem Raum doch auch zu positiven Veränderungen in Organisationen der öffentlichen Hand führen können. Es kam hier jedoch nicht zur Entwicklung neuer, sondern zu einer Anpassung der bestehenden Routinen. Auf dieser Basis konnte festgestellt werden, dass ein stufenweiser Einführungsvorgang zunächst auf der Ebene der veränderten Zielvorstellungen der Führungskräfte zum Erfolg führte. Erst nach der Anpassung auf dieser „ostentativen“ Ebene kam es mit etwas Verzögerung zu einer Veränderung auf der Ebene der konkreten Handlungen. Im Hinblick auf die Einflussfaktoren der Innovation konnte festgestellt werden, dass viele Aspekte der Zielsetzungstheorie nach wie vor relevant sind und instabile politische Rahmenbedingungen zu wesentlichen Einschränkungen der Entfaltungsmöglichkeiten der Innovation führen können. Für viele Einflussfaktoren konnten allerdings sowohl positive als auch negative Wirkungen identifiziert werden.
Zeugenschaft im Bild
(2015)
Zentrales Anliegen der Dissertation ist, Zeugenschaft als visuelle Strategie zu beleuchten. In Abgrenzung zur These der Undarstellbarkeit der Shoah wird der Begriff der Sichtbarmachung nutzbar gemacht, um Prozesse und die Wirkung von Bildern im Zusammenhang mit Zeugenschaft herauszustellen. Ausgangspunkt dabei ist, dass bildliche Zeugnisse einen Gegenpol zu den standardisierten Visualisierungspraktiken der Shoah bieten, sprich dem historischen Bildmaterial aufgenommen durch die Alliierten und der Nationalsozialisten. In der Arbeit wird das historische Bildmaterial als Visualisierungspraxis problematisiert und visuellen Zeugnissen gegenübergestellt, die Augen- und Überlebenszeugen der Shoah, aber auch authentische Orte des Geschehens aus einer nachträglichen Perspektive zeigen. Dabei werden insbesondere zwei kritische Strategien des Umgangs mit historischen Bildern der Shoah hervorgehoben: das Hinterfragen von Archivbildern innerhalb des Films (Harun Farockis AUFSCHUB, 2007) und die Verweigerung von Archivbildern aus der Zeit des Zweiten Weltkrieges (Claude Lanzmanns SHOAH, 1985).
Seit den 1990er Jahren wird Zeugenschaft in der Forschung als philosophische, moralische und erkenntnistheoretische Kategorie in den USA, aber auch in Deutschland viel diskutiert. Dabei wurde die bild- und medienwissenschaftliche Perspektive im Zusammenhang mit Zeugenschaft kaum beleuchtet, darin liegt der Forschungsbeitrag der Arbeit. Insbesondere drei Gesichtspunkte von visueller Zeugenschaft werden herausgearbeitet: 1) die Sichtbarmachung der Überlebenden und der Orte des Geschehens im Jetzt, 2) die nichtsprachlichen Aspekte von Zeugenaussagen und 3) die Rolle des Zuschauers, der durch den Akt des Sehens in einem Imaginationsprozess eine Verknüpfung zwischen den Bildern aus der Jetztzeit und der nicht-sichtbaren Vergangenheit herstellt.
Polen nimmt eine besondere historische Rolle als Zentrum des europäischen Judentums bis zum Zweiten Weltkrieg und gleichzeitig als »Schauplatz des Holocaust« und Ort der Augenzeugenschaft ein. Maßgeblich hat Claude Lanzmanns Film SHOAH dazu beigetragen, die Konzentrations- und Vernichtungslager im Polen der Nachkriegszeit sichtbar zu machen, und damit nicht nur Generationen von polnischen Filmemachern und Künstlern nach ihm beeinflusst, sondern auch kontroverse Debatten in Polen ausgelöst. Anhand der ausgewählten Filme lässt sich in der polnischen Erinnerungskultur seit der Wende von 1989 eine Hinwendung zur polnisch-jüdischen Geschichte erkennen, die sich verstärkt mit den Fragen der polnischen Mittäterschaft und Schuld an der Shoah auseinandersetzt.
Der Untersuchungsgegenstand unterteilt sich in zwei Formate: Dokumentar- und Kunstfilm. Einerseits ist das auf ihre unterschiedlichen Produktions- und Rezeptionsbedingungen sowie die Länge der Arbeiten zurückzuführen. Andererseits bewegen sich die Kategorien auf verschiedenen Reflexionsebenen und zielen auf unterschiedliche Wirkungen beim Zuschauer ab. Während sich in den Dokumentarfilmen zum Teil explizite Bezüge (aber auch Abgrenzungen) zum Lanzmann’schen Projekt erkennen lassen, handelt es sich bei den Produktionen des zeitgenössischen Künstlers Artur Żmijewski um einen Meta-Diskurs, der auf radikale und provokative Art und Weise bestehende erinnerungskulturelle Praktiken ausstellt und kritisch hinterfragt.
Im ersten Teil der Arbeit wurden Strategien zur Analyse von Transkripten erarbeitet. Die ersten Versuche zielten darauf ab, in mit Glaskapillaren genommenen Einzelzellproben verschiedener Gewebeschichten RT-PCR durchzuführen, um spezifische Transkripte nachweisen zu können. Dies gelang für eine Reihe von Genen aus verschiedenen Pflanzenspezies. Dabei konnten sowohl Transkripte stark wie auch schwach exprimierter Gene nachgewiesen werden. Für die Erstellung von Gewebe-spezifischen Expressionsprofilen war es notwendig, die in vereinigten Zellproben enthaltene mRNA zunächst zu amplifizieren, um eine ausreichende Menge für Arrayhybridisierungen zu erhalten. Vor der Vermehrung wurde die mRNA revers transkribiert. Es wurden daran anschließend verschiedene Amplifikationsstrategien getestet: Die neben Tailing, Adapterligation und anderen PCR-basierenden Protokollen getestete Arbitrary-PCR hat sich in dieser Arbeit als einfache und einzige Methode herausgestellt, die mit so geringen cDNA-Mengen reproduzierbar arbeitet. Durch Gewebe-spezifische Array-hybridisierungen mit der so amplifizierten RNA konnten schon bekannte Expressionsmuster verschiedener Gene, vornehmlich solcher, die an der Photosynthese beteiligt sind, beobachtet werden. Es wurden aber auch eine ganze Reihe neuer offensichtlich Gewebe-spezifisch exprimierter Gene gefunden. Exemplarisch für die differentiell exprimierten Gene konnte das durch Arrayhybridisierungen gefundene Expressionsmuster der kleinen Untereinheit von Rubisco verifiziert werden. Hierzu wurden Methoden zum Gewebe-spezifischen Northernblot sowie semiquantitativer und Echtzeit-Einzelzell-RT-PCR entwickelt. Im zweiten Teil der Arbeit wurden Methoden zur Analyse von Metaboliten einschließlich anorganischer Ionen verwendet. Es stellte sich heraus, daß die multiparallele Methode der Gaschromatographie-Massenspektrometrie keine geeignete Methode für die Analyse selbst vieler vereinigter Zellinhalte ist. Daher wurde auf Kapillarelektrophorese zurückgegriffen. Eine Methode, die mit sehr kleinen Probenvolumina auskommt, eine hohe Trennung erzielt und zudem extrem geringe Detektionslimits besitzt. Die Analyse von Kohlenhydraten und Anionen erfordert eine weitere Optimierung. Über UV-Detektion konnte die K+-Konzentration in verschiedenen Geweben von A. thaliana bestimmt werden. Sie lag in Epidermis und Mesophyll mit ca. 25 mM unterhalb der für andere Pflanzenspezies (Solanum tuberosum und Hordeum vulgare) publizierten Konzentration. Weiter konnte gezeigt werden, daß zwölf freie Aminosäuren mittels einer auf Kapillarelektrophorese basierenden Methode in vereinigten Zellproben von Cucurbita maxima identifiziert werden konnten. Die Übertragung der Methode auf A. thaliana-Proben muß jedoch weiter optimiert werden, da die Sensitivität selbst bei Laser induzierter Fluoreszenz-Detektion nicht ausreichte. Im dritten und letzten Teil der Arbeit wurde eine Methode entwickelt, die die Analyse bekannter wie unbekannter Proteine in Gewebe-spezifischen Proben ermöglicht. Hierzu wurde zur Probennahme mittels mechanischer Mikrodissektion eine alternative Methode zur Laser Capture Microdissection verwendet, um aus eingebetteten Gewebeschnitten distinkte Bereiche herauszuschneiden und somit homogenes Gewebe anzureichern. Aus diesem konnten die Proteine extrahiert und über Polyacrylamidgelelektrophorese separariert werden. Banden konnten ausgeschnitten, tryptisch verdaut und massenspektrometrisch die Primärsequenz der Peptidfragmente bestimmt werden. So konnten als Hauptproteine im Mesophyll die große Untereinheit von Rubisco sowie ein Chlorophyll bindendes Protein gefunden werden. Die in dieser Arbeit entwickelten und auf die Modellpflanze Arabidopsis thaliana angewandten Einzelzellanalysetechniken erlauben es in Zukunft, physiologische Prozesse besser sowohl räumlich als auch zeitlich aufzulösen. Dies wird zu einem detaillierteren Verständnis mannigfaltiger Vorgänge wie Zell-Zell-Kommunikation, Signalweiterleitung oder Pflanzen-Pathogen-Interaktionen führen.
Im Rahmen dieser Arbeit wurden zwei humane Varianten des von Wang et al., 1999, erstmals beschriebenen muskelspezifischen Proteins Xin (Huhn und Maus) über Sequenzanalyse, Immunofluoreszenzmikroskopie, Transfektionsstudien und biochemischer Analyse näher charakterisiert. Die Proteine wurden mit human Xin related proteins 1 und 2 – hXirp1 und 2 –bezeichnet. Die Xin-Proteine enthielten bisher unbekannte, sowie spezifische, repetitive Motive, die aus jeweils mindestens 16 Aminosäuren bestanden. Ihre Aminosäuresequenz, mit einer Vielzahl weiterer putativer Motivsequenzen, verwies auf eine potentielle Funktion von hXirp als Adapterprotein in Muskelzellen. Das hier näher untersuchte hXirp1 lokalisierte an den Zell-Matrix-Verbindungen der Muskel-Sehnen-Übergangszone im Skelettmuskel, sowie an den Zell-Zell-Verbindungen der Glanzstreifen im Herzmuskel. Während der Muskelentwicklung zeigte hXirp1 eine sehr frühe Expression, zusammen mit einer prägnanten Lokalisation an den Prämyofibrillen und deren Verankerungsstrukturen, die auf eine Funktion des Proteins in der Myofibrillogenese deuten. Ektopische Expressionen von hXirp1 in einer Vielzahl von Nichtmuskel-Kulturzellen zeigten wiederum eine Lokalisation des Proteins an den Zell-Matrix-Kontakten dieser Zellen. Am Beispiel von hXirp1 und 2 wurde stellvertretend für die Familie der Xin-Proteine gezeigt, daß es sich bei den repetitiven Motiven um neuartige, F-Aktin bindende Sequenzmotive handelte. Die Xin-Proteine können somit als muskelspezifische, aktinbindende, potentielle Adapterproteine bezeichnet werden, denen eine strukturelle und funktionelle Beteiligung an der Verankerung der Myofibrillen im adulten Muskel, wie auch während der Myofibrillogenese zukommt.
Die Hochwasserereignisse der letzten Jahre haben Mängel bei der schnellen Verfügbarkeit des klassischen Darstellungs-, Entscheidungs- und Analyseinstruments Karte offenbart. Die Erfahrungen von 1997 und 2002 verdeutlichen, dass eine homogene digitale Datengrundlage, die neben rein topographischen zusätzlich auch fachspezifische Informationen des Hochwasserschutzes enthält, für eine effektive Bekämpfung solcher Ereignisse notwendig ist. Mit den Daten des ,Amtlichen Topographisch-Kartographischen Informationssystems’ (ATKIS) liegen topographische Basisdaten in graphikfreier Form als digitales Landschaftsmodell (DLM) flächendeckend für die Bundesrepublik vor. Anhand der exemplarischen Ableitung von nutzerorientierten Kartenmodellen aus diesen graphikfreien Daten wurde deren Eignung für den besonderen Verwendungszweck im Rahmen eines Hochwasserschutz-Informationssystems überprüft. Als Anwendungsbeispiel wurde das Gebiet der Ziltendorfer Niederung, die während des Oder-Hochwassers 1997 überflutet wurde, gewählt. In Expertengesprächen wurden zunächst Inhalte identifiziert, die für einen wirksamen Hochwasserschutz Relevanz besitzen; diese Inhalte wurden anschließend analog zum ATKIS-Systemdesign strukturiert und als Objekte eines separaten Objektbereichs im digitalen Fachmodell (DFM) erfasst. Bei der Ableitung von (Bildschirm-) Karten aus den graphikfreien Daten wurden jeweils unterschiedliche Kriterien für die Basiskarte und die Fachinhalte berücksichtigt. Dabei wurden verschiedene kartographische Regeln und Gesetze mit dem Ziel der prägnanten Visualisierung und damit der eindeutigen Lesbarkeit der Karten angewendet. Beispielhaft sei hier die Schaffung einer visuellen Hierarchie zwischen Basiskarte und Fachinhalten genannt. Die besonderen Nutzungsbedingungen von Karten im Einsatzfall erfordern u.a., dass die Karten auch von Personen, die nur über geringe oder keine Erfahrung im Umgang mit Karten verfügen, schnell und einfach zu lesen sind, um so eine sichere Informationsvermittlung zu gewährleisten. Voraussetzung dafür ist einerseits die Beschränkung auf die Darstellung der wesentlichen Inhalte, andererseits die Verwendung leicht lesbarer Kartenzeichen. Aus diesem Grund wurden einheitliche Kartenzeichen zur Darstellung der Fachinhalte entwickelt, die entweder aus allgemein bekannten Symbolen, aus den im Katastrophenschutz üblicherweise verwendeten sog. taktischen Zeichen oder aus Fachzeichen des Hochwasserschutzes abgeleitet wurden. Die entwickelten Kartenmodelle wurden abschließend in qualitativen Experteninterviews in Bezug auf ihre Qualität und Verwendbarkeit im Hochwasserschutz geprüft. Die Auswertung der Interviews ergab eine insgesamt positive Beurteilung der Karten für den Einsatz in Hochwasserschutz-Informationssystemen. Damit leistet die vorliegende Arbeit einen Beitrag zur Entwicklung von (Bildschirm-) Karten zur Unterstützung bei der Entscheidungsfindung im Katastrophenmanagement.
In den letzten 20 Jahren sind Evaluationen Schritt für Schritt zu einem festen und gleichzeitig kontrovers diskutierten Bestandteil politischer Förderung geworden. Auf der Basis langjähriger Beobachtungen der Evaluationspraxis des Förderprogramms „Soziale Stadt“ zeigt dieses Buch zunächst, dass Evaluationstätigkeiten in Ministerien, Kommunalverwaltungen und Planungsbüros mit ganz unterschiedlichen Erwartungen, Herausforderungen, Widersprüchen und Irritationen verknüpft werden. Evaluationen werden dabei sowohl als Hoffnungsträger, als auch als Schreckgespenst gesehen. Der Autor nimmt diese Beobachtungen zum Anlass, den Umgang mit Evaluationen in politischen Organisationen kritisch zu hinterfragen und systematisch zu erklären. Reduziert auf die Frage „Wozu Evaluation?“ wird auf der Basis eines systemtheoretischen Zugangs erklärt, welche unterschiedlichen Funktionen Evaluationen in Organisationen erfüllen können. Vertiefend wird dabei auf organisationales Lernen, auf politische Steuerungslogik und auf die Notwendigkeit von Symbolisierungen eingegangen.
Entsprechend der Zielstellung wurden zunächst verschiedene Varianten der Kompostierung von Holzsubstanz getestet, um eine optimale Technologie, die auch für Entwicklungsländer realisierbar ist, herauszufinden. Hierzu sind in Pflanztöpfe Holzspäne (Woodchips) von zwei verschieden Holzarten (Laub- und Nadelholz) gefüllt und mit verschiedenen natürlichen Stickstoffquellen gemischt worden. Diese Ansätze wurden regelmäßig mit Kompostwasser appliziert. Nach vier Wochen sind zwei verschiedene Wurmarten (Dendrobaena veneta und Eisenia fetida) hinzugegeben worden. Die Feuchthaltung erfolgte ab diesem Zeitpunkt durch Frischwasser. Die qualitativ beste Versuchsvariante ist im nächsten Schritt mit weiteren natürlichen Stickstoffquellen, die in Entwicklungsländern zur Verfügung gestellt werden könnten, getestet worden. Von allen Kompostvarianten sind im Labor eine Vielzahl von bodenphysikalischen (z.B. Dichte, Wasserhaltekapazität) und bodenchemischen Zustandsgrößen (z.B. Elektrische Leitfähigkeit, Totalgehalte biophiler Elemente, Bodenreaktion, organische Substanzgehalte, Kationenaustauschkapazität) bestimmt worden. Die Wiederum qualitativ beste Mischung ist in einer weiteren Versuchsreihe in verschiedenen Mengenverhältnissen mit tertiärerem Abraumsand des Braunkohlebergbaus gemischt worden. In diese Versuchsmischungen wurde die Grasmischung RSM 7.2.1 eingesät und regelmäßig bewässert sowie die Wuchshöhe gemessen. Nach 42 Tagen wurden das Gras geerntet und die biometrischen Parameter, die Nährstoffgehalte (pflanzenverfügbare Fraktionen), die Bodenreaktion, die effektive bzw. potentielle Kationenaustauschkapazität sowie die Pufferkapazitäten der Mischsubstrate bestimmt. Die nächsten Versuchsvarianten sind als Feldversuche in der Niederlausitz durchgeführt worden. Für ihre Realisierung wurde als weiterer Zuschlagsstoff Arkadolith® zugemischt. Die Plotflächen sind sowohl auf Abraumsanden des Tertiärs als auch Quartärs angelegt worden. In jeweils eine Subvariante ist RSM 7.2.1, in die andere eine autochthone Grasmischung eingesät worden. Diese Experimente wurden nach 6 Monaten beendet, die Bestimmung aller Parameter erfolgte in gleicher Weise wie bei den Gewächshausversuchen. Auf Basis aller Versuchsreihen konnten die besten Kompostqualitäten und ihre optimalen Herstellungsvarianten ermittelt werden. Eine weitere Aufgabe war es zu untersuchen, wie im Vergleich zur Verbrennung von Holzmasse die CO2-Emission in die Atmosphäre durch Holzkompostierung verringert werden kann. Hierzu wurde während der verschiedenen Kompostierungsvarianten die CO2-Freisetzung gemessen. Im Vergleich dazu ist jeweils die gleiche Masse an Holzsubstanz verbrannt worden. Die Ergebnisse zeigten, dass im Vergleich zu der thermischen Verwertung von Holsubstanz die CO2-Emission bis zu 50 % verringert werden kann. Dem Boden kann darüber hinaus energiereiche organische Substanz zugeführt werden, die eine Entwicklung der Bodenorganismen ermöglicht. Ein weiteres Experiment zielte darauf ab, die Stabilität der Holzkomposte zu bestimmen. Darüber hinaus sollte untersucht werden, ob durch die Zufuhr von pyrogenem Kohlenstoff eine Vergrößerung der Stabilität zu erreichen ist. Diese Untersuchungen wurden mit Hilfe der Thermogravimetrie vorgenommen. Alle wichtigen Kompostierungsvarianten sind sowohl mit verschiedenen Zusatzmengen als auch ohne Zusatz von pyrogenem Kohlenstoff vermessen worden. Als Vergleichssubstanz diente der Oberboden eines Niedermoorgleys, der naturgemäß einen relativ hohen Anteil an organischer Substanz aufweist. Die Ergebnisse zeigten, dass im Bereich niedriger Temperaturen die Wasserbindung im Naturboden fester ist. In der Fraktion der oxidierbaren organischen Substanz, im mittleren Temperaturbereich gemessen, ist die natürliche Bodensubstanz ebenfalls stabiler, was auf eine intensivere Bindung zwischen den organischen und anorganischen Bestandteilen, also auf stabilere organisch-mineralische Komplexe, schlussfolgern lässt. Im Bereich höherer Temperaturen (T> 550° C) waren im Naturboden keine nennenswerten organischen Bestandteile mehr nachweisbar. Hingegen wiesen die Kompostvarianten einen hohen Anteil stabiler Fraktionen, vor allem aromatische Verbindungen, auf. Diese Aussagen erscheinen vor allem für die praktische Anwendung der Holzkomposte in Hinblick auf ihre Langzeitwirkung bedeutsam. Der Zusatz von pyrogenem Kohlenstoff zeigte keine zusätzliche Stabilisierungswirkung.
Das Schulfach Geographie war in der DDR eines der Fächer, das sehr stark mit politischen Themen im Sinne des Marxismus-Leninismus bestückt war. Ein anderer Aspekt sind die sozialistischen Erziehungsziele, die in der Schulbildung der DDR hoch im Kurs standen. Im Fokus stand diesbezüglich die Erziehung der Kinder zu sozialistischen Persönlichkeiten. Die Arbeit versucht einen klaren Blick auf diesen Umstand zu werfen, um zu erfahren, was da von den Lehrkräften gefordert wurde und wie es in der Schule umzusetzen war.
Durch den Fall der Mauer war natürlich auch eine Umstrukturierung des Bildungssystems im Osten unausweichlich. Hier will die Arbeit Einblicke geben, wie die Geographielehrkräfte diese Transformation mitgetragen und umgesetzt haben. Welche Wesenszüge aus der Sozialisierung in der DDR haben sich bei der Gestaltung des Unterrichtes und dessen Ausrichtung auf die neuen Erziehungsziele erhalten?
Hierzu wurden Geographielehrkräfte befragt, die sowohl in der DDR als auch im geeinten Deutschland unterrichtet haben. Die Fragen bezogen sich in erster Linie auf die Art und Weise des Unterrichtens vor, während und nach der Wende und der daraus entstandenen Systemtransformation.
Die Befragungen kommen zu dem Ergebnis, dass sich der Geographieunterricht in der DDR thematisch von dem in der BRD nicht sonderlich unterschied. Von daher bedurfte es keiner umfangreichen inhaltlichen Veränderung des Geographieunterrichts. Schon zu DDR-Zeiten wurden durch die Lehrkräfte offenbar eigenmächtig ideologiefreie physisch-geographische Themen oft ausgedehnt, um die Ideologie des Faches zu reduzieren. So fiel den meisten eine Anpassung ihres Unterrichts an das westdeutsche System relativ leicht. Die humanistisch geprägte Werteerziehung des DDR-Bildungssystems wurde unter Ausklammerung des sozialistischen Aspektes ebenso fortgeführt, da es auch hier viele Parallelen zum westdeutschen System gegeben hat. Deutlich wird eine Charakterisierung des Faches als Naturwissenschaft von Seiten der ostdeutschen Lehrkräfte, obwohl das Fach an den Schulen den Gesellschaftswissenschaften zugeordnet wird und auch in der DDR eine starke wirtschaftsgeographische Ausrichtung hatte.
Von der Verantwortung sozialistische Persönlichkeiten zu erziehen, wurden die Lehrkräfte mit dem Ende der DDR entbunden und die in dieser Arbeit aufgeführten Interviewauszüge lassen keinen Zweifel daran, dass es dem Großteil der Befragten darum nicht leidtat, sie sich aber bis heute an der Werteorientierung aus DDR-Zeiten orientieren.
Wissenschaft, Technik und Medien im Werk Alfred Döblins im Kontext der europäischen Avantgarde
(2015)
Ziel dieser Studie ist es die bislang nur sporadisch untersuchten Wechselverhältnisse zwischen den Kulturbereichen Wissenschaft/Technik und Literatur am herausragenden Beispiel des Oeuvres des Schriftstellers und Arztes Alfred Döblin aufzuspüren. Hierbei scheint seine ärztlich-psychiatrische Laufbahn, die eine breite Grundlage wissenschaftlicher Diskurse anbietet, wie auch seine avantgardistische Literaturpraxis diese gegenseitige Befruchtung gefördert zu haben.
Im Hinblick auf den Forschungsgegenstand und -zweck ist ein kulturwissenschaftlicher Ansatz versucht worden. Dieser vielperspektivische Ansatz, der von der Prämisse eines Wechselspiels aller Kulturbereiche untereinander ausgeht, gestattet eine dem Gegenstand angepasste Verknüpfung von verschiedenen Arbeitsmethoden wie der philologisch-literarhistorischen mit der konstruktivistischen und der komparatistischen. Hierbei ist eine Einbeziehung wissenschafts- und technikphilosophischer Reflexion wie auch eine dementsprechend erweiterte kulturhistorische Kontextualisierung vorgenommen worden.
Die hier vorgelegte Analyse fokussiert auf wissenschaftlich-technische Bezüge sowohl in thematischer Hinsicht als auch in der Textgestaltung der schriftstellerischen Werke Döblins bis 1924. Gleichzeitig wird die diskursgeprägte, sprachliche und literarische Dimension seiner wissenschaftlichen Studien und technischer Texte - wie Krankenakte - hervorgehoben. Dieses erweiterte ‚Oeuvre‘-Konzept gestattet die Analyse der psychiatrischen, klinisch-ärztlichen und biochemischen Schriften Döblins sowie seiner Erzählwerke, seiner vielgestaltigen Publizistik und seiner intermedialen Anregungen aus den neuen audiovisuellen Medien. Dadurch wird eine diskurskritische kulturübergreifende Interdiskursivität wie auch eine ‚Hybridität‘ aller Texte aufgezeigt, die die Grundunterschiede zwischen Textsorten und Gattungsgrenzen relativiert.
Die vorliegende Arbeit befasst sich mit der wissensbasierten Modellierung von Audio-Signal-Klassifikatoren (ASK) für die Bioakustik. Sie behandelt ein interdisziplinäres Problem, das viele Facetten umfasst. Zu diesen gehören artspezifische bioakustische Fragen, mathematisch-algorithmische Details und Probleme der Repräsentation von Expertenwissen. Es wird eine universelle praktisch anwendbare Methode zur wissensbasierten Modellierung bioakustischer ASK dargestellt und evaluiert. Das Problem der Modellierung von ASK wird dabei durchgängig aus KDD-Perspektive (Knowledge Discovery in Databases) betrachtet. Der grundlegende Ansatz besteht darin, mit Hilfe von modifizierten KDD-Methoden und Data-Mining-Verfahren die Modellierung von ASK wesentlich zu erleichtern. Das etablierte KDD-Paradigma wird mit Hilfe eines detaillierten formalen Modells auf den Bereich der Modellierung von ASK übertragen. Neunzehn elementare KDD-Verfahren bilden die Grundlage eines umfassenden Systems zur wissensbasierten Modellierung von ASK. Methode und Algorithmen werden evaluiert, indem eine sehr umfangreiche Sammlung akustischer Signale des Großen Tümmlers mit ihrer Hilfe untersucht wird. Die Sammlung wurde speziell für diese Arbeit in Eilat (Israel) angefertigt. Insgesamt werden auf Grundlage dieses Audiomaterials vier empirische Einzelstudien durchgeführt: - Auf der Basis von oszillographischen und spektrographischen Darstellungen wird ein phänomenologisches Klassifikationssystem für die vielfältigen Laute des Großen Tümmlers dargestellt. - Mit Hilfe eines Korpus halbsynthetischer Audiodaten werden verschiedene grundlegende Verfahren zur Modellierung und Anwendung von ASK in Hinblick auf ihre Genauigkeit und Robustheit untersucht. - Mit einem speziell entwickelten Clustering-Verfahren werden mehrere Tausend natürliche Pfifflaute des Großen Tümmlers untersucht. Die Ergebnisse werden visualisiert und diskutiert. - Durch maschinelles mustererkennungsbasiertes akustisches Monitoring wird die Emissionsdynamik verschiedener Lauttypen im Verlaufe von vier Wochen untersucht. Etwa 2.5 Millionen Klicklaute werden im Anschluss auf ihre spektralen Charakteristika hin untersucht. Die beschriebene Methode und die dargestellten Algorithmen sind in vielfältiger Hinsicht erweiterbar, ohne dass an ihrer grundlegenden Architektur etwas geändert werden muss. Sie lassen sich leicht in dem gesamten Gebiet der Bioakustik einsetzen. Hiermit besitzen sie auch für angrenzende Disziplinen ein hohes Potential, denn exaktes Wissen über die akustischen Kommunikations- und Sonarsysteme der Tiere wird in der theoretischen Biologie, in den Kognitionswissenschaften, aber auch im praktischen Naturschutz, in Zukunft eine wichtige Rolle spielen.
Die Beschäftigung mit dem Thema Change Management erfordert die Auseinandersetzung mit einem heterogenen Feld von Ansätzen und fachlichen Perspektiven. Es besteht ein Mangel an systematischen empirischen Untersuchungen zu diesem Thema. Insbesondere fehlen Arbeiten, die mehr als eine "Schule" des Change Managements berücksichtigen. Unterschiede in den situativen Anforderungen werden zudem theoretisch und empirisch oft unzureichend berücksichtigt. Die Vermutung liegt nahe, dass das Scheitern von Veränderungsprozessen häufig durch die stereotype Anwendung generalisierender Empfehlungen gängiger Ansätze verursacht wird. Um diesen Defiziten zu begegnen, sollten in dieser Arbeit Kontingenzen von situativen Anforderungen und Change Management empirisch überprüft werden. Der Untersuchung liegt eine Konzeption zugrunde, die hinsichtlich des Projekterfolgs von der idealen Passung (Kontingenz) zwischen situativer Anforderung und Change Management ausgeht und damit einhergehende prozessbezogene Einflussfaktoren berücksichtigt. Erfolg wird im Sinne der Nachhaltigkeit als Wirkungen wirtschaftlicher, organisationsbezogener und qualifikatorischer Art definiert. In drei Teilstudien wurden Beratende und betriebliche Beteiligte jeweils projektbezogen schriftlich und mündlich zu betrieblicher Ausgangslage, Veränderungsprinzipien, Wirkungen und prozessbezogenen Einflussfaktoren befragt. Die erste Teilstudie umfasst vier Fallstudien. Hier wurden insgesamt 18 Projektbeteiligte, jeweils Beratende, betriebliche Projektleitende und –mitarbeitende, befragt. Die zweite Teilstudie umfasst die schriftliche und mündliche Befragung von 31 Beratenden verschiedener Schulen des Change Managements. In der dritten Teilstudie wurden 47 betriebliche Veränderungsverantwortliche schriftlich befragt. Die Projekte der zweiten und dritten Teilstudie liessen sich in jeweils zwei statistisch abgesicherte Erfolgsgruppen einteilen, wobei sich die Erfolgsgruppen nicht systematisch auf Merkmalen der betrieblichen Ausgangslage unterscheiden. Folgendes sind die wichtigsten Ergebnisse: Bei traditionell-bürokratischen Organisationsstrukturen geht ein langfristig-kontinuierliches, graduell-anpassendes, pragmatisch-lösungsorientiertes Vorgehen, in flexiblen Strukturen dagegen ein kurzfristiges, tiefgreifendes und integrativ-konzeptuelles Vorgehen mit Projekterfolg einher.In traditionell-hierarchischen Führungsstrukturen erweist sich ein wenig humanzentriertes und wenig selbstbeurteilendes Vorgehen mit standardisierter Vorgehensmethode, in flexiblen Führungsstrukturen ein stark humanzentriertes und ausgeprägt selbstbeurteilendes Vorgehen mit angepasster Vorgehensmethode als erfolgsversprechend.Bei grossem betrieblichem Veränderungswissen erweist sich ein selbstbeurteilendes Vorgehen, bei geringem Veränderungswissen ein wenig selbstbeurteilendes Vorgehen als erfolgsversprechend.Angesichts ökonomischer Anforderungen geht ein langfristig-kontinuierliches, schnelles und rollend geplantes Vorgehen mit einem tiefgreifenden und integrativ-konzeptuellen Ansatz, unter wenig Einbezug von Fremdbeurteilungen mit positiven Wirkungen einher.Bei technologischen Anforderungen ist ein langfristig-kontinuierliches, langsames und tiefgreifendes Vorgehen mit wenig Fremdbeurteilung erfolgsversprechend.Für soziokulturelle Anforderungen erweist sich ein langsames, selbstbeurteilendes, graduell anpassendes und pragmatisch-fokussiertes Vorgehen als erfolgreich. Angesichts politisch-rechtlicher Anforderungen geht ein linear geplantes, zielfokussiertes, fachberaterisches und wenig prozessorientiertes Vorgehen mit Erfolg einher.Bei Gesamtreorganisationen als innerorganisationale Anforderungen erweist sich ein linear geplantes, fach- und prozessberaterisches sowie tiefgreifendes Vorgehen als erfolgsversprechend.Bei innerorganisationalen Anforderungen durch Führungswechsel geht ein kurzfristig-temporäres, integrativ-konzeptuelles Vorgehen mit angepasster Vorgehensmethode mit Erfolg einher. Hinsichtlich prozessbezogener Einflussfaktoren erweisen sich situationsspezifisches Beratendenhandeln, unterstützendes Führungsverhalten, grosse Akzeptanz der/des Beratenden, umfassender Einbezug der Mitarbeitenden, aktive Beteiligung und Engagement der Mitarbeitenden, Verankerung des Projekts in der Organisation und hoher wahrgenommener Nutzen der Veränderung als wichtigste unterstützende Faktoren. Widerstände aus der Belegschaft, problematisches Führungsverhalten im Veränderungsprozess, fehlende/mangelhafte neben Tagesgeschäft bereitgestellte Ressourcen, behindernde organisationale (nicht projektbezogene) Entwicklungen, Angst/Verunsicherung der Belegschaft sind die wichtigsten hemmenden Faktoren.
In der vorliegenden Arbeit habe ich wichtige Teilmechanismen der Erregungs-Sekretionskopplung in der Speicheldrüse der Schabe Periplaneta americana (L.) untersucht. Die Speicheldrüse ist von dopaminergen und serotonergen Fasern innerviert (Baumann et al., 2002). Beide Transmitter stimulieren eine unterschiedliche Reaktion der Drüse: Dopamin (DA) stimuliert die P-Zellen der Acini und die Ausführgangzellen, während Serotonin (5-HT) die P- und C-Zellen der Acini stimuliert, nicht jedoch die Ausführgangzellen. Der Endspeichel ist nach einer DA-Stimulierung proteinfrei. Dagegen enthält er nach einer 5-HT-Stimulierung Proteine, die von den C-Zellen sezerniert werden (Just & Walz, 1996). Im ersten Teil meiner Arbeit habe ich mittels Kapillarelektrophoretischer Analyse (CE-Analyse) die Elektrolytkonzentrationen im Endspeichel untersucht sowie die Raten der Flüssigkeitssekretion gemessen. Damit wollte ich klären, welche Transporter an der Sekretion des Primärspeichels und an dessen Modifikation beteiligt sind. Ausserdem wollte ich die Rolle der transportaktiven Epithelzellen der Ausführgänge für die Modifikation des Primärspeichels untersuchen. Dafür habe ich einen Vergleich der Elektrolytkonzentrationen im DA- und 5-HT-stimulierten Endspeichel durchgeführt. Der Elektrolytgehalt des DA- und 5-HT-stimulierten Endspeichels unterscheidet sich nicht signifikant voneinander. Er ist nach beiden Stimulierungen hypoosmotisch zum verwendeten Ringer. Die Ausführgangzellen werden durch DA stimuliert und modifizieren den Primärspeichel durch eine netto-Ionenreabsorption. Meine Versuche zeigen jedoch, dass auch die während einer 5-HT-Stimulierung der Drüse unstimulierten Ausführgangzellen den Primärspeichel modifizieren. In einer nachfolgenden Versuchsreihe habe ich den Einfluss von Ouabain, einem Hemmstoff der Na+-K+-ATPase, und Bumetanid, einem Hemmstoff des NKCC, auf die Raten der Flüssigkeitssekretion sowie den Elektrolytgehalt des Endspeichels untersucht. Ich habe gefunden, dass die Aktivität der Na+-K+-ATPase wichtig für die Modifikation des DA-stimulierten Primärspeichels ist. Im Gegensatz dazu ist sie für die Modifikation des 5-HT-stimulierten Primärspeichels nicht von Bedeutung. Bezüglich der Flüssigkeitssekretion habe ich keinen Einfluss der Na+-K+-ATPase-Aktivität auf die DA-stimulierten Sekretionsraten gefunden, dagegen ist die 5-HT-stimulierte Sekretionsrate in Anwesenheit von Ouabain gesteigert. Die Aktivität des NKCC ist für beide sekretorische Prozesse, die Ionen- und die Flüssigkeitssekretion, wichtig. Eine Hemmung des NKCC bewirkt eine signifikante Verringerung der Raten der Flüssigkeitssekretion nach DA- und 5-HT-Stimulierung sowie in beiden Fällen einen signifikanten Abfall der Ionenkonzentrationen im Endspeichel. Im zweiten Teil meiner Arbeit habe ich versucht, Änderungen der intrazellulären Ionenkonzentrationen in den Acinuszellen während einer DA- oder 5-HT-Stimulierung zu messen. Diese Experimente sollten mit der Methode des "ratiometric imaging" durchgeführt werden. Messungen mit dem Ca2+-sensitiven Fluoreszenzfarbstoff Fura-2 zeigten keinen globalen Anstieg in der intrazellulären Ca2+-Konzentration der P-Zellen. Aufgrund von Problemen mit einer schlechten Beladung der Zellen, einer starken und sich während der Stimulierung ändernden Autofluoreszenz der Zellen sowie Änderungen im Zellvolumen wurden keine Messungen mit Na+- und K+-sensitiven Fluoreszenzfarbstoffen durchgeführt. Im dritten Teil dieser Arbeit habe ich die intrazellulären Signalwege untersucht, die zwischen einer 5-HT-Stimulierung der Drüse und der Proteinsekretion vermitteln. Dazu wurde der Proteingehalt im Endspeichel biochemisch mittels eines modifizierten Bradford Assay gemessen. Eine erstellte Dosis-Wirkungskurve zeigt, dass die Rate der Proteinsekretion von der zur Stimulierung verwendeten 5-HT-Konzentration abhängt. In einer Serie von Experimenten habe ich die intrazellulären Konzentrationen von Ca2+, cAMP und / oder cGMP erhöht und anschließend den Proteingehalt im Endspeichel gemessen. Ein Anstieg der intrazellulären Ca2+-Konzentration aktiviert nur eine geringe Rate der Proteinsekretion. Dagegen kann die Steigerung der intrazellulären cAMP-Konzentration eine stärkere Proteinsekretion aktivieren, die sich nicht signifikant von der nach 5-HT-Stimulierung unterscheidet. Die cAMP-stimulierte Proteinsekretion kann durch gleichzeitige Erhöhung der intrazellulären Ca2+-Konzentration weiter gesteigert werden. Dagegen aktivierte eine Erhöhung der intrazellulären cGMP-Konzentration die Proteinsekretion nicht. Aufgrund dieser Ergebnisse postuliere ich die Existenz eines die Adenylatcyclase aktivierenden 5-HT-Rezeptors in der Basolateralmembran der C-Zellen.
Die gesundheitsfördernden Eigenschaften von grünem Tee sind weitgehend akzeptiert. Den Teecatechinen, insbesondere dem Epigallocatechin-3-gallat (EGCG), werden zahlreiche positive Effekte zugesprochen (z. B. antioxidativ, antikanzerogen, antiinflammatorisch, Blutdruck und Cholesterinspiegel senkend). Die Mechanismen, die zu einer Reduktion der in Tierversuchen beschriebenen Körper- und Fettmasse führen, sind nicht ausreichend geklärt. Ziel dieser Arbeit bestand darin, die kurz- und mittelfristigen Wirkungen einer TEAVIGO®-Applikation (mind. 94 % EGCG) am Mausmodell im Hinblick auf den Energie- und Fettstoffwechsel sowie die Expression daran beteiligter Gene in wichtigen Organen und Geweben zu untersuchen. In verschiedenen Tierversuchen wurde männlichen C57BL/6-Mäusen eine Hochfettdiät (HFD) mit und ohne Supplementation (oral, diätetisch) des entkoffeinierten Grüntee-Extraktes TEAVIGO® in unterschiedlichen Dosierungen gefüttert. Es wurden sowohl kurz- als auch mittelfristige Wirkungen des EGCG auf die Energiebilanz (u. a. indirekte Tierkalorimetrie) und Körperzusammensetzung (NMR) sowie die exogene Substratoxidation (Stabilisotopentechnik: Atemtests, Inkorporation natürlicher 13C-angereicherter Triglyceride aus Maiskeimöl in diverse Organe/Gewebe) und Gen-expression (quantitative real-time PCR) untersucht. Die Applikationsform und ihre Dauer riefen unterschiedliche Wirkungen hervor. Mäuse mit diätetischer Supplementation zeigten bereits nach kurzer Zeit eine verminderte Körperfettmasse, die bei weiterer Verabreichung auch zu einer Reduktion der Körpermasse führte. Beide Applikationsformen resultieren, unabhängig von der Dauer der Intervention, in einer erhöhten Energieausscheidung, während die Futter- und Energieaufnahme durch EGCG nicht beeinflusst wurden. Der Energieverlust war von einer erhöhten Fett- und Stickstoffausscheidung begleitet, deren Ursache die in der Literatur beschriebene Interaktion und Hemmung digestiver Enzyme sein könnte. Besonders unter postprandialen Bedingungen wiesen EGCG-Mäuse erniedrigte Triglycerid- und Glycogengehalte in der Leber auf, was auf eine eingeschränkte intestinale Absorption der Nährstoffe hindeutet. Transkriptanalysen ergaben im Darm eine verminderte Expression von Fettsäuretransportern, während die Expression von Glucosetransportern durch EGCG erhöht wurde. Weiterhin reduzierte EGCG, nach Umstellung von Standard- auf eine maiskeimölhaltige Hochfettdiät, die Inkorporation natürlicher 13C-angereicherter Triglyceride in diverse Organe und Gewebe – insbesondere Leber, viszerales und braunes Fettgewebe sowie Skelettmuskel. Die Analyse der 13C-Anreicherung im Atem der Mäuse und die Energieumsatzmessungen ergaben nach kurzer Applikation eine erhöhte Fettoxidation, die im weiteren Verlauf der Intervention auf eine erhöhte Kohlenhydratoxidation umgeschaltet wurde. Weiterhin war die orale Applikation von EGCG bei gleichzeitiger Fütterung einer Hochfettdiät von makroskopischen und mikroskopischen degenerativen Veränderungen der Leber begleitet. Diese Effekte wurden nach diätetischer Supplementation der Hochfettdiät mit EGCG nicht beobachtet. Zusammenfassend zeigen die Ergebnisse, dass die Körpergewichts- und Fettgewebs-abnahme durch diätetisches EGCG sich durch eine herabgesetzte Verdaulichkeit der Nahrung erklären lässt. Dies führte zu verschiedenen kurz- und mittelfristigen Veränderungen in der Fettverteilung und im Fettmetabolismus.
Einleitung
Die Implantation einer Knie- oder Hüft-Totalendoprothese (TEP) ist eine der häufigsten operativen Eingriffe. Im Anschluss an die Operation und die postoperative Rehabilitation stellt die Bewegungstherapie einen wesentlichen Bestandteil der Behandlung zur Verbesserung der Gelenkfunktion und der Lebensqualität dar. In strukturschwachen Gebieten werden entsprechende Angebote nur in unzureichender Dichte vorgehalten. Zudem zeichnet sich ein flächendeckender Fachkräftemangel im Bereich der Physiotherapie ab. Die Tele-Nachsorge bietet daher einen innovativen Ansatz für die postrehabilitative Versorgung der Patienten. Das Ziel der vorliegenden Untersuchung war die Überprüfung der Wirksamkeit einer interaktiven Tele-Nachsorgeintervention für Patienten mit Knie- oder Hüft-TEP im Vergleich zur herkömmlichen Versorgung (usual care). Dazu wurden die Funktionalität und die berufliche Wiedereingliederung untersucht.
Methode
Zwischen August 2016 und August 2017 wurden 111 Patienten (54,9 ± 6,8 Jahre, 54,3 % weiblich) zu Beginn ihrer stationären Anschlussheilbehandlung nach Implantation einer Knie- oder Hüft-TEP in diese randomisiert, kontrolliert, multizentrische Studie eingeschlossen. Nach Entlassung aus der orthopädischen Anschlussrehabilitation (Baseline) führte die Interventionsgruppe (IG) ein dreimonatiges interaktives Training über ein Telerehabilitationssystem durch. Hierfür erstellte ein betreuender Physiotherapeut einen individuellen Trainingsplan aus 38 Übungen zur Verbesserung der Kraft sowie der posturalen Kontrolle. Zur Anpassung des Trainingsplans übermittelte das System dem Physiotherapeuten Daten zur Quantität sowie zur Qualität des Trainings. Die Kontrollgruppe (KG) konnte die herkömmlichen Versorgungsangebote nutzen. Zur Beurteilung der Wirksamkeit der Intervention wurde die Differenz der Verbesserung im 6MWT zwischen der IG und der KG nach drei Monaten als primärer Endpunkt definiert. Als sekundäre Endpunkte wurden die Return-to-Work-Rate sowie die funktionelle Mobilität mittels des Stair Ascend Tests, des Five-Times-Sit-to-Stand Test und des Timed Up and Go Tests untersucht. Weiterhin wurden die gesundheitsbezogene Lebensqualität mit dem Short-Form 36 (SF-36) und die gelenkbezogenen Einschränkungen mit dem Western Ontario and McMaster Universities Osteoarthritis Index (WOMAC) evaluiert. Der primäre und die sekundären Endpunkte wurden anhand von baseline-adjustierten Kovarianzanalysen im intention-to-treat-Ansatz ausgewertet. Zusätzlich wurde die Teilnahme an Nachsorgeangeboten und die Adhärenz der Interventionsgruppe an der Tele-Nachsorge erfasst und evaluiert.
Ergebnisse
Zum Ende der Intervention wiesen beide Gruppen einen statistisch signifikanten Anstieg ihrer 6MWT Strecke auf (p < 0,001). Zu diesem Zeitpunkt legten die Teilnehmer der IG im Mittel 530,8 ± 79,7 m, die der KG 514,2 ± 71,2 m zurück. Dabei betrug die Differenz der Verbesserung der Gehstrecke in der IG 88,3 ± 57,7 m und in der KG 79,6 ± 48,7 m. Damit zeigt der primäre Endpunkt keine signifikanten Gruppenunterschiede (p = 0,951). Bezüglich der beruflichen Wiedereingliederung konnte jedoch eine signifikant höhere Rate in der IG (64,6 % versus 46,2 %; p = 0,014) festgestellt werden. Für die sekundären Endpunkte der funktionellen Mobilität, der Lebensqualität und der gelenkbezogenen Beschwerden belegen die Ergebnisse eine Gleichwertigkeit beider Gruppen zum Ende der Intervention.
Schlussfolgerung
Die telemedizinisch assistierte Bewegungstherapie für Knie- oder Hüft-TEP Patienten ist der herkömmlichen Versorgung zur Nachsorge hinsichtlich der erzielten Verbesserungen der funktionellen Mobilität, der gesundheitsbezogenen Lebensqualität und der gelenkbezogenen Beschwerden gleichwertig. In dieser Patientenpopulation ließen sich klinisch relevante Verbesserungen unabhängig von der Form der Bewegungstherapie erzielen. Im Hinblick auf die berufliche Wiedereingliederung zeigte sich eine signifikant höhere Rate in der Interventionsgruppe. Die telemedizinisch assistierte Bewegungstherapie scheint eine geeignete Versorgungsform der Nachsorge zu sein, die orts- und zeitunabhängig durchgeführt werden kann und somit den Bedürfnissen berufstätiger Patienten entgegenkommt und in den Alltag der Patienten integriert werden kann. Die Tele-Nachsorge sollte daher als optionale und komplementäre Form der postrehabilitativen Nachsorge angeboten werden. Auch im Hinblick auf den zunehmenden Fachkräftemangel im Bereich der Physiotherapie und bestehende Versorgungslücken in strukturschwachen Gebieten kann der Einsatz der Tele-Nachsorge innovative und bedarfsgerechte Lösungsansätze bieten.
Die Mehrzahl der Schlaganfallpatienten leidet unter Störungen der Gehfähigkeit. Die Behandlung der Folgen des Schlaganfalls stellt eine der häufigsten Indikationen für die neurologische Rehabilitation dar. Dabei steht die Wiederherstellung von sensomotorischen Funktionen, insbesondere der Gehfähigkeit, und der gesellschaftlichen Teilhabe im Vordergrund.
In Deutschland wird in der Gangrehabilitation nach Schlaganfall oft das Neurophysiologische Gangtraining nach Bobath (NGB) angewandt, das jedoch in seiner Effektivität kritisch gesehen wird. In Behandlungsleitlinien wird zuerst das Laufbandtraining (LT) empfohlen. Für diese Therapie liegen Wirknachweise für Verbesserungen in Gehgeschwindigkeit und Gehausdauer vor. Auch für die Rhythmisch-auditive Stimulation (RAS), dem ebenerdigen Gangtraining mit akustischer Stimulation liegt vergleichbare Evidenz für Schlaganfallpatienten vor.
Ziel der durchgeführten Studie war es, zu klären ob der Einsatz von RAS die Effektivität von LT verbessert. Es wurden die Auswirkungen eines 4-wöchigen musikgestützten Laufbandtrainings auf die Gangrehabilitation von Schlaganfallpatienten untersucht.
Für die Kombinationstherapie RAS mit Laufbandtraining (RAS-LT) wurde spezielle Trainingsmusik entwickelt. Diese wurde an die individuelle Laufbandkadenz des Patienten angepasst und in Abstimmung mit der Bandgeschwindigkeit systematisch gesteigert. Untersucht wurde, ob RAS-LT zu stärkeren Verbesserungen der Gehfähigkeit bei Schlaganfallpatienten führt als die Standardtherapien NGB und LT. Dazu wurde eine klinische Evaluation im prospektiven randomisierten und kontrollierten Parallelgruppendesign mit 45 Patienten nach Schlaganfall durchgeführt. 45 Patienten mit Hemiparese der unteren Extremität oder unsicherem und asymmetrischem Gangbild wurden in der Akutphase nach Schlaganfall eingeschlossen. Bei 10 Patienten wurde die Studie während der Interventionsphase abgebrochen, davon 1 Patient mit unerwünschter Nebenwirkung in Folge des LT.
Die verwendete Testbatterie umfasste neben Verfahren zur Bestimmung der Gehfunktion wie Fast Gait Speed Test, 3-min-Walking-Time-Test und der apparativen Ganganalyse mit dem Lokometer nach Bessou eine statische Posturographie und eine kinematische 2D-Ganganalyse auf dem Laufband. Diese Methode wurde in Erweiterung der bisherigen Studienlage in dieser Form erstmals für diese Fragestellung und dieses Patientenkollektiv konzipiert und eingesetzt. Sie ermöglichte eine differenzierte und seitenbezogene Beurteilung der Bewegungsqualität.
Die primären Endpunkte der Studie waren die longitudinalen Gangparameter Kadenz, Gehgeschwindigkeit und Schrittlänge. Als sekundäre Endpunkte dienten die Schrittsymmetrie, die Gehausdauer, das statische Gleichgewicht und die Bewegungsqualität des Gehens.
Prä-Post-Effekte wurden für die gesamte Stichprobe und für jede Gruppe durch T-Tests und wenn Normalverteilung nicht gegeben war mit dem Wilcoxon-Vorzeichen-Rangtest errechnet. Für die Ermittlung der Wirkungsunterschiede der 3 Interventionen wurde eine Kovarianzanalyse mit zwei Kovariaten durchgeführt: (1) der jeweilige Prä-Interventionsparameter und (2) die Zeit zwischen Akutereignis und Studienbeginn. Für einzelne Messparameter waren die Vorbedingungen der Kovarianzanalyse nicht erfüllt, sodass stattdessen ein Kruskal-Wallis H Test durchgeführt wurde. Das Signifikanzniveau wurde auf p < 0,05 und für gruppenspezifische Prä-Post-Effekte auf p > 0,016 gesetzt. Effektstärken wurden mit Cohens d berechnet.
Es wurden die Datensätze von 35 Patienten (RAS-LT: N = 11, LT: N = 13, NGB: N = 11) mit einem Alter von 63.6 ±8.6 Jahren, und mit einer Zeit zwischen Akutereignis und Beginn der Studie von 42.1 ±23.7 Tagen ausgewertet. In der statistischen Auswertung zeigten sich in der Nachuntersuchung stärkere Verbesserungen durch RAS-LT in der Kadenz (F(2,34) = 7.656, p = 0.002; partielles η2 = 0.338), wobei auch die Gruppenkontraste signifikante Unterschiede zugunsten von RAS-LT aufwiesen und eine Tendenz zu stärkerer Verbesserung in der Gehgeschwindigkeit (F(2,34) = 3.864, p = 0.032; partielles η2 = 0.205). Auch die Ergebnisse zur Schrittsymmetrie und zur Bewegungsqualität deuteten auf eine Überlegenheit des neuen Therapieansatzes RAS-LT hin, obgleich dort keine statistischen Signifikanzen im Gruppenvergleich erreicht wurden. Die Parameter Schrittlänge, Gehausdauer und die Werte zum statischen Gleichgewicht zeigten keine spezifischen Effekte von RAS-LT.
Die Studie liefert erstmals Anhaltspunkte für eine klinische Überlegenheit von RAS-LT gegenüber den Standardtherapien. Die weitere Entwicklung und Beforschung dieses innovativen Therapieansatzes können in Zukunft zu einer verbesserten Gangrehabilitation von Patienten nach Schlaganfall beitragen.
Folgt tatsächlich aus einem liberalen Wertekanon eine generative Selbstbestimmung, eine weitgehende elterliche Handlungsfreiheit bei eugenischen Maßnahmen, wie es Vertreter einer „liberalen Eugenik“ versichern? Diese Arbeit diskutiert die Rolle Staates und die Handlungsspielräume der Eltern bei der genetischen Gestaltung von Nachkommen im Rahmen eines liberalen Wertverständnisses.
Den Schwerpunkt/Fokus der Betrachtungen liegt hier Maßnahmen des genetic enhancement.
Darüber hinaus wird auch das Verhältnis der „liberalen Eugenik“ zur „autoritären Eugenik“ neu beleuchtet.
Die Untersuchung beginnt bei der Analyse zentraler liberaler Werte und Normen, wie Freiheit, Autonomie und Gerechtigkeit und deren Funktionen in der „liberalen Eugenik“. Wobei nur sehr eingeschränkt von der „liberalen Eugenik“ gesprochen werden kann, sondern viel mehr von Varianten einer „liberalen Eugenik“.
Darüber hinaus wird in dieser Arbeit die historische Entwicklung der „liberalen“ und der „autoritären Eugenik“, speziell des Sozialdarwinismus, untersucht und verglichen, insbesondere im Hinblick auf liberale Werte und Normen und der generativen Selbstbestimmung.
Den Kern der Arbeit bildet der Vergleich der „liberalen Eugenik“ mit der „liberalen Erziehung“. Da hier die grundlegenden Aufgaben der Eltern, aber auch des Staates, analysiert und deren Verhältnis diskutiert wird.
Es zeigt sich, dass sich aus einem liberalen Wertverständnisses heraus keine umfangreiche generative Selbstbestimmung ableiten lässt, sondern sich viel mehr staatlich kontrollierte enge Grenzen bei eugenischen Maßnahmen zum Wohle der zukünftigen Person, begründen.
Zudem wurde der Weg zur autoritären Eugenik nicht durch die Abkehr von der generativen Selbstbestimmung geebnet, sondern viel mehr durch die Übertragung des Fortschrittsgedankens auf den Menschen selbst. Damit verliert die generative Selbstbestimmung auch ihre Funktion als Brandmauer gegen eine autoritäre Eugenik. Nicht der Verlust der generativen Selbstbestimmung, sondern viel mehr die Idee der Perfektionierung des Menschen muss kritisch betrachtet und letztlich abgelehnt werden.
Ohne generative Selbstbestimmung und einer Perfektionierung des Menschen, bleibt nur eine Basis-Eugenik, bei der die Entwicklungsfähigkeit des Menschen sichergestellt wird, nicht jedoch seine Verbesserung.
Darüber hinaus muss auch über eine Entwicklungsmöglichkeit des zukünftigen Menschen gesprochen werden, d. h. ein minimales Potential zu gesellschaftlicher Integration muss gegeben sein. Nur wenn tatsächlich keine Möglichkeiten seitens der Gesellschaft bestehen eine Person zu integrieren und dieser eine Entwicklungsmöglichkeit zu bieten, wären eugenische Maßnahmen als letztes Mittel akzeptabel.
Wie interpretieren Kinder nur? : Experimentelle Untersuchungen zum Erwerb von Informationsstruktur
(2010)
Im Zentrum der Arbeit steht die Frage, wie sechsjährige monolingual deutsche Kinder Sätze mit der Fokuspartikel nur interpretieren. In 5 Experimenten wurde untersucht, welchen Einfluss die Oberflächenposition der Fokuspartikel auf das Satzverständnis hat und ob die kontextuelle Einbettung der nur-Sätze zu einer zielsprachlichen Interpretation führt. Im Gegensatz zu den Ergebnissen bisheriger Studien (u.a. Crain, et al. 1994; Paterson et al. 2003) zeigen die Daten der Arbeit, dass die getesteten Kinder die präsentierten nur-Sätze zielsprachlich interpretierten, wenn diese in einen adäquaten Kontext eingebettet waren. Es zeigte sich weiterhin, dass die Kinder mehr Fehler bei der Interpretation von Sätzen mit nur vor dem Subjekt (Nur die Maus hat einen Ball.) als mit nur vor dem Objekt (Die Maus hat nur einen Ball.) machten. Entgegen dem syntaktisch basierten Ansatz von Crain et al. (1994) und dem semantisch-pragmatisch basierten Ansatz von Paterson et al. (2003) werden in der Arbeit informationsstrukturelle Eigenschaften bzw. Unterschiede der nur-Sätze für die beobachteten Leistungen verantwortlich gemacht. Der in der Arbeit postulierte Topik-Default Ansatz nimmt an, dass die Kinder das Subjekt eines Satzes immer als Topik analysieren. Dies führt im Fall der Sätze mit nur vor dem Subjekt zu einer falschen informationsstrukturellen Repräsentation des Satzes. Basierend auf den Ergebnissen der Arbeit und dem postulierten Topik-Default Ansatz wird in der Arbeit abschließend ein Erwerbsmodell für das Verstehen von Sätzen mit der Fokuspartikel nur entworfen und diskutiert.