Refine
Has Fulltext
- yes (743) (remove)
Year of publication
Document Type
- Doctoral Thesis (743) (remove)
Language
- German (743) (remove)
Keywords
- language acquisition (9)
- Modellierung (8)
- Spracherwerb (8)
- taste (7)
- Geschmack (6)
- Nanopartikel (6)
- Polymer (6)
- Selen (6)
- Serotonin (6)
- education (6)
Institute
- Institut für Biochemie und Biologie (121)
- Institut für Chemie (110)
- Institut für Ernährungswissenschaft (63)
- Institut für Physik und Astronomie (55)
- Wirtschaftswissenschaften (53)
- Department Psychologie (38)
- Institut für Umweltwissenschaften und Geographie (37)
- Department Erziehungswissenschaft (36)
- Sozialwissenschaften (36)
- Department Sport- und Gesundheitswissenschaften (27)
In dieser Dissertation konnten erfolgreich mechanisch stabile Hydrogele über eine freie radikalische Polymerisation (FRP) in Wasser synthetisiert werden. Dabei diente vor allem das Sulfobetain SPE als Monomer. Dieses wurde mit dem über eine nukleophile Substitution erster bzw. zweiter Ordnung hergestellten Vernetzer TMBEMPA/Br umgesetzt.
Die entstandenen Netzwerke wurden im Gleichgewichtsquellzustand im Wesentlichen mittels Niederfeld-Kernresonanzspektroskopie, Röntgenkleinwinkelstreuung (SAXS), Rasterelektronenmikroskopie mit Tieftemperaturtechnik (Kryo-REM), dynamisch-mechanische Analyse (DMA), Rheologie, thermogravimetrische Analyse (TGA) und dynamische Differenzkalorimetrie (DSC) analysiert.
Das hierarchisch aufgebaute Netzwerk wurde anschließend für die matrixgesteuerten Mineralisation von Calciumphosphat und –carbonat genutzt. Über das alternierende Eintauchverfahren (engl. „alternate soaking method“) und der Variation von Mineralisationsparametern, wie pH-Wert, Konzentration c und Temperatur T konnten dann verschiedene Modifikationen des Calciumphosphats generiert werden. Das entstandene Hybridmaterial wurde qualitativ mittels Röntgenpulverdiffraktometrie (XRD), abgeschwächte Totalreflexion–fouriertransformierte Infrarot Spektroskopie (ATR-FTIR), Raman-Spektroskopie, Rasterelektronenmikroskopie (REM) mit energiedispersiver Röntgenspektroskopie (EDXS) und optischer Mikroskopie (OM) als auch quantitative mittels Gravimetrie und TGA analysiert.
Für die potentielle Verwendung in der Medizintechnik, z.B. als Implantatmaterial, ist die grundlegende Einschätzung der Wechselwirkung zwischen Hydrogel bzw. Hybridmaterial und verschiedener Zelltypen unerlässlich. Dazu wurden verschiedene Zelltypen, wie Einzeller, Bakterien und adulte Stammzellen verwendet. Die Wechselwirkung mit Peptidsequenzen von Phagen komplettiert das biologische Unterkapitel.
Hydrogele sind mannigfaltig einsetzbar. Diese Arbeit fasst daher weitere Projektperspektiven, auch außerhalb des biomedizinischem Anwendungsspektrums, auf. So konnten erste Ansätze zur serienmäßige bzw. maßgeschneiderte Produktion über das „Inkjet“ Verfahren erreicht werden. Um dies ermöglichen zu können wurden erfolgreich weitere Synthesestrategien, wie die Photopolymerisation und die redoxinitiierte Polymerisation, ausgenutzt. Auch die Eignung als Filtermaterial oder Superabsorber wurde analysiert.
Bilingualer Unterricht gilt als das Erfolgsmodell für den schulischen Fremdsprachenerwerb in Deutschland und die Beherrschung einer Fremdsprache in Wort und Schrift ist eine entscheidende berufsqualifizierende Kompetenz in unserer globalisierten Welt. Insbesondere die Verzahnung fachlicher und sprachlicher Inhalte im Kontext Bilingualen Unterrichts scheint gewinnbringend für den Fremdspracherwerb zu sein. Dabei ist die Diskrepanz zwischen den zumeist noch geringen fremdsprachlichen Fähigkeiten der Lernenden und den fachlichen Ansprüchen des Geographieunterrichts eine große Herausforderung für fachliches Lernen im bilingualen Sachfachunterricht. Es stellt sich die Frage, wie der Bilinguale Unterricht gestaltet sein muss, um einerseits geographische Themen fachlich komplex behandeln zu können und andererseits die Lernenden fremdsprachlich nicht zu überfordern.
Im Rahmen einer Design-Based-Research-Studie im bilingualen Geographieunterricht wurde untersucht, wie fachliches Lernen im bilingualen Geographieunterricht durch den Einsatz beider beteiligter Sprachen (Englisch/Deutsch) gefördert werden kann.
Auf Grundlage eines theoretisch fundierten Kenntnisstands zum Bilingualen Unterricht und zum Lernen mit Fachkonzepten im Geographieunterricht wurde eine Lernumgebung konzipiert, im Unterricht erprobt und weiterentwickelt, in der Strategien des Sprachwechsels zum Einsatz kommen.
Die Ergebnisse der Studie sind kontextbezogene Theorien einer zweisprachigen Didaktik für den bilingualen Geographieunterricht und Erkenntnisse zum Lernen mit Fachkonzepten im Geographieunterricht am Beispiel des geographischen Konzepts Wandel. Produkt der Studie ist eine unterrichtstaugliche Lernumgebung zum Thema Wandlungsprozesse an ausgewählten Orten für den bilingualen Geographieunterricht mit didaktischem Konzept, Unterrichtsmaterialien und -medien.
Kraft und Kognition
(2023)
Die in den letzten Jahren aus Querschnittstudien gewonnenen empirischen Erkenntnisse deuten auf einen Zusammenhang zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit hin [10]. Diese Beobachtung wird von Längsschnittstudien gestützt, bei denen in Folge gezielter Krafttrainingsinterventionen, welche typischerweise zur Steigerung der muskulären Kraftleistungsfähigkeit führen, Verbesserungen der kognitiven Leistungsfähigkeit dokumentiert werden konnten [11]. Die zugrundeliegenden Mechanismen, die den Zusammenhang zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit begründen, sind jedoch noch nicht vollständig bekannt und bedürfen weiterer Forschung [10,12]. Vor diesem Hintergrund hatten die im Rahmen dieser Dissertation durchgeführten Forschungsarbeiten das übergeordnete Ziel, die Mechanismen zu untersuchen, welche den Zusammenhang zwischen der muskulären Kraftleistungsfähigkeit und der kognitiven Leistungsfähigkeit erklären können. In dieser Arbeit wurden dazu unterschiedliche Populationen (junge Menschen und ältere Menschen ohne und mit leichten kognitiven Störungen) unter Anwendung verschiedener untersuchungsmethodischer Ansätze (systematische Literaturrecherche, Doppelaufgabenparadigma und funktionelle Nahinfrarotspektroskopie) untersucht. Aufgrund der im Rahmen dieser Dissertation durchgeführten Forschungsarbeiten, die konsekutiv aufeinander aufbauen, konnten folgende Haupterkenntnisse gewonnen werden:
• Um einen umfassenden Überblick über die aktuelle Evidenzlage zum Thema Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit sowie den zugrundeliegenden neuronalen Korrelaten zu erlangen, wurde eine systematische Literaturrecherche zu diesem Forschungsthema durchgeführt. Die Ergebnisse dieser systematischen Literaturrecherche dokumentieren, dass ein gezieltes Krafttraining neben der Steigerung der kognitiven Leistungsfähigkeit zu funktionellen und strukturellen Veränderungen des Gehirns, insbesondere in frontalen Gehirnregionen, führen kann [13]. Ferner zeigen die Ergebnisse dieser systematischen Literaturrecherche, bei der eine begrenzte Anzahl verfügbarer Studien (n = 18) identifiziert wurde, den Bedarf weiterer Forschungsarbeiten zu diesem Themenfeld an [13].
• Zur Überprüfung der Hypothese, dass zur Ausführung von Krafttrainingsübungen höhere kognitive Prozesse benötigt werden, wurde in einer experimentellen Studie bei jüngeren gesunden Erwachsenen das Doppelaufgabenparadigma bei der Krafttrainingsübung Knie-beuge angewendet. Die in dieser Studie beobachteten Doppelaufgabenkosten bei der Ausführung der Krafttrainingsübung Kniebeuge (im Vergleich zur Kontrollbedingung Stehen) deuten auf die Beteiligung höherer kognitiver Prozesse zur Lösung dieser Bewegungsaufgabe hin und bestätigen die aufgestellte Hypothese [14].
• Um die Hypothese zu untersuchen, dass spezifische neuronale Korrelate (funktionelle Gehirnaktivität) den Zusammenhang zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit vermitteln, wurde bei jungen gesunden Erwachsenen der Zusammenhang zwischen der Ausprägung der maximalen Handgriffkraft (normalisiert auf den Body-Mass-Index) und der kortikalen hämodynamischen Antwortreaktion untersucht, die bei der Durchführung eines standardisierten kognitiven Tests mittels funktioneller Nahinfrarotspektroskopie in präfrontalen Gehirnarealen gemessen wurde. Im Rahmen dieser Querschnittsstudie konnte die initiale Hypothese nicht vollständig bestätigt werden, da zwar Zusammenhänge zwischen maximaler Handgriffkraft und kognitiver Leistungsfähigkeit mit Parametern der hämodynamischen Antwortreaktion beobachtet wurden, aber die Ausprägung der maximalen Handgriffkraft nicht im Zusammenhang mit der Kurzeitgedächtnisleistung stand [16].
• Zur Untersuchung der Annahme, dass eine vorliegende neurologische Erkrankung (im Speziellen eine leichte kognitive Störung), die typischerweise mit Veränderungen von spezifischen neuronalen Korrelaten (z.B. des Hippokampus‘ [17-19] und des präfrontalen Kortex‘ [20,21]) einhergeht, einen Einfluss auf die Assoziation zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit hat, wurde in einer Querschnittsstudie der Zusammenhang zwischen der Ausprägung der maximalen Handgriffkraft (normalisiert auf den Body-Mass-Index) und der Ausprägung der exekutiven Funktionen bei älteren Erwachsenen mit amnestischem und nicht-amnestischem Subtyp der leichten kognitiven Störung sowie gesunden älteren Erwachsenen untersucht. In dieser Querschnittsstudie wurde nur bei älteren Erwachsenen mit dem amnestischen Subtyp der leichten kognitiven Störung ein Zusammenhang zwischen maximaler Handgriffkraft und exekutiven Funktionen beobachtet. Solch eine Korrelation existiert jedoch nicht bei älteren Erwachsenen mit dem non-amnestischen Subtyp der leichten kognitiven Störung oder bei gesunden älteren Erwachsenen [24].
• In einem Perspektivenartikel wurde aufgezeigt, wie durch die theoriegeleitete Nutzung physiologischer Effekte, die bei einer speziellen Krafttrainingsmethode durch die Moderation des peripheren Blutflusses mittels Manschetten oder Bändern auftreten, insbesondere Populationen mit niedriger mechanischer Belastbarkeit von den positiven Effekten des Krafttrainings auf die Gehirngesundheit profitieren könnten [25].
Insgesamt deuten die Ergebnisse der in dieser Dissertation zusammengeführten und aufeinander aufbauenden Forschungsarbeiten auf das Vorhandensein von gemeinsamen neuronalen Korrelaten (z.B. frontaler Kortex) hin, die sowohl für die muskuläre Kraftleistungsfähigkeit als auch für höhere kognitive Prozesse eine wichtige Rolle spielen [26]. Betrachtet man die in der vorliegenden Dissertation gewonnenen Erkenntnisse im Verbund mit den bereits in der Literatur existieren-den empirischen Belegen, unterstützen sie die Sichtweise, dass eine relativ hohe muskuläre Kraftleistungsfähigkeit und deren Erhalt durch gezielte Krafttrainingsinterventionen über die Lebenspanne positive Effekte auf die (Gehirn-)Gesundheit haben können [27].
Im Rahmen dieser Arbeit wurden Energie induzierte Nanopartikel-Substrat Interaktionen untersucht. Dazu wurden Goldnanopartikelanordnungen (AuNPA) auf verschiedenen Silizium-basierten Substraten hergestellt und der Einfluss eines Energieeintrages, genauer gesagt einer thermischen Behandlung oder des Metall-assistierten chemischen Ätzens (MaCE) getestet. Die Nanopartikelanordnungen, welche für die thermische Behandlung eingesetzt wurden, wurden nass-chemisch in Toluol synthetisiert, mit Thiol-terminiertem Polystyrol funktionalisiert und mittels Schleuderbeschichtung auf verschiedenen Substraten (drei Gläser und ein Siliziumwafer) in quasi-hexagonalen Mustern angeordnet. Diese AuNP-Anordnungen wurden mit Temperaturen zwischen 475 °C – 792 °C über verschiedene Zeiträume thermisch behandelt. Generell sanken die Nanopartikel in die Substrate ein, und es wurde festgestellt, dass mit Erhöhung der Glasübergangstemperatur der Substrate die Einsinktiefe der Nanopartikel abnahm. Die AuNPA auf Siliziumwafern wurden auf Temperaturen von 700 °C – 900 °C erhitzt. Die Goldnanopartikel sanken dabei bis zu 2,5 nm in das Si-Substrat ein. Ein Sintern der Nanopartikel fand ab einer Temperatur über 660 °C statt. Welcher Sintermechanismus der dominante ist konnte abschließend nicht eindeutig geklärt werden.
Für die Untersuchung des Einflusses des zweiten Energieeintrages mittels MaCE wurden AuNPA sowie Goldkern-Silberschale-Anordnungen auf Siliziumsubstraten genutzt. Die AuNPA wurden mit Hilfe von Poly-N-Isopropylacrylamid Mikrogelen und Natriumcitrat-stabilisierten Goldnanopartikeln (Na-AuNP) bzw. Tetrachloridogoldsäure (TCG) präpariert. Es ergaben sich Nanopartikelanordnungen mit hemisphärischen Partikeln (aus Na-AuNP) und zum anderen Nanopartikelanordnungen mit sphärischen Partikeln (aus TCG). Durch eine anschließende Silberwachstumsreaktion konnten dann die dazugehörigen Goldkern-Silberschale Nanopartikelanordnungen erhalten werden. Beim MaCE konnten signifikante Unterschiede im Verhalten dieser vier Nanopartikelanordnungen festgestellt werden, z.B. mussten bei den hemisphärischen Partikelanordnungen höhere Wasserstoffperoxidkonzentrationen (0,70 M – 0,91 M) als bei den sphärischen Partikelanordnungen (0,08 M – 0,32 M) für das Ätzen eingesetzt werden, um ein Einsinken der Nanopartikel in das Substrat zu erreichen.
Die finanzgeschichtlichen Untersuchungen sind überwiegend auf Geld konzentriert, Naturalien wurden vernachlässigt oder ausgeblendet. Die vorliegende Arbeit bezieht die Naturalien konsequent mit ein. Nur so ist eine Analyse der Domänenwirtschaft in ihrer Bedeutung für die Staatsfinanzen möglich. Der Erkenntnisfortschritt liegt in der konsequenten Berücksichtigung der Naturalien durch Umrechnung in Geldwerte. Nicht zu leisten ist der Anteil der domänenwirtschaftlichen Erträge am Gesamthaushalt des hessischen Territorialstaates, auch ist die Vermarktung der Überschüsse der Ämter quellenbedingt nicht zu ermitteln. Die Ämterfinanzen zeigen einen Rahmen für domänenwirtschaftliche Staatsfinanzierung auf, dass bei Verzicht auf militärische Aktionen der frühmoderne Territorialstaat domänenwirtschaftlich zu finanzieren war.
Die vorliegende Untersuchung kann aufzeigen, dass der domänenwirtschaftliche Rahmen für die Finanzierung eines Territorialstaates ausreichte, wenn er auf militärische Aktivitäten und Abenteuer verzichtete. In dieser Studie werden erstmalig umfassende statistische Erhebungen der unteren staatlichen Ebene, das Landbuch und das Ämterbuch ausgewertet, die bisher nur von Kersten Krüger ediert waren. Die vorliegende Arbeit ist in die Staatsfinanzierung auf der Stufe der Domänenwirtschaft einzuordnen. Landgraf Wilhelm IV. von Hessen-Kassel war einer der letzten, der es geschafft hatte, seinen Staat domänenwirtschaftlich mit den Einnahmen aus den Naturalien zu finanzieren. Als Domänenstaat wird ein Staat bezeichnet, der auf den ordentlichen Einkünften aus Liegenschaften und Landbesitz beruht. Es wird in dieser Arbeit der domänenwirtschaftliche Rahmen für die Staatsfinanzen berechnet. Das bedeutet, dass die Zentralfinanzen nicht berücksichtigt sind.
Es konnte gezeigt werden, dass, obwohl Landgraf Wilhelm IV. über ein kleineres Territorium als sein Vater, Landgraf Philipp der Großmütige, verfügte, die Gesamtüberschüsse höher waren. Das war seiner klugen Politik zu verdanken und seinen Bemühungen, ständig die Ämterfinanzen zu verbessern. Wilhelm IV. konsolidierte seinen Staat und konnte über domänenwirtschaftliche Einnahmen aus den Ämtern seinen Staat finanzieren. Das gelang ihm, da er erstens seinen Staat ordentlich verwaltete und zweitens keine Kriege führte. Landgraf Wilhelm IV. verabscheute den Krieg. Er sagte über den Krieg: „es ist kain abscheulicher ding auf erden als ein krieg“.
Food Neophilie
(2023)
Trotz der eindeutigen Vorteile einer ausgewogenen Ernährung halten sich viele Menschen weltweit nicht an entsprechende Ernährungsrichtlinien. Um angemessene Strategien zur Unterstützung einer gesundheitsfördernden Ernährung zu entwickeln, ist ein Verständnis der zugrunde liegenden Faktoren unerlässlich. Insbesondere die Gruppe der älteren Erwachsenen stellt dabei eine wichtige Zielgruppe für ernährungsbezogene Präventions- und Interventionsansätze dar. Einer der vielen Faktoren, die als Determinanten einer gesundheitsfördernden Ernährung diskutiert werden, ist die Food Neophilie, also die Bereitschaft, neue und unbekannte Lebensmittel auszuprobieren. Aktuelle Forschungsergebnisse legen nahe, dass die Food Neophilie positiv mit einer gesundheitsfördernden Ernährung in Verbindung steht, allerdings ist die bisherige Forschung in diesem Bereich äußerst begrenzt. Das Ziel der Dissertation war es, das Konstrukt der Food Neophilie sowie seine Beziehung zu gesundheitsförderndem Ernährungsverhalten im höheren Erwachsenenalter grundlegend zu erforschen, um das Potenzial der Food Neophilie für die Gesundheitsförderung älterer Erwachsener besser zu verstehen. Dabei wurde im Rahmen der ersten Publikation zunächst untersucht, wie sich das Konstrukt der Food Neophilie reliabel und valide erfassen lässt, um weiterführende Untersuchungen der Food Neophilie zu ermöglichen. Die psychometrische Validierung der deutschen Version der Variety Seeking Tendency Scale (VARSEEK) basierte auf zwei unabhängigen Stichproben mit insgesamt N = 1000 Teilnehmenden und bestätigte, dass es sich bei der Skala um ein reliables und valides Messinstrument zur Erfassung der Food Neophilie handelt. Darauf aufbauend wurde im Rahmen der zweiten Publikation die Beziehung der Food Neophilie und der Ernährungsqualität über die Zeit hinweg analysiert. Die prospektive Untersuchung von N = 960 Teilnehmenden des höheren Erwachsenenalters (M = 63.4 Jahre) anhand einer Cross-Lagged-Panel-Analyse ergab hohe zeitliche Stabilitäten der Food Neophilie und der Ernährungsqualität über einen Zeitraum von drei Jahren. Es zeigte sich zudem ein positiver querschnittlicher Zusammenhang zwischen der Food Neophilie und der Ernährungsqualität, jedoch wurde die Food Neophilie nicht als signifikante Determinante der Ernährungsqualität über die Zeit hinweg identifiziert. In der dritten Publikation wurden schließlich nicht nur die individuellen Auswirkungen der Food Neophilie auf die Ernährungsqualität betrachtet, sondern auch potenzielle dynamische Wechselwirkungen innerhalb von Partnerschaften einbezogen. Hierzu erfolgte mittels eines Actor-Partner-Interdependence-Modells eine Differenzierung potenzieller intra- und interpersoneller Einflüsse der Food Neophilie auf die Ernährungsqualität. Im Rahmen der dyadischen Analyse zeigte sich bei N = 390 heterosexuellen Paaren im höheren Erwachsenenalter (M = 64.0 Jahre) ein Dominanzmuster: Während die Food Neophilie der Frauen positiv mit ihrer eigenen Ernährungsqualität und der ihrer Partner zusammenhing, war die Food Neophilie der Männer nicht mit der Ernährungsqualität des Paares assoziiert. Insgesamt leistet die vorliegende Dissertation einen wertvollen Beitrag zum umfassenden Verständnis der Food Neophilie sowie ihrer Rolle im Kontext der Ernährungsgesundheit älterer Erwachsener. Trotz fehlender Vorhersagekraft über die Zeit hinweg deutet der positive Zusammenhang zwischen Food Neophilie und Ernährungsqualität darauf hin, dass die Fokussierung auf eine positive und neugierige Einstellung gegenüber Lebensmitteln eine innovative Perspektive für Präventions- und Interventionsansätze zur Unterstützung einer gesundheitsfördernden Ernährung älterer Erwachsener bieten könnte.
Reflexion und Reflexivität
(2023)
Reflexion gilt in der Lehrkräftebildung als eine Schlüsselkategorie der professionellen Entwicklung. Entsprechend wird auf vielfältige Weise die Qualität reflexionsbezogener Kompetenzen untersucht. Eine Herausforderung hierbei kann in der Annahme bestehen, von der Analyse schriftlicher Reflexionen unmittelbar auf die Reflexivität einer Person zu schließen, da Reflexion stets kontextspezifisch als Abbild reflexionsbezogener Argumentationsprozesse angesehen werden sollte und reflexionsbezogenen Dispositionen unterliegt. Auch kann die Qualität einer Reflexion auf mehreren Dimensionen bewertet werden, ohne quantifizierbare, absolute Aussagen treffen zu können.
Daher wurden im Rahmen einer Physik-Videovignette N = 134 schriftliche Fremdreflexionen verfasst und kontextspezifische reflexionsbezogene Dispositionen erhoben. Expert*innen erstellten theoriegeleitet Qualitätsbewertungen zur Breite, Tiefe, Kohärenz und Spezifität eines jeden Reflexionstextes. Unter Verwendung computerbasierter Klassifikations- und Analyseverfahren wurden weitere Textmerkmale erhoben. Mittels explorativer Faktorenanalyse konnten die Faktoren Qualität, Quantität und Deskriptivität gefunden werden. Da alle konventionell eingeschätzten Qualitätsbewertungen durch einen Faktor repräsentiert wurden, konnte ein maximales Qualitätskorrelat kalkuliert werden, zu welchem jede schriftliche Fremdreflexion im Rahmen der vorliegenden Vignette eine computerbasiert bestimmbare Distanz aufweist. Diese Distanz zum maximalen Qualitätskorrelat konnte validiert werden und kann die Qualität der schriftlichen Reflexionen unabhängig von menschlichen Ressourcen quantifiziert repräsentieren. Abschließend konnte identifiziert werden, dass ausgewählte Dispositionen in unterschiedlichem Maße mit der Reflexionsqualität zusammenhängen. So konnten beispielsweise bezogen auf das Physik-Fachwissen minimale Zusammenhänge identifiziert werden, wohingegen Werthaltung sowie wahrgenommene Unterrichtsqualität eng mit der Qualität einer schriftlichen Reflexion in Verbindung stehen können.
Es wird geschlussfolgert, dass reflexionsbezogene Dispositionen moderierenden Einfluss auf Reflexionen nehmen können. Es wird empfohlen bei der Erhebung von Reflexion mit dem Ziel der Kompetenzmessung ausgewählte Dispositionen mit zu erheben. Weiter verdeutlicht diese Arbeit die Möglichkeit, aussagekräftige Quantifizierungen auch in der Analyse komplexer Konstrukte vorzunehmen. Durch computerbasierte Qualitätsabschätzungen können objektive und individuelle Analysen und differenzierteres automatisiertes Feedback ermöglicht werden.
Anschaulichkeiten herstellen
(2023)
Die Handschrift D der Driu liet von der maget entstand um 1220 und ist die älteste vollständige erhaltene Fassung des Textes. Priester Wernher gilt als Verfasser der geistlichen Dichtung und erstellt sie im Jahr 1172 auf der Grundlage apokrypher und biblischer Quellen. Die Handschrift D wird in der mediävistischen Germanistik gerne zu jenen Werken gezählt, die den Auftakt einer zunehmenden Verschriftlichung in der Volkssprache markieren. Gemäß ihrem Erscheinungsbild erweist sich die Handschrift und der Zeitpunkt ihrer Entstehung aber vor allem als ein Wendepunkt, an dem der Einfluss der lateinischen Schriftkultur auf die Produktion volkssprachlicher Literatur besonders deutlich wird. Während insgesamt der Anteil der geistlichen Dichtung kontinuierlich abnimmt, erfolgt von literaturwissenschaftlicher Seite zurecht auch die Einordnung der Handschrift in die weltlich-laikale Hofliteratur. In diesem Kontext steht die Handschrift D aber nicht am Beginn einer Blütezeit, sondern weist vor allem in das blühende Spannungsfeld zwischen der lateinisch geprägten Buchproduktion und der geistlichen Dichtung auf der einen und dem Anspruch einer laikalen Rezeptionsgemeinschaft auf der anderen Seite. In diesem Feld bewegt sich meine medienanthropologische Untersuchung. Die Schwerpunkte liegen hierbei auf der Rekonstruktion der Handschriftenherstellung sowie auf der Analyse der Darstellungsprinzipien im Bildprogramm.
In der Schule sollen alle Kinder und Jugendliche die Kompetenzen erwerben, die sie benötigen, um selbstbestimmt am gesellschaftlichen Leben teilhaben zu können. Dabei ist es notwendig im Unterricht auf die individuellen Lernvoraussetzungen der Schüler:innen zu reagieren, damit sie optimal beim Lernen unterstützt werden können. Häufig wird in diesem Zusammenhang vom „individualisierten Unterricht“ gesprochen, der sich dadurch auszeichnen, dass das Lernangebot bestmöglich an die einzelnen Schüler:innen angepasst wird. Eine Individualisierung des Unterrichts kann jedoch bedeuten, dass die Schüler:innen nur noch an ihren eigenen Aufgaben arbeiten, ohne sich miteinander auszutauschen. Von einigen Autor:innen wurde daher die Befürchtung geäußert, dass die Individualisierung des Unterrichts zu einer Vereinzelung im Unterricht führt und die Lerngruppe als Gemeinschaft kaum noch eine Rolle spielt.
Schule soll neben fachlichen Kompetenzen jedoch auch soziale Werte und Normen vermitteln, die zu einer gesellschaftlichen Integration beitragen und Demokratie fördern. Dabei wird als zentrale Aufgabe von Schule die Vorbereitung der Kinder und Jugendliche auf ein Zusammenleben in einer pluralen Gesellschaft gesehen. So sollen sie lernen gemeinsame Lösungen, Solidarität und Verantwortungsübernahme über Differenzen hinweg zu entwickeln. Dies kann gelingen, indem eine Gemeinschaft im Unterricht geschaffen wird, in der alle Schüler:innen sich zugehörig und wertgeschätzt fühlen, voneinander lernen und gleichzeitig gefordert werden in Aushandlungsprozesse miteinander einzutreten.
Eine individualisierte Unterrichtsgestaltung und das Erleben einer Gemeinschaft wird von manchen Autor:innen als Spannungsfeld im Unterricht beschrieben. Es gibt jedoch bisher kaum empirische Forschungsarbeiten die den Forschungsgegenstand „Gemeinschaft im individualisierten Unterricht“ genauer betrachtet haben. Die vorliegende Studie setzt hier an und geht folgenden Fragestellungen nach: 1. „Was wird von Lehrkräften unter einer Gemeinschaft im individualisierten Unterricht verstanden?“, 2. „Wie wird eine Gemeinschaft im individualisierten Unterricht von Lehrkräften gestaltet?“, 3. „Inwiefern kann Gemeinschaft im individualisierten Unterricht über das Gemeinschaftsgefühl der Schüler:innen erfasst werden?“ 4. „Lässt sich ein Zusammenhang zwischen dem Gemeinschaftsgefühl der Schüler:innen und der Individualisierung des Unterrichts feststellen?“ und 5. „Lässt sich im individualisierten Unterricht ein Zusammenhang zwischen dem Gemeinschaftsgefühl und der sozialen Eingebundenheit der Schüler:innen feststellen?“.
Den Forschungsfragen wurde anhand von drei Teilstudien nachgegangen, die in einem Mixed Methods Design parallel zueinander durchgeführt und abschließend aufeinander bezogen wurden. Alle drei Studien bezogen sich auf Datenquellen aus dem Ada*Q-Projekt („Adaptivität und Unterrichtsqualität im individualisierten Unterricht“), bei dem neun Grundschulen, die den Deutschen Schulpreis gewonnen haben, anhand verschiedener Datenerhebungen untersucht wurden. Insgesamt wurden in der vorliegenden Studie Daten von 32 Lehrkräften und 542 Schüler:innen aus 49 Lerngruppen herangezogen. Teilstudie 1 nahm die Verständnisse und die Gestaltung von Gemeinschaft (Forschungsfrage 1 und 2) anhand von Interviews mit Lehrkräften in den Blick. In Teilstudie 2 wurde eine Fragebogenskala für Schüler:innen zur Erfassung des Gemeinschaftsgefühls entwickelt (Forschungsfrage 3) und Zusammenhänge mit einer individualisierten Unterrichtsgestaltung und Unterrichtsqualität überprüft (Forschungsfrage 4). In Teilstudie 3 wurden Schüler:innen anhand der Experience-Sampling-Methode mehrfach im Unterricht zu ihrer sozialen Eingebundenheit befragt und ebenfalls Zusammenhänge mit einer individualisierten Unterrichtsgestaltung und Unterrichtsqualität sowie mit dem Gemeinschaftsgefühl überprüft (Forschungsfrage 5).
In Teilstudie 1 zeigte sich mit Blick auf die Forschungsfrage 1, dass die Lehrkräfte unterschiedliche Verständnisse von Gemeinschaft hatten, die auf unterschiedliche Aspekte von Gemeinschaft fokussierten und sich ergänzten. Dabei spielte das Spannungsfeld zwischen Individualität, Heterogenität und Gemeinschaft für alle Lehrkräfte eine Rolle. In Rahmen der Forschungsfrage 2 konnten außerdem verschiedene Handlungen und Praktiken identifiziert werden, wie Lehrkräfte eine Gemeinschaft im individualisierten Unterricht gestalteten und dabei individualisiertes mit gemeinschaftlichem Lernen produktiv miteinander verbanden. Dabei wurde eine Gemeinschaft im Unterricht von den Lehrkräften als zentral für das soziale Lernen der Schüler:innen beschrieben. So verstanden sie den gemeinsamen Unterricht in heterogenen Lerngruppen als Vorbereitung für das Leben und Arbeiten in einer pluralen Gesellschaft.
Teilstudie 2 konnte zeigen, dass die Fragebogenskala zum Gemeinschaftsgefühl der Schüler:innen gute Reliabilität und Validität aufwies und damit geeignet für weitere Untersuchungen war. Im Anschluss daran zeigten sich Zusammenhänge des Gemeinschaftsgefühls mit der Unterrichtsqualität (kognitive Aktivierung, Klassenführung und konstruktive Unterstützung). Insbesondere konstruktive Unterstützung (durch die Lehrkraft) hing stark mit dem Gemeinschaftsgefühl der Schüler:innen zusammen. Dieser Zusammenhang war geringer in besonders leistungsheterogenen Lerngruppen (hier erfasst über die Jahrgangsmischung). So war das Gemeinschaftsgefühl dort weniger abhängig von der Beziehungsqualität zur Lehrkraft. In weiteren Untersuchungen konnte außerdem kein Zusammenhang mit Merkmalen einer individualisierten Unterrichtsgestaltung gefunden werden, was die Befürchtung nicht bestärkte, dass eine Individualisierung des Unterrichts und eine Gemeinschaft im Unterricht sich gegenseitig ausschließen.
In Teilstudie 3 zeigte sich, dass die soziale Eingebundenheit der Schüler:innen von Situation zu Situation und von Schüler:in zu Schüler:in stark variierte. Die durchschnittlich empfundene soziale Eingebundenheit der Schüler:innen und auch das Ausmaß der Variation der sozialen Eingebundenheit hingen dabei eng mit dem Gemeinschaftsgefühl zusammen. Dieser Befund blieb auch unter Einbezug der Unterrichtsqualität bestehen, die keinen eigenen Einfluss auf die soziale Eingebundenheit zeigte. Außerdem ließen sich positive Zusammenhänge zwischen sozialer Eingebundenheit und Merkmalen der individualisierten Unterrichtsgestaltung finden. So fühlten sich Schüler:innen stärker sozial eingebunden, wenn die Aufgaben stärker differenziert waren und sie mehr Autonomie bei der Bearbeitung der Aufgaben hatten.
Zusammengefasst weisen die Ergebnisse der vorliegenden Studie darauf hin, dass Gemeinschaft im individualisierten Unterricht sowohl für die Lehrkräfte als auch für die Schüler:innen eine wichtige Rolle spielt. So sprechen die Lehrkräfte einer Gemeinschaft wichtige Funktionen in ihrem Unterricht zu und kümmern sich aktiv darum eine Gemeinschaft zu gestalten. Das Gemeinschaftsgefühl der Schüler:innen zeigte positive Zusammenhänge mit relevanten Aspekten der Unterrichtsqualität und mit sozialer Eingebundenheit. Die Befürchtung, dass eine Individualisierung des Unterrichts zu einer Vereinzelung der Schüler:innen führt, konnte nicht bestätigt werden. Vielmehr scheinen Individualisierung und Gemeinschaft sich gegenseitig, als zwei Komplementäre beim Umgang mit Heterogenität zu unterstützen.
Die Herausforderung, produktiv mit Heterogenität umzugehen, wird sich auch in der Zukunft an Schulen stellen. Dabei ist nicht nur das individuelle Lernen, sondern auch der soziale Umgang der Schüler:innen miteinander in den Blick zu nehmen. Die vorliegende Studie trägt dazu bei, beides miteinander zu verknüpfen, indem die Bedeutung einer Gemeinschaft im individualisierten Unterricht anhand verschiedener Perspektiven herausgearbeitet wird. Abschließend werden Implikationen für Forschung und Praxis formuliert.
Die vorliegende Studie beschäftigt sich mit dem nach einer Strukturveränderung in der Sekundarstufe I entstandenen Schulmodell der Neuen Mittelschule. Untersucht wird, ob sich durch dieses Schulmodell und der damit intendierten neuen Lehr-, Lern- und Prüfungskultur Zusammenhänge zwischen gemessenen mathematischen Kompetenzen der Schüler und den durch Lehrer vergebenen Jahresnoten feststellen lassen.
Die Literaturrecherche macht deutlich, dass die Kritik an der Monokultur des leh-rerzentrierten Unterrichts zwar zu einer neuen Lehr-, Lern- und Prüfungskultur führt, deren Inhalte sind aber recht unterschiedlich, komplex und nicht eindeutig definiert. In der NMS soll die Leistungsbewertung als Lernhilfe fungieren, aber auch verlässliche Aussagen über die Leistung der Schüler treffen. Zur Wirkung der neuen Lernkultur in der NMS gibt es ebenso keine empirischen Befunde wie über die Wirkung der Leistungsbewertung.
An der empirischen Untersuchung nehmen 79 Schüler der sechsten Schulstufe aus drei Neuen Mittelschulen (dicht besiedelte, mittel besiedelte, dünn besiedelte Gemeinde) in Niederösterreich teil. In jeder Schule werden zwei Klassen untersucht. Dabei werden der Kompetenzstand in Mathematik, Schülerzentriertheit sowie Sozial- und Leistungsdruck aus Sicht der Schüler gemeinsam mit der Jah-resnote erhoben.
Für die Studie wird ein Pfadmodell entwickelt und mit einer Pfadanalyse ausge-wertet. Dabei zeigen sich zwar Zusammenhänge zwischen den gemessenen Kompetenzen in Mathematik und den Jahresnoten. Diese Jahresnoten besitzen über die Klasse bzw. die Schule hinaus aber nur eine bedingte Aussagekraft über die erbrachten Leistungen.
BCH Codes mit kombinierter Korrektur und Erkennung In dieser Arbeit wird auf Grundlage des BCH Codes untersucht, wie eine Fehlerkorrektur mit einer Erkennung höherer Fehleranzahlen kombiniert werden kann. Mit dem Verfahren der 1-Bit Korrektur mit zusätzlicher Erkennung höherer Fehler wurde ein Ansatz entwickelt, welcher die Erkennung zusätzlicher Fehler durch das parallele Lösen einfacher Gleichungen der Form s_x = s_1^x durchführt. Die Anzahl dieser Gleichungen ist linear zu der Anzahl der zu überprüfenden höheren Fehler.
In dieser Arbeit wurde zusätzlich für bis zu 4-Bit Korrekturen mit zusätzlicher Erkennung höherer Fehler ein weiterer allgemeiner Ansatz vorgestellt. Dabei werden parallel für alle korrigierbaren Fehleranzahlen spekulative Fehlerkorrekturen durchgeführt. Aus den bestimmten Fehlerstellen werden spekulative Syndromkomponenten erzeugt, durch welche die Fehlerstellen bestätigt und höhere erkennbare Fehleranzahlen ausgeschlossen werden können. Die vorgestellten Ansätze unterscheiden sich von dem in entwickelten Ansatz, bei welchem die Anzahl der Fehlerstellen durch die Berechnung von Determinanten in absteigender Reihenfolge berechnet wird, bis die erste Determinante 0 bildet. Bei dem bekannten Verfahren ist durch die Berechnung der Determinanten eine faktorielle Anzahl an Berechnungen in Relation zu der Anzahl zu überprüfender Fehler durchzuführen. Im Vergleich zu dem bekannten sequentiellen Verfahrens nach Berlekamp Massey besitzen die Berechnungen im vorgestellten Ansatz simple Gleichungen und können parallel durchgeführt werden.Bei dem bekannten Verfahren zur parallelen Korrektur von 4-Bit Fehlern ist eine Gleichung vierten Grades im GF(2^m) zu lösen. Dies erfolgt, indem eine Hilfsgleichung dritten Grades und vier Gleichungen zweiten Grades parallel gelöst werden. In der vorliegenden Arbeit wurde gezeigt, dass sich eine Gleichung zweiten Grades einsparen lässt, wodurch sich eine Vereinfachung der Hardware bei einer parallelen Realisierung der 4-Bit Korrektur ergibt. Die erzielten Ergebnisse wurden durch umfangreiche Simulationen in Software und Hardwareimplementierungen überprüft.
In Forschungsprogrammen werden zahlreiche Akteure mit unterschiedlichen Hintergründen und fachlichen Expertisen in Einzel- oder Verbundvorhaben vereint, die jedoch weitestgehend unabhängig voneinander durchgeführt werden. Vor dem Hintergrund, dass gesamtgesellschaftliche Herausforderungen wie die globale Erwärmung zunehmend disziplinübergreifende Lösungsansätze erfordern, sollten Vernetzungs- und Transferprozesse in Forschungsprogrammen stärker in den Fokus rücken. Mit der Implementierung einer Begleitforschung kann dieser Forderung Rechnung getragen werden. Begleitforschung unterscheidet sich in ihrer Herangehensweise und ihrer Zielvorstellung von den „üblichen“ Projekten und kann in unterschiedlichen theoretischen Reinformen auftreten. Verkürzt dargestellt agiert sie entweder (1) inhaltlich komplementär zu den jeweiligen Forschungsprojekten, (2) auf einer Metaebene mit Fokus auf die Prozesse im Forschungsprogramm oder (3) als integrierende, synthetisierende Instanz, für die die Vernetzung der Projekte im Forschungsprogramm sowie der Wissenstransfer von Bedeutung sind. Zwar sind diese Formen analytisch in theoretische Reinformen trennbar, in der Praxis ergibt sich in der Regel jedoch ein Mix aus allen dreien.
In diesem Zusammenhang schließt die vorliegende Dissertation als ergänzende Studie an bisherige Ansätze zum methodischen Handwerkszeug der Begleitforschung an und fokussiert auf folgende Fragestellungen: Auf welcher Basis kann die Vernetzung der Akteure in einem Forschungsprogramm durchgeführt werden, um diese effektiv zusammenzubringen? Welche weiteren methodischen Elemente sollten daran ansetzen, um einen Mehrwert zu generieren, der die Summe der Einzelergebnisse des Forschungsprogrammes übersteigt? Von welcher Art kann dann ein solcher Mehrwert sein und welche Rolle spielt dabei die Begleitforschung?
Das erste methodische Element bildet die Erhebung und Aufbereitung einer Ausgangsdatenbasis. Durch eine auf semantischer Analyse basierenden Verschlagwortung projektbezogener Texte lässt sich eine umfassende Datenbasis aus den Inhalten der Forschungsprojekte generieren. Die Schlagwörter werden dabei anhand eines kontrollierten Vokabulars in einem Schlagwortkatalog strukturiert. Parallel dazu werden sie wiederum den jeweiligen Projekten zugeordnet, wodurch diese thematische Merkmale erhalten. Um thematische Überschneidungen zwischen Forschungsprojekten sichtbar und interpretierbar zu machen, beinhaltet das zweite Element Ansätze zur Visualisierung. Dazu werden die Informationen in einen Netzwerkgraphen transferiert, der sowohl alle im Forschungsprogramm involvierten Projekte als auch die identifizierten Schlagwörter in Relation zueinander abbilden kann. So kann zum Beispiel sichtbar gemacht werden, welche Forschungsprojekte sich auf Basis ihrer Inhalte „näher“ sind als andere. Genau diese Information wird im dritten methodischen Element als Planungsgrundlage für unterschiedliche Veranstaltungsformate wie Arbeitstagungen oder Transferwerkstätten genutzt. Das vierte methodische Element umfasst die Synthesebildung. Diese gestaltet sich als Prozess über den gesamten Zeitraum der Zusammenarbeit zwischen Begleitforschung und den weiteren Forschungsprojekten hinweg, da in die Synthese unter anderem Zwischen-, Teil- und Endergebnisse der Projekte einfließen, genauso wie Inhalte aus den unterschiedlichen Veranstaltungen. Letztendlich ist dieses vierte Element auch das Mittel, um aus den integrierten und synthetisierten Informationen Handlungsempfehlungen für zukünftige Vorhaben abzuleiten.
Die Erarbeitung der methodischen Elemente erfolgte im laufenden Prozess des Begleitforschungsprojektes KlimAgrar, welches der vorliegenden Dissertation als Fallbeispiel dient und dessen Hintergründe in der Thematik Klimaschutz und Klimaanpassung in der Landwirtschaft im Text ausführlich erläutert werden.
Dielektrophorese ist die Manipulation polarisierbarer Partikel durch inhomogene elektrische Wechselfelder. In dieser Arbeit wurden drei verschiedene Enzyme durch Dielektrophorese immobilisiert und anschließend hinsichtlich ihrer katalytischen Aktivität untersucht: Meerrettichperoxidase, Cholinoxidase aus Alcaligenes sp. und Glucoseoxidase aus Aspergillus niger. Die Immobilisierung erfolgte durch Dielektrophorese auf nano-Elektrodenarrays aus Wolfram-Zylindern mit 500 nm Durchmesser oder aus Titannitrid-Ringen mit 20 nm Breite. Die Immobilisierung der Enzyme konnte fluoreszenzmikroskopisch entweder anhand der intrinsischen Fluoreszenz oder aufgrund einer Fluoreszenzmarkierung vor oder nach der Immobilisierung für alle getesteten Enzyme nachgewiesen werden. Die Messung der Enzymaktivität erfolgte quantitativ durch den direkten oder indirekten Nachweis des gebildeten Produktes oder, im Falle der Cholinoxidase, durch Beobachtung der intrinsischen Fluoreszenz des Cofaktors FAD, die vom Oxidationszustand dieses Enzyms abhängt. Für die Meerrettichperoxidase konnte so eine hohe erhaltene Enzymaktivität nach der Immobilisierung nachgewiesen werden. Die Aktivität der permanent immobilisierten Fraktion der Meerrettichperoxidase entsprach bis zu 47 % der höchstmöglichen Aktivität einer Monolage dieses Enzyms auf den Elektroden des Chips. Diese Aktivität kann als aktive, aber zufällig gegenüber der Oberfläche ausgerichtete Enzymschicht interpretiert werden. Für die permanent immobilisierte Glucoseoxidase wurde nur eine Aktivität entsprechend <1,3 % der Aktivität einer solchen Enzymschicht detektiert, während für die immobilisierte Cholinoxidase gar keine Aktivität nachgewiesen werden konnte. Die Aktivität der durch DEP immobilisierten Enzyme konnte somit quantitativ bestimmt werden. Der Anteil an erhaltener Aktivität hängt dabei stark vom verwendeten Enzym ab.
Proteine erfüllen bei einer Vielzahl von Prozessen eine essenzielle Rolle. Um diese Funktionsweisen zu verstehen, bedarf es der Aufklärung derer Struktur und deren Bindungsverhaltens mit anderen Molekülen wie Proteinen, Peptiden, Kohlenhydraten oder kleinen Molekülen. Im ersten Teil dieser Arbeit wurden der Wildtyp und die Punktmutante N126W eines Kohlenhydrat-bindenden Proteins aus dem hitzestabilen Bakterium C. thermocellum untersucht, welches Teil eines Komplexes ist, der Kohlenhydrate wie Cellulose erkennen, binden und abbauen kann. Dazu wurde dieses Protein mit E.coli Bakterien hergestellt und durch Metallchelat- und Größenausschlusschromatographie gereinigt. Die Proteine konnten isotopenmarkiert mittels Kernspinresonanz-Spektroskopie (NMR) untersucht werden. H/D-Austauschexperimente zeigten leicht und schwer zugängliche Stellen im Protein für eine mögliche Ligandenwechselwirkung. Anschließend konnte eine Interaktion beider Proteine mit Cellulosefragmenten festgestellt werden. Diese interagieren über zwischenmolekulare Kräfte mit den Seitenketten von aromatischen Aminosäuren und über Wasserstoffbrückenbindungen mit anderen Resten. Weiterhin wurde die Calcium-Bindestelle analysiert und es konnte gezeigt werden, das diese nach der Proteinherstellung mit einem Calcium-Ion besetzt ist und dieses mit dem Komplexbildner EDTA entfernbar ist, jedoch wieder reversibel besetzt werden kann. Zum Schluss wurde mittels zweier Methoden versucht (grafting from und grafting to), das Protein mit einem temperatursensorischen Polymer (Poly-N-Isopropylacrylamid) zu koppeln, um so Eigenschaften wie Löslichkeit oder Stabilität zu beeinflussen. Es zeigte sich, das während die grafting from Methode (Polymer wächst direkt vom Protein) zu einer teilweisen Entfaltung und Destabilisierung des Proteins führte, bei der grafting to Methode (Polymer wird separat hergestellt und dann an das Protein gekoppelt) das Protein seine Stabilität behielt und nur wenige Polymerketten angebaut waren. Der zweite Teil dieser Arbeit beschäftigte sich mit der Interaktion von zwei LIM-Domänen des Proteins Paxillin und der zytoplasmatischen Domäne der Peptide Integrin-β1 und Integrin-β3. Diese spielen eine wichtige Rolle bei der Bewegung von Zellen. Dabei interagieren sie mit einer Vielzahl an anderen Proteinen, um fokale Adhäsionen (Multiproteinkomplexe) zu bilden. Bei der Herstellung des Peptids Integrin-β3 zeigte sich durch Größenausschlusschromatographie und Massenspektrometrie ein Abbau, bei dem verschiedene Aminosäuregruppen abgespalten werden. Dieser konnte durch eine Zugabe des Serinprotease-Inhibitors AEBSF verhindert werden. Anschließend wurde die direkte Interaktion der Proteine untereinander mittels NMR untersucht. Dabei zeigte sich, das Integrin-β1 und Integrin-β3 an die gleiche Position binden, nämlich an den flexiblen Loop der LIM3-Domäne von Paxillin. Die Dissoziationskonstanten zeigten, dass Integrin-β1 mit einer zirka zehnfach höheren Affinität im Vergleich zu Integrin-β3 an Paxillin bindet. Während Paxillins Bindestelle an Integrin-β1 in der Mitte des Peptids liegt, ist bei Integrin-β3 der C-Terminus essenziell. Daher wurden die drei C-terminalen Aminosäuren entfernt und erneut Bindungsstudien durchgeführt, welche gezeigt haben, das die Affinität dadurch fast vollständig unterbunden wurde. Final wurde der flexible Loop der LIM3-Domäne in zwei andere Aminosäuresequenzen mutiert, um die Bindung auf der Paxillin-Seite auszulöschen. Jedoch zeigten sowohl Zirkulardichroismus-Spektroskopie als auch NMR-Spektroskopie, dass die Mutationen zu einer teilweisen Entfaltung der Domäne geführt haben und somit nicht als geeignete Kandidaten für diese Studien identifiziert werden konnten.
Die vorliegende Dissertation verfolgt das Ziel, die diagnostischen Möglichkeiten für das Stö-rungsbild der erworbenen Dyslexie bei deutschsprachigen Personen mit Dyslexie (PmD) zu erweitern und zu spezifizieren.
In der Literatur werden verschiedene Sprachverarbeitungsmodelle diskutiert, die den kognitiven Prozess der Schriftsprachverarbeitung zu erklären versuchen. Alle Überlegungen, Erhebungen und Analysen dieser Dissertation fußen auf den theoretischen Annahmen des kognitiven Zwei-Routen-Lesemodells, welches zwischen lexikalisch-semantischer und segmentaler, sub-lexikalischer Verarbeitung beim Lesen unterscheidet und so die voneinander unabhängigen Fähigkeiten zum Lesen bekannter und unbekannter Wörter abbilden kann. Mit dem im Rahmen der Dissertation entwickelten, kognitiv orientierten Diagnostikverfahren DYMO (Dyslexie Mo-dellorientiert) soll durch die Erhebung der Lesefähigkeiten von PmD eine möglichst genaue modelltheoretische Verortung der Lesebeeinträchtigung erreicht und eine Grundlage für die Planung einer lesebezogenen Therapie geschaffen werden. Dabei werden auch Modellkomponenten des Zwei-Routen-Lesemodells berücksichtigt, die bisher im deutschsprachigen Raum noch nicht etabliert sind. Dazu zählen Unterkomponenten der Visuellen Analyse, die für die Identifikation von Buchstaben und das Kodieren von Buchstabenpositionen verantwortlich sind und Unterkomponenten der segmentalen Leseroute, die den einzelheitlichen Leseprozess auf dieser Modellroute schrittweise abbilden. Das Itemmaterial aus DYMO ist nach diversen psycholinguistisch kontrollierten Variablen kontrolliert. Hierbei werden auch Variablen berücksichtigt, die bisher in der Dyslexiediagnostik für deutschsprachige PmD nicht systematisch erfasst werden können, wie die Wortlänge und die graphematische Komplexität von Pseudowörtern.
Die erste dieser Dissertation zugrundeliegende Publikation (Originalarbeit I) befasst sich mit den Parametern und Modellkomponenten, die für eine umfassende modelltheoretisch basierte Di-agnostik bei erworbener Dyslexie entscheidend sind. Es werden außerdem Überlegungen zu Fehlertypen-Kategorisierung angestellt.
Die zweite Publikation (Originalarbeit II) stellt das Testverfahren DYMO dar. Das dazugehörige Handbuch liefert detaillierte Informationen zum Aufbau und der Konstruktion des Testverfah-rens, zur Durchführung und Auswertung der einzelnen Untertests und zur Einstufung einer Leistung in einen Leistungsbereich. Anhand von ausführlich beschriebenen Fallbeispielen zweier PmD werden die Durchführung, Auswertung, Interpretation und das Ableiten von Therapiezielen dargestellt. Die Ergebnisse dieser Fallbeschreibungen verdeutlichen die diagnostische Ergänzung durch DYMO und zeigen, dass das explizite Untersuchen der Unterkomponenten der Visuellen Analyse und der segmentalen Leseroute sowie der Einbezug der Variablen Wortlänge und gra-phematische Komplexität den Lesebefund spezifizieren und den Therapieeinstieg konkretisieren können.
Die dritte Publikation (Originalarbeit III) zeigt in einer systematischen Vergleichsstudie anhand einer Fallserie von zwölf PmD die Unterschiede zwischen dem Diagnostikverfahren DYMO und einem weiteren kognitiv basierten Diagnostikverfahren. Es wird diskutiert, inwieweit DYMO eine sinnvolle Ergänzung im Diagnostikprozess erworbener Dyslexien darstellen kann. Außerdem werden leicht und schwer beeinträchtigte PmD in Gruppenanalysen verglichen, um zu prüfen, ob DYMO insbesondere bei leicht beeinträchtigten PmD eine Ergänzung bieten kann. Aufgrund des komplexeren Itemmaterials von DYMO (beispielsweise aufgrund der Kontrolle der Wortlänge) wurde angenommen, dass leicht beeinträchtigte PmD in DYMO-Untertests auffälligere Leseleistungen zeigen als in Aufgaben des gegenübergestellten anderen Diagnostikverfahrens. Diese Hypothese konnte teilweise bestätigt werden. Leicht beeinträchtigte PmD zeigten häufiger Längeneffekte als schwer beeinträchtigte PmD. Insgesamt fiel der Gruppenunterschied jedoch nicht so deutlich aus, wie erwartet.
Mit dem kriteriumsorientiert normierten und finalisierten Material von DYMO wurden 17 PmD getestet. Ausführliche Befunde für jede einzelne PmD mit darauffolgenden Therapieimplikationen zeigen, dass insbesondere die Spezifizierung eines segmentalen Lesedefizits bei einer schwer beeinträchtigten Leistung im Lesen von Pseudowörtern zur erweiterten Aussage bezüglich des modelltheoretischen Störungsortes beitragen kann. Dies verdeutlicht die hohe Aussagekraft der DYMO-Untertests und die Relevanz einer spezifischen und detaillierten modellbasierten Befunderhebung für eine explizite, individuelle Therapieplanung bei erworbenen Dyslexien.
Abzug unter Beobachtung
(2022)
Mehr als vier Jahrzehnte lang beobachteten die Streitkräfte und Militärnachrichtendienste der NATO-Staaten die sowjetischen Truppen in der DDR. Hierfür übernahm in der Bundesrepublik Deutschland der Bundesnachrichtendienst (BND) die militärische Auslandsaufklärung unter Anwendung nachrichtendienstlicher Mittel und Methoden. Die Bundeswehr betrieb dagegen taktische Fernmelde- und elektronische Aufklärung und hörte vor allem den Funkverkehr der „Gruppe der sowjetischen Streitkräfte in Deutschland“ (GSSD) ab. Mit der Aufstellung einer zentralen Dienststelle für das militärische Nachrichtenwesen, dem Amt für Nachrichtenwesen der Bundeswehr, bündelte und erweiterte zugleich das Bundesministerium für Verteidigung in den 1980er Jahren seine analytischen Kapazitäten. Das Monopol des BND in der militärischen Auslandsaufklärung wurde von der Bundeswehr dadurch zunehmend infrage gestellt.
Nach der deutschen Wiedervereinigung am 3. Oktober 1990 befanden sich immer noch mehr als 300.000 sowjetische Soldaten auf deutschem Territorium. Die 1989 in Westgruppe der Truppen (WGT) umbenannte GSSD sollte – so der Zwei-plus-Vier-Vertrag – bis 1994 vollständig abziehen. Der Vertrag verbot auch den drei Westmächten, in den neuen Bundesländern militärisch tätig zu sein. Die für die Militäraufklärung bis dahin unverzichtbaren Militärverbindungsmissionen der Westmächte mussten ihre Dienste einstellen. Doch was geschah mit diesem „alliierten Erbe“? Wer übernahm auf deutscher Seite die Aufklärung der sowjetischen Truppen und wer kontrollierte den Truppenabzug?
Die Studie untersucht die Rolle von Bundeswehr und BND beim Abzug der WGT zwischen 1990 und 1994 und fragt dabei nach Kooperation und Konkurrenz zwischen Streitkräften und Nachrichtendiensten. Welche militärischen und nachrichtendienstlichen Mittel und Fähigkeiten stellte die Bundesregierung zur Bewältigung des Truppenabzugs zur Verfügung, nachdem die westlichen Militärverbindungsmissionen aufgelöst wurden? Wie veränderten sich die Anforderungen an die militärische Auslandsaufklärung des BND? Inwieweit setzten sich Konkurrenz und Kooperation von Bundeswehr und BNDbeim Truppenabzug fort? Welche Rolle spielten dabei die einstigen Westmächte? Die Arbeit versteht sich nicht nur als Beitrag zur Militärgeschichte, sondern auch zur deutschen Nachrichtendienstgeschichte.
Pädagog*innen der Primarstufe nehmen an spezifischen bewegungsorientierten Weiterbildungen teil. Zahlreiche Untersuchungen im Kontext von Fort- und Weiterbildungen stellen dar, unter welchen Bedingungen sich Teilnahmen förderlich oder hinderlich auswirken. In didaktisch-konzeptionellen Überlegungen werden häufig Fragen diskutiert, wie äußere Umstände, etwa in Bezug auf zeitliche, räumliche oder inhaltliche Dimensionen, zu gestalten sind, damit Bildungsangebote im Schulsystem bestimmte Wirkungen erzielen. Unter welchen Bedingungen erfolgt sozusagen günstiger Weise eine Vermittlung von spezifischen Inhalten an Lehrer*innen, damit über diese ein Transfereffekt von (system-)relevantem Wissen in das Schulsystem erfolgen kann?
In dieser Forschungsarbeit soll nicht ein Bedingungsdiskurs im Vordergrund stehen, auf dessen Grundlage wirkungsvolle Vermittlungsstrategien für Bildungsangebote diskutiert werden. Im Zentrum steht die Frage nach je eigenen Teilnahme- und Lernbegründungen von Pädagog*innen, und wie sie sich zu ihrer Weiterbildung ins Verhältnis setzen. Dieser Zugang verändert die Perspektive auf die Thematik und erlaubt die Auseinandersetzung mit Subjekten im Rahmen eines Begründungsdiskurses. Im Zuge einer empirisch-qualitativen Studie werden narrative Interviews mit elf Absolvent*innen einer bewegungsorientierten Weiterbildung geführt, die Auswertung der Daten erfolgt mit der Dokumentarischen Methode. Die Rekonstruktionsergebnisse werden in Form von zwei Fallbeschreibungen und durch vier typische, in der Studie entwickelte, Begründungsfiguren dargestellt: die Figur Lernen, die Figur Wissensmanagement, die Figur Neugierige Suche und die Figur Körperliche Aktivität. Neben der Rekonstruktion von Teilnahme- und Lernbegründungsmustern wird deutlich, dass Teilnehmen und Lernen keine unterschiedlichen Zugangslogiken in Bezug auf Bedeutungs-Begründungs-Zusammenhänge verfolgen. Vielmehr sind sowohl expansive als auch defensive Lernbegründungen im Zuge von Teilnahmebegründungen identifizierbar.
Das Ziel dieser Arbeit ist die Entwicklung eines Industrie 4.0 Reifegradindex für produzierende Unternehmen (KMU und Mittelstand) mit diskreter Produktion. Die Motivation zu dieser Arbeit entstand aus dem Zögern vieler Unternehmen – insbesondere KMU und Mittelstand – bei der Transformation in Richtung Industrie 4.0. Im Rahmen einer Marktstudie konnte belegt werden, dass 86 Prozent der befragten produzierenden Unternehmen kein für ihr Unternehmen geeignetes Industrie 4.0 Reifegradmodell gefunden haben, mit dem sie ihren Status Quo bewerten und Maßnahmen für einen höheren Grad der Reife ableiten könnten. Die Bewertung bestehender Reifegradmodelle zeigte Defizite hinsichtlich der Industrie 4.0 Abdeckung, der Betrachtung der sozio-technischen Dimensionen Mensch, Technik und Organisation sowie der Betrachtung von Management und Unternehmenskultur. Basierend auf den aktuellen Industrie 4.0 Technologien und Handlungsbereichen wurde ein neues, modular aufgebautes Industrie 4.0 Reifegradmodell entwickelt, das auf einer ganzheitlichen Betrachtung aller sozio-technischen Dimensionen Mensch, Technik und Organisation sowie deren Schnittstellen basiert. Das Modell ermittelt neben dem Overall Industry 4.0 Maturity Index (OI4MI) vier weitere Indizes zur Bewertung der Industrie 4.0 Reife des Unternehmens. Das Modell wurde bei einem Unternehmen validiert und steht nun als Template für darauf aufbauende Forschungsarbeiten zur Verfügung.
Die aktuelle COVID-19-Pandemie zeigt deutlich, wie sich Infektionskrankheiten weltweit verbreiten können. Neben Viruserkrankungen breiten sich auch multiresistente bakterielle Erreger weltweit aus. Dementsprechend besteht ein hoher Bedarf, durch frühzeitige Erkennung Erkrankte zu finden und Infektionswege zu unterbrechen.
Herkömmliche kulturelle Verfahren benötigen minimalinvasive bzw. invasive Proben und dauern für Screeningmaßnahmen zu lange. Deshalb werden schnelle, nichtinvasive Verfahren benötigt.
Im klassischen Griechenland verließen sich die Ärzte unter anderem auf ihren Geruchssinn, um Infektionen und andere Krankheiten zu differenzieren. Diese charakteristischen Gerüche sind flüchtige organische Substanzen (VOC), die im Rahmen des Metabolismus eines Organismus entstehen. Tiere, die einen besseren Geruchssinn haben, werden trainiert, bestimmte Krankheitserreger am Geruch zu unterscheiden. Allerdings ist der Einsatz von Tieren im klinischen Alltag nicht praktikabel. Es bietet sich an, auf technischem Weg diese VOCs zu analysieren.
Ein technisches Verfahren, diese VOCs zu unterscheiden, ist die Ionenmobilitätsspektrometrie gekoppelt mit einer multikapillaren Gaschromatographiesäule (MCC-IMS). Hier zeigte sich, dass es sich bei dem Verfahren um eine schnelle, sensitive und verlässliche Methode handelt.
Es ist bekannt, dass verschiedene Bakterien aufgrund des Metabolismus unterschiedliche VOCs und damit eigene spezifische Gerüche produzieren. Im ersten Schritt dieser Arbeit konnte gezeigt werden, dass die verschiedenen Bakterien in-vitro nach einer kurzen Inkubationszeitzeit von 90 Minuten anhand der VOCs differenziert werden können. Hier konnte analog zur Diagnose in biochemischen Testreihen eine hierarchische Klassifikation der Bakterien erfolgen.
Im Gegensatz zu Bakterien haben Viren keinen eigenen Stoffwechsel. Ob virusinfizierte Zellen andere VOCs als nicht-infizierte Zellen freisetzen, wurde an Zellkulturen überprüft. Hier konnte gezeigt werden, dass sich die Fingerprints der VOCs in Zellkulturen infizierter Zellen mit Respiratorischen Synzytial-Viren (RSV) von nicht-infizierten Zellen unterscheiden.
Virusinfektionen im intakten Organismus unterscheiden sich von den Zellkulturen dadurch, dass hier neben Veränderungen im Zellstoffwechsel auch durch Abwehrmechanismen VOCs freigesetzt werden können.
Zur Überprüfung, inwiefern sich Infektionen im intakten Organismus ebenfalls anhand VOCs unterscheiden lassen, wurde bei Patienten mit und ohne Nachweis einer Influenza A Infektion als auch bei Patienten mit Verdacht auf SARS-CoV-2 (Schweres-akutes-Atemwegssyndrom-Coronavirus Typ 2) Infektion die Atemluft untersucht. Sowohl Influenza-infizierte als auch SARS-CoV-2 infizierte Patienten konnten untereinander und von nicht-infizierten Patienten mittels MCC-IMS Analyse der Atemluft unterschieden werden.
Zusammenfassend erbringt die MCC-IMS ermutigende Resultate in der schnellen nichtinvasiven Erkennung von Infektionen sowohl in vitro als auch in vivo.
Die vorliegende kumulative Promotionsarbeit beschäftigt sich mit leistungsstarken Schülerinnen und Schülern, die seit 2015 in der deutschen Bildungspolitik, zum Beispiel im Rahmen von Förderprogrammen wieder mehr Raum einnehmen, nachdem in Folge des „PISA-Schocks“ im Jahr 2000 zunächst der Fokus stärker auf den Risikogruppen lag. Während leistungsstärkere Schülerinnen und Schüler in der öffentlichen Wahrnehmung häufig mit „(Hoch-)Begabten“ identifiziert werden, geht die Arbeit über die traditionelle Begabungsforschung, die eine generelle Intelligenz als Grundlage für Leistungsfähigkeit von Schülerinnen und Schülern begreift und beforscht, hinaus. Stattdessen lässt sich eher in den Bereich der Talentforschung einordnen, die den Fokus weg von allgemeinen Begabungen auf spezifische Prädiktoren und Outcomes im individuellen Entwicklungsverlauf legt. Der Fokus der Arbeit liegt daher nicht auf Intelligenz als Potenzial, sondern auf der aktuellen schulischen Leistung, die als Ergebnis und Ausgangspunkt von Entwicklungsprozessen in einer Leistungsdomäne doppelte Bedeutung erhält.
Die Arbeit erkennt die Vielgestaltigkeit des Leistungsbegriffs an und ist bestrebt, neue Anlässe zu schaffen, über den Leistungsbegriff und seine Operationalisierung in der Forschung zu diskutieren. Hierfür wird im ersten Teil ein systematisches Review zur Operationalisierung von Leistungsstärke durchgeführt (Artikel I). Es werden Faktoren herausgearbeitet, auf welchen sich die Operationalisierungen unterscheiden können. Weiterhin wird ein Überblick gegeben, wie Studien zu Leistungsstarken sich seit dem Jahr 2000 auf diesen Dimensionen verorten lassen. Es zeigt sich, dass eindeutige Konventionen zur Definition schulischer Leistungsstärke noch nicht existieren, woraus folgt, dass Ergebnisse aus Studien, die sich mit leistungsstarken Schülerinnen und Schülern beschäftigen, nur bedingt miteinander vergleichbar sind. Im zweiten Teil der Arbeit wird im Rahmen zwei weiterer Artikel, welche sich mit der Leistungsentwicklung (Artikel II) und der sozialen Einbindung (Artikel III) von leistungsstarken Schülerinnen und Schülern befassen, darauf aufbauend der Ansatz verfolgt, die Variabilität von Ergebnissen über verschiedene Operationalisierungen von Leistungsstärke deutlich zu machen. Damit wird unter anderem auch die künftige Vergleichbarkeit mit anderen Studien erleichtert. Genutzt wird dabei das Konzept der Multiversumsanalyse (Steegen et al., 2016), bei welcher viele parallele Spezifikationen, die zugleich sinnvolle Alternativen für die Operationalisierung darstellen, nebeneinandergestellt und in ihrem Effekt verglichen werden (Jansen et al., 2021). Die Multiversumsanalyse knüpft konzeptuell an das bereits vor längerem entwickelte Forschungsprogramm des kritischen Multiplismus an (Patry, 2013; Shadish, 1986, 1993), erhält aber als spezifische Methode aktuell im Rahmen der Replizierbarkeitskrise in der Psychologie eine besondere Bedeutung. Dabei stützt sich die vorliegende Arbeit auf die Sekundäranalyse großangelegter Schulleistungsstudien, welche den Vorteil besitzen, dass eine große Zahl an Datenpunkten (Variablen und Personen) zur Verfügung steht, um Effekte unterschiedlicher Operationalisierungen zu vergleichen.
Inhaltlich greifen Artikel II und III Themen auf, die in der wissenschaftlichen und gesellschaftlichen Diskussion zu Leistungsstarken und ihrer Wahrnehmung in der Öffentlichkeit immer wieder aufscheinen: In Artikel II wird zunächst die Frage gestellt, ob Leistungsstarke bereits im aktuellen Regelunterricht einen kumulativen Vorteil gegenüber ihren weniger leistungsstarken Mitschülerinnen und Mitschülern haben (Matthäus-Effekt). Die Ergebnisse zeigen, dass an Gymnasien keineswegs von sich vergrößernden Unterschieden gesprochen werden kann. Im Gegenteil, es verringerte sich im Laufe der Sekundarstufe der Abstand zwischen den Gruppen, indem die Lernraten bei leistungsschwächeren Schülerinnen und Schülern höher waren. Artikel III hingegen betrifft die soziale Wahrnehmung von leistungsstarken Schülerinnen und Schülern. Auch hier hält sich in der öffentlichen Diskussion die Annahme, dass höhere Leistungen mit Nachteilen in der sozialen Integration einhergehen könnten, was sich auch in Studien widerspiegelt, die sich mit Geschlechterstereotypen Jugendlicher in Bezug auf Schulleistung beschäftigen. In Artikel III wird unter anderem erneut das Potenzial der Multiversumsanalyse genutzt, um die Variation des Zusammenhangs über Operationalisierungen von Leistungsstärke zu beschreiben. Es zeigt sich unter unterschiedlichen Operationalisierungen von Leistungsstärke und über verschiedene Facetten sozialer Integration hinweg, dass die Zusammenhänge zwischen Leistung und sozialer Integration insgesamt leicht positiv ausfallen. Annahmen, die auf differenzielle Effekte für Jungen und Mädchen oder für unterschiedliche Fächer abzielen, finden in diesen Analysen keine Bestätigung.
Die Dissertation zeigt, dass der Vergleich unterschiedlicher Ansätze zur Operationalisierung von Leistungsstärke — eingesetzt im Rahmen eines kritischen Multiplismus — das Verständnis von Phänomenen vertiefen kann und auch das Potenzial hat, Theorieentwicklung voranzubringen.