Refine
Year of publication
Document Type
- Doctoral Thesis (3249) (remove)
Language
- German (3249) (remove)
Is part of the Bibliography
- yes (3249) (remove)
Keywords
- Deutschland (10)
- Spracherwerb (9)
- language acquisition (9)
- Modellierung (8)
- taste (7)
- Digitalisierung (6)
- Evaluation (6)
- Geschmack (6)
- Polymer (6)
- Selen (6)
Institute
- Institut für Chemie (327)
- Wirtschaftswissenschaften (317)
- Institut für Biochemie und Biologie (301)
- Öffentliches Recht (243)
- Institut für Physik und Astronomie (228)
- Bürgerliches Recht (218)
- Historisches Institut (209)
- Institut für Ernährungswissenschaft (162)
- Sozialwissenschaften (125)
- Department Erziehungswissenschaft (99)
Quantified Self, die pro-aktive Selbstvermessung von Menschen, hat sich in den letzten Jahren von einer Nischenanwendung zu einem Massenphänomen entwickelt. Dabei stehen den Nutzern heute vielfältige technische Unterstützungsmöglichkeiten, beispielsweise in Form von Smartphones, Fitness-Trackern oder Gesundheitsapps zur Verfügung, welche eine annähernd lückenlose Überwachung unterschiedlicher Kontextfaktoren einer individuellen Lebenswirklichkeit erlauben.
In der Folge widmet sich diese Arbeit unter anderem der Fragestellung, inwieweit diese intensive und eigen-initiierte Beschäftigung, insbesondere mit gesundheitsbezogenen Daten, die weitgehend als objektiviert und damit belastbar gelten, die Gesundheitskompetenz derart aktiver Menschen erhöhen kann. Darüber hinaus werden Aspekte untersucht, inwieweit die neuen Technologien in der Lage sind, spezifische medizinische Erkenntnisse zu vertiefen und in der Konsequenz die daraus resultierenden Behandlungsprozesse zu verändern.
Während der Ursprung des Quantified Self im 2. Gesundheitsmarkt liegt, geht die vorliegende Arbeit der Frage nach, welche strukturellen, personellen und prozessualen Anknüpfungspunkte perspektivisch im 1. Gesundheitsmarkt existieren werden, wenn ein potentieller Patient in einer stärker emanzipierten Weise den Wunsch verspürt, oder eine entsprechende Forderung stellt, seine gesammelten Gesundheitsdaten in möglichst umfassender Form in eine medizinische Behandlung zu integrieren.
Dabei werden auf der einen Seite aktuelle Entwicklungen im 2. Gesundheitsmarkt untersucht, die gekennzeichnet sind von einer hohen Dynamik und einer großen Intransparenz. Auf der anderen Seite steht der als stark reguliert und wenig digitalisiert geltende 1. Gesundheitsmarkt mit seinen langen Entwicklungszyklen und ausgeprägten Partikularinteressen der verschiedenen Stakeholder.
In diesem Zuge werden aktuelle Entwicklungen des zugrunde liegenden Rechtsrahmens, speziell im Hinblick auf stärker patientenzentrierte und digitalisierte Normen untersucht, wobei insbesondere das Digitale Versorgung Gesetz eine wichtige Rolle einnimmt.
Ziel der Arbeit ist die stärkere Durchdringung von Wechselwirkungen an der Schnittstelle zwischen den beiden Gesundheitsmärkten in Bezug auf die Verwendung von Technologien der Selbstvermessung, um in der Folge zukünftige Geschäftspotentiale für existierende oder neu in den Markt drängende Dienstleister zu eruieren.
Als zentrale Methodik kommt hier eine Delphi-Studie zum Einsatz, die in einem interprofessionellen Ansatz versucht, ein Zukunftsbild dieser derzeit noch sehr jungen Entwicklungen für das Jahr 2030 aufzuzeigen. Eingebettet werden die Ergebnisse in die Untersuchung einer allgemeinen gesellschaftlichen Akzeptanz der skizzierten Veränderungen.
Efraim Frisch (1873–1942) und Albrecht Mendelssohn Bartholdy (1874–1936) waren im klassischen Zeitalter der Intellektuellen (neben anderem) Zeitschriftenentrepeneure und Gründer der kleinen Zeitschriften Der Neue Merkur (1914–1916/1919–1925) und Europäische Gespräche (1923–1933). Sie stehen (nicht nur mit ihren Zeitschriften) für einen der wiederholt in der Moderne unternommenen Versuche, die in der Aufklärung erschlossenen Ressourcen – demokratischer Republikanismus und universelle und gleiche Rechte für alle Menschen – im Vertrauen auf ihre globale Umsetzbarkeit zu aktivieren. In der Zeit der Weimarer Republik gehörten sie zu den Republikanern, „die Weimar als Symbol ernst nahmen und zäh und mutig bemüht waren, dem Ideal konkreten Inhalt zu verleihen“ (Peter Gay). Ihr bislang unüberliefert gebliebenes Beispiel fügt sich ein in die Demokratiegeschichte der europäischen Moderne, in die Geschichte internationaler Gesellschaftsbeziehungen und die Geschichte der Selbstbehauptung intellektueller Autonomie.
Die zäsurenübergreifend den Zeitraum von 1900 bis ca. 1940 untersuchende Studie ermöglicht wesentliche Einblicke in die Biografien Frischs und Mendelssohn Bartholdys, in die deutsch-französische/europäisch-transatlantische Welt der kleinen (literarisch-politischen) Zeitschriften des frühen 20. Jahrhunderts sowie in das medien-intellektuelle Feld des späten Kaiserreiches und der Weimarer Republik in seiner humanistisch-demokratisch-republikanischen Tendenz. Darüber hinaus beinhaltet sie neue Erkenntnisse zur Geschichte der ‚Heidelberger Vereinigung‘ – der Arbeitsgemeinschaft für eine Politik des Rechts – um Prinz Max von Baden, zur deutschen Friedensdelegation in Versailles 1919 und ihrem Hamburger Nachleben, zum Handbuch der Politik sowie zur ersten amtlichen Aktenpublikation des Auswärtigen Amtes – der Großen Politik der Europäischen Kabinette 1871–1914. Schließlich zu den Bemühungen der ‚Internationalists‘ der 1920er Jahre, eine effektive Ächtung des Angriffskrieges herbeizuführen.
Wie ist der „gute Ruf“ von Unternehmen und Einzelpersonen im Umfeld von Online-Bewertungsplattformen geschützt? Das Werk erforscht, ob und inwieweit das geltende Recht einen adäquaten und lückenlosen Schutz für die unternehmerische und personelle Reputation gewährleitstet. Die Systematisierung und Untersuchung des bestehenden Regelungsgefüges konzentriert sich auf das Lauterkeitsrecht und das allgemeine Deliktsrecht unter besonderer Berücksichtigung der rechtlichen Innovationen auf nationaler (UWG-Reform 2022) und europäischer (New Deal for Consumers, Digital Services Act) Ebene.
Die Dissertation wurde für den ›Justizpreis Berlin-Brandenburg – Carl Gottlieb Svarez 2024‹ vorgeschlagen.
Die Arbeit ist der Versuch einer zusammenhängenden historisierenden Lektüre der wichtigsten Essays und fiktionalen Prosatexte des Schriftstellers Ronald M. Schernikau (1960-1991). Der schwule Kommunist erklärte das Lob zur künstlerischen Strategie, formulierte gleichzeitig eine avancierte Gesellschaftskritik und verteidigte den realen Sozialismus auch gegen die Realität. Im Verlauf mehrerer Einzelstudien werden Themen, Schreibweisen und schließlich auch die Widersprüche, in die sich ein solches Projekt verstricken muss, analysiert. Vor dem Hintergrund zentraler politischer und ästhetischer Debatten der 1970er und -80er Jahre werden so die Umrisse einer politischen Poetik nachgezeichnet, die der Schönheit verpflichtet ist. Ein weiteres Augenmerk liegt dabei auf theorie- und bewegungsgeschichtlichen Aspekten.
Gibt es ein schwules Schreiben jenseits einer auktorialen Selbstpositionierung? Was würde eine kommunistische Literatur auszeichnen? Schernikau verhandelt poetologische Fragen um die Konzepte Autorschaft, Realismus und Werk, die nicht nur an gegenwärtige Diskurse anschlussfähig sind, sondern auf die Kernprobleme der politischen Literatur des Zwanzigsten Jahrhunderts verweisen.
Begrenztes Cottbus?
(2024)
In diesem Band ermöglicht Mario Kaun ausgewählte Einblicke in die Lebenswelt der Cottbuser Exklavengesellschaft des 18. Jahrhunderts. Erstmalig erscheint hiermit für diesen Untersuchungsraum eine grundlegende Studie, die in umfassender Weise die Exklave und das Verhältnis von Militär und Gesellschaft näher erforscht sowie die wirtschaftliche Funktion der Garnison in einer aufstrebenden Stadt kritisch hinterfragt. Der Autor lenkt hierbei das Augenmerk auf etliche, bisher völlig unbekannte Perspektiven, die darüber hinaus einen wichtigen Beitrag zur Stadt- und Regionalgeschichtsforschung von Cottbus und der Niederlausitz leisten. Insbesondere die Befassung mit der brandenburgisch-preußischen Exklave stellt eine wertvolle Ergänzung zur bislang rudimentären Forschungslage dar.
In dieser Arbeit wurde eine reaktive Wand in einem kleinskaligen Laborma\ss stab (Länge~=~40\,cm) entwickelt, die Eisen- und Sulfatbelastungen aus sauren Minenabwässern (engl. \textit{acid mine drainage} (AMD)) mit einer Effizienz von bis zu 30.2 bzw. 24.2\,\% über einen Zeitraum von 146~Tagen (50\,pv) abreinigen können sollte. Als reaktives Material wurde eine Mischung aus Gartenkompost, Buchenholz, Kokosnussschale und Calciumcarbonat verwendet. Die Zugabebedingungen waren eine Eisenkonzentration von 1000\,mg/L, eine Sulfatkonzentration von 3000\,mg/L und ein pH-Wert von 6.2.
Unterschiede in der Materialzusammensetzung ergaben keine grö\ss eren Änderungen in der Sanierungseffizienz von Eisen- und Sulfatbelastungen (12.0 -- 15.4\,\% bzw. 7.0 -- 10.1\,\%) über einen Untersuchungszeitraum von 108~Tagen (41 -- 57\,pv). Der wichtigste Einflussfaktor auf die Abreinigungsleistung von Sulfat- und Eisenbelastungen war die Verweilzeit der AMD-Lösung im reaktiven Material. Diese kann durch eine Verringerung des Durchflusses oder eine Erhöhung der Länge der reaktiven Wand (engl. \textit{Permeable Reactive Barrier} (PRB)) erhöht werden. Ein halbierter Durchfluss erhöhte die Sanierungseffizienzen von Eisen und Sulfat auf 23.4 bzw. 32.7\,\%. Weiterhin stieg die Sanierungseffizienz der Eisenbelastungen auf 24.2\,\% bei einer Erhöhung der Sulfatzugabekonzentration auf 6000\,mg/L. Saure Startbedingungen (pH~=~2.2) konnten, durch das Calciumcarbonat im reaktiven Material, über einen Zeitraum von 47~Tagen (24\,pv) neutralisiert werden. Durch die Neutralisierung der sauren Startbedingungen wurde Calciumcarbonat in der \gls{prb} verbraucht und Calcium-Ionen freigesetzt, die die Sulfatsanierungseffizienz erhöht haben (24.9\,\%). Aufgrund einer Vergrö\ss erung der \gls{prb} in Breite und Tiefe und einer 2D-Parameterbestimmung konnten Randläufigkeiten beobachtet werden, ohne deren Einfluss sich die Sanierungseffizienz für Eisen- und Sulfatbelastungen erhöht (30.2 bzw. 24.2\,\%). \par
Zur \textit{in-situ} Überwachung der \gls{prb} wurden optische Sensoren verwendet, um den pH-Wert, die Sauerstoffkonzentration und die Temperatur zu ermitteln. Es wurden, nach dem Ort und der Zeit aufgelöst, stabile Sauerstoffkonzentrationen und pH-Verläufe detektiert. Auch die Temperatur konnte nach dem Ort aufgelöst ermittelt werden. Damit zeigte diese Arbeit, dass optische Sensoren zur Überwachung der Stabilität einer \gls{prb} für die Reinigung von \gls{amd} verwendet werden können. \par
Mit dem Simulationsprogramm MIN3P wurde eine Simulation erstellt, die die entwickelte PRB darstellt. Die Simulation kann die erhaltenen Laborergebnisse gut wiedergeben. Anschlie\ss end wurde eine simulierte \gls{prb} bei unterschiedlichen Filtergeschwindigkeiten ((4.0 -- 23.5)~$\cdot~\mathrm{10^{-7}}$\,m/s) und Längen der PRB (25 -- 400\,cm) untersucht. Es wurden Zusammenhänge der untersuchten Parameter mit der Sanierungseffizienz von Eisen- und Sulfatbelastungen ermittelt. Diese Zusammenhänge können verwendet werden, um die benötigte Verweilzeit der AMD-Lösung in einem zukünftigen PRB-System, die für die maximal mögliche Sanierungsleistung notwendig ist, zu berechnen.
Dass vielfältige Inhalte und Meinungen über eine Vielzahl an Medien verbreitet werden, ist für unsere demokratische Gesellschaft heute wichtiger denn je. Gerade deshalb ist es unabdingbar, Meinungsmacht einzelner Medienunternehmen zu verhindern und dadurch zur Meinungsvielfalt beizutragen. Diese bedeutende Aufgabe kommt der Medienkonzentrationskontrolle des Medienstaatsvertrages zu. Doch haben die digitalisierungsbedingten Veränderungen in der Medienlandschaft zu einem inkonsistenten Prüfungsregime der Medienkonzentrationskontrolle geführt, da medienrechtlich aktuell nicht alle für die Meinungsbildung relevanten Medienakteure ausreichend erfasst werden. Die Arbeit untersucht die Thematik im Kontext der nationalen sowie internationalen medien- und wettbewerbsrechtlichen Rahmenbedingungen. Basierend auf den dabei gewonnenen Erkenntnissen wird ein den aktuellen Erfordernissen entsprechender normativer Vorschlag unterbreitet.
Die Digitalisierung ist ein wesentlicher Bestandteil aktueller Verwaltungsreformen. Trotz der hohen Bedeutung und langjähriger Bemühungen bleibt die Bilanz der Verwaltungsdigitalisierung in Deutschland ambivalent. Diese Studie konzentriert sich auf drei erfolgreiche Digitalisierungsvorhaben aus dem Onlinezugangsgesetz (OZG) und analysiert mittels problemzentrierter Expertenbefragung Einflussfaktoren auf die Umsetzung von OZG-Vorhaben und den Einfluss des Managements in diesem Prozess. Die Analyse erfolgt theoriegeleitet basierend auf dem Ansatz der begrenzten Rationalität und der ökonomischen Theorie der Bürokratie. Die Ergebnisse zeigen, dass anzunehmen ist, dass die identifizierten Einflussfaktoren unterschiedlich auf Nachnutzbarkeit und Reifegrad von Verwaltungsleistungen wirken und als Folgen begrenzter Rationalität im menschlichen Problemlösungsprozess interpretiert werden können. Managerinnen unterstützen die operativen Akteure bei der Umsetzung, indem sie deren begrenzte Rationalität mit geeigneten Strategien adressieren. Dazu können sie Ressourcen bereitstellen, mit ihrer Expertise unterstützen, Informationen zugänglich machen, Entscheidungswege verändern sowie zur Konfliktlösung beitragen. Die Studie bietet wertvolle Einblicke in die tatsächliche Managementpraxis und leitet daraus Empfehlungen für die Umsetzung öffentlicher Digitalisierungsvorhaben sowie für die Steuerung öffentlicher Verwaltungen ab. Diese Studie liefert einen wichtigen Beitrag zum Verständnis des Einflusses des Managements in der Verwaltungsdigitalisierung. Die Studie unterstreicht außerdem die Notwendigkeit weiterer Forschung in diesem Bereich, um die Praktiken und Herausforderungen der Verwaltungsdigitalisierung besser zu verstehen und effektiv zu adressieren.
Die Dissertation untersucht die Entwicklung des Verantwortungseigentums insbesondere anhand der Carl-Zeiss-Stiftung unter Ernst Abbe.
Der Begriff des Verantwortungseigentums wird seit einigen Jahren in der rechtspolitischen Debatte zu alternativen Unternehmens- und Eigentumsformen diskutiert. Dabei wird die Einführung einer eigenen Gesellschaftsform gefordert.
Die Dissertation widmet sich diesen Forderungen und den Entwicklungen des Verantwortungseigentums anhand der Carl-Zeiss-Stiftung und ihrer Stiftungsbetriebe Zeiss und Schott.
Dort wurde bereits Ende des 19. Jahrhunderts eine Form dessen, was Jurist:innen heute unter Verantwortungseigentum verstehen, kautelar-juristisch eingeführt und geprägt.
Ziel und Zweck der Arbeit war es, die Überschneidungen, Parallelen und Unterschiede der Rechtssubjekte zu untersuchen und der Frage auf den Grund zu gehen, ob das Verantwortungseigentum einer längeren Rechtstradition folgt oder eine rein zeitgenössische Idee ist.
Artikel 15 Grundgesetz als sozialistische Utopie? Keineswegs. Die Sozialisierungsnorm gibt dem Gesetzgeber ein Instrument an die Hand, um staatliche Gewährleistungsverantwortung mithilfe gemeinwirtschaftlicher Organisationsformen wahrzunehmen. Sozialisierungsmaßnahmen greifen in das Eigentumsgrundrecht ein. Sie treffen zudem auf grundrechtliche Funktionsgarantien einer marktwirtschaftlichen Ordnung und die unionsrechtliche Systemgarantie zugunsten des freien Wettbewerbs. Die Arbeit untersucht daher die verfassungsrechtlichen Anforderungen an die Sozialisierungsgesetzgebung auf Bundes- und Landesebene einschließlich der gerichtlichen Kontrolle. Ferner zeigt die Arbeit auf, wie sich Sozialisierungsgesetze unionsrechtskonform verhalten können.
Wie wurden die Soldaten der Wehrmacht – in der Kaserne und an der Front – von ihren Unteroffizieren und Offizieren behandelt? Wie war deren Menschenführung beeinflusst vom Nationalsozialismus und welche Bedeutung hatte sie für den Zusammenhalt des deutschen Heeres im Zweiten Weltkrieg? Konstantin Franz Eckert schließt, gestützt auf eine breite Quellenbasis, eine wichtige Forschungslücke. Seine Studie zeigt, wie junge Männer auf ihren Militärdienst vorbereitet wurden und was sie von ihren Vorgesetzten erwarteten. Sie weist nach, dass Vorbild und persönlicher Einsatz, Konstruktivität und absolute Unterordnung unter das Gehorsamsprinzip im Dienst des NS-Regimes zentrale Führungselemente der Wehrmacht waren. Zudem wirft sie einen Blick auf die militärische Ausbildung und ordnet die alten Narrative vom »Kasernenhofschleifer« sachlich ein.
Der Semi-Parlamentarismus beschreibt das Regierungssystem, in dem die Regierung von einem Teil des Parlaments gewählt wird und abberufen werden kann, von einem anderen Teil des Parlaments aber unabhängig ist. Beide Kammern müssen dabei der Gesetzgebung zustimmen. Dieses von Steffen Ganghof klassifizierte System ergänzt gängige Regierungssystemtypologien, wie sie beispielsweise von David Samuels und Matthew Shugart genutzt werden. Der Semi-Parlamentarismus ist der logische Gegenpart zum Semi-Präsidentialismus, bei dem nur ein Teil der Exekutive von der Legislative abhängt, während im Semi-Parlamentarismus die Exekutive von nur einem Teil der Legislative abhängt. Der Semi-Parlamentarismus verkörpert so ein System der Gewaltenteilung ohne einen exekutiven Personalismus, wie er durch die Direktwahl und Unabhängigkeit der Regierungchef:in im Präsidentialismus hervorgerufen wird. Dadurch ist der Semi-Parlamentarismus geeignet, Unterschiede zwischen Parlamentarismus und Präsidentialismus auf den separaten Einfluss der Gewaltenteilung und des exekutiven Personalismus zurückzuführen. Die Untersuchung des Semi-Parlamentarismus ist daher für die Regierungssystemliteratur insgesamt von Bedeutung. Der Semi-Parlamentarismus ist dabei kein rein theoretisches Konstrukt, sondern existiert im australischen Bundesstaat, den australischen Substaaten und Japan.
Die vorliegende Dissertation untersucht erstmals umfassend die Gesetzgebung der semi-parlamentarischen Staaten als solchen. Der Fokus liegt dabei auf den zweiten Kammern, da diese durch die Unabhängigkeit von der Regierung der eigentliche Ort der Gesetzgebung sind. Die Gesetzgebung in Parlamentarismus und Präsidentialismus unterscheidet sich insbesondere in der Geschlossenheit der Parteien, der Koalitionsbildung und dem legislativen Erfolg der Regierungen. Diese Punkte sind daher auch von besonderem Interesse bei der Analyse des Semi-Parlamentarismus. Die semi-parlamentarischen Staaten unterscheiden sich auch untereinander teilweise erheblich in der institutionellen Ausgestaltung wie den Wahlsystemen oder den verfügbaren Mitteln zur Überwindung von Blockadesituationen. Die Darstellung und die Analyse der Auswirkungen dieser Unterschiede auf die Gesetzgebung ist neben dem Vergleich des Semi-Parlamentarismus mit anderen Systemen das zweite wesentliche Ziel dieser Arbeit.
Als Fundament der Analyse habe ich einen umfangreichen Datensatz erhoben, der alle Legislaturperioden der australischen Staaten zwischen 1997 und 2019 umfasst. Wesentliche Bestandteile des Datensatzes sind alle namentlichen Abstimmungen beider Kammern, alle
eingebrachten und verabschiedeten Gesetzen der Regierung sowie die mit Hilfe eines Expert-Surveys erhobenen Parteipositionen in den relevanten Politikfeldern auf substaatlicher Ebene.
Hauptsächlich mit der Hilfe von Mixed-Effects- und Fractional-Response-Analysen kann ich so zeigen, dass der Semi-Parlamentarismus in vielen Aspekten eher parlamentarischen als präsidentiellen Systemen gleicht. Nur die Koalitionsbildung erfolgt deutlich flexibler und unterscheidet sich daher von der typischen parlamentarischen Koalitionsbildung. Die Analysen legen nahe, dass wesentliche Unterschiede zwischen Parlamentarismus und Präsidentialismus eher auf den exekutiven Personalismus als auf die Gewaltenteilung zurückzuführen sind.
Zwischen den semi-parlamentarischen Staaten scheinen vor allem die Kontrolle des Medians beider Parlamentskammern durch die Regierung und die Möglichkeit der Regierung, die zweite Kammer mitaufzulösen, zu entscheidenden Unterschieden in der Gesetzgebung zu führen. Die Kontrolle des Medians ermöglicht eine flexible Koalitionsbildung und führt zu höheren legislativen Erfolgsraten. Ebenso führt eine möglichst leichte Auflösungsmöglichkeit der zweiten Kammern zu höheren legislativen Erfolgsraten. Die Parteigeschlossenheit ist unabhängig von diesen Aspekten in beiden Kammern der semi-parlamentarischen Parlamente sehr hoch.
Digitale Medien erlangen eine zunehmende Bedeutung für die Gestaltung von unterrichtlichen Lehr- und Lernprozessen (KMK, 2021; Scheiter, 2021). Die erfolgreiche Integration digitaler Medien und die qualitätsvolle Gestaltung digitalgestützten Unterrichts ist dabei abhängig von den digitalen Kompetenzen der beteiligten Lehrkräfte (KMK, 2021; Lachner et al., 2020). Lehrkräftefortbildungen zu Themen digitaler Medien sind in diesem Kontext von großer Relevanz. Die Teilnahme an Fortbildungen zu digitalen Themen kann zur Förderung der (selbsteingeschätzten) digitalen Kompetenzen sowie des digitalgestützten Unterrichts beitragen (KMK, 2021; SWK, 2022). Die Zusammenhänge zwischen Lehrkräftefortbildungen, Kompetenzen und Handeln von Lehrkräften werden auf theoretischer Ebene im Modell der Determinanten und Konsequenzen der professionellen Kompetenz von Lehrkräften nach Kunter et al. (2011) beschrieben. Allerdings ist bislang ungeklärt, inwiefern die für allgemeine Lehrkräftefortbildungen formulierten Zusammenhänge auch auf den digitalen Kontext übertragbar sind. Bisher weisen nur wenige empirische Ergebnisse darauf hin, dass digitalbezogene Lehrkräftefortbildungen mit selbsteingeschätzten digitalen Kompetenzen (z. B. Mayer et al., 2021; Ning et al., 2022; Reisoğlu, 2022) und dem digitalgestützten Unterrichtshandeln zusammenhängen (z. B. Alt, 2018; Gisbert Cervera & Lázaro Cantabrana, 2015). Eine zentrale Rolle für qualitätsvolles Unterrichtshandeln spielen die Handlungskompetenzen von Lehrkräften (Kunter et al., 2011). Auch im digitalen Kontext sind (selbsteingeschätzte) Kompetenzen von Lehrkräften für das unterrichtliche Handeln mit digitalen Medien relevant (z. B. Hatlevik, 2017; Spiteri & Rundgren, 2020). Eine systematische Darstellung von Kompetenzen von Lehrkräften für den unterrichtsbezogenen Einsatz digitaler Medien leistet der European Framework for the Digital Competence of Educators (DigCompEdu; Redecker & Punie, 2017). Jedoch liegen bisher nur wenige empirische Forschungsarbeiten zur Validierung dieses Rahmenmodells vor (z. B. Antonietti et al., 2022). Dabei bietet das DigCompEdu-Modell im Vergleich zu anderen Kompetenzmodellen wie beispielsweise dem Modell des Technological Pedagogical Content Knowledge (TPACK; Mishra & Koehler, 2006) einen differenzierten Blick auf verschiedene Kompetenzdimensionen.
Die aufgezeigten Forschungslücken aufnehmend, befasst sich die vorliegende Dissertation mit den Faktoren, die zu einer hohen Unterrichtsqualität im digitalgestützten Unterricht beitragen. Die drei empirischen Studien dieser Dissertation behandeln aus verschiedenen Perspektiven die Zusammenhänge zwischen der Teilnahme an digitalbezogenen Lehrkräftefortbildungen, den selbsteingeschätzten digitalen Kompetenzen von Lehrkräften und der selbstberichteten digitalgestützten Unterrichtsqualität. Die Studien orientieren sich dabei theoriegeleitet an den Annahmen des Modells der Determinanten und Konsequenzen der professionellen Kompetenz von Lehrkräften nach Kunter et al. (2011).
Studie 1 widmet sich der Frage, inwieweit die Teilnahme an digitalbezogenen Fortbildungen und Lehrkräftekooperationen im digitalen Kontext mit selbsteingeschätzten digitalen Kompetenzen, Interesse am digitalgestützten Unterrichten und qualitätsvollem Unterrichten mit digitalen Medien zusammenhängen. Die Ergebnisse manifester Pfadmodelle verdeutlichen, dass die Teilnahme an digitalbezogenen Fortbildungen und Kooperationen mit hohen digitalen Kompetenzen, einem hohen Interesse am digitalgestützten Unterrichten und einem selbstberichteten häufigen Einsatz digitaler Medien zur Umsetzung qualitätsvollen Unterrichtens (kognitive Aktivierung und Individualisierung) einhergingen. Digitalgestütztes Unterrichtshandeln wurde in bisherigen empirischen Studien vorrangig über die Nutzungshäufigkeit digitaler Medien im Unterricht erhoben, welche jedoch keine Rückschlüsse auf die Qualität des Einsatzes zulässt (Lachner et al., 2020; Scheiter, 2021). Der qualitätsvolle Einsatz digitaler Medien entlang der drei generischen Basisdimensionen (Klieme et al., 2009) wird daher in allen drei Studien der Dissertation berücksichtigt. In Studie 1 konnte zudem gezeigt werden, dass die selbsteingeschätzten digitalen Kompetenzen im Bereich TPACK die querschnittlichen Zusammenhänge zwischen der Teilnahmehäufigkeit von Lehrkräften an digitalbezogenen Fortbildungen und der Nutzungshäufigkeit digitaler Medien zur Umsetzung von kognitiver Aktivierung und Individualisierung vermitteln.
In Studie 2 wurden Skalen zur Erfassung selbsteingeschätzter digitaler Kompetenzen basierend auf dem DigCompEdu-Modell entwickelt und getestet. Konkret wurde dabei die Kompetenzdimension der Lernerorientierung mit den Subdimensionen Differenzierung und Aktive Einbindung von Schüler*innen in den Blick genommen. Die Ergebnisse der durchgeführten Strukturgleichungsmodellierungen legen eine bifaktorielle Faktorstruktur nahe, die sowohl die zwei theoretisch angenommenen Subdimensionen repräsentiert als auch einen generellen Faktor beinhaltet, der sich als übergreifende Lernerorientierung interpretiert lässt. Die selbsteingeschätzten digitalen Kompetenzen in Bereich der Lernerorientierung standen in signifikant positivem Zusammenhang mit dem selbstberichteten Einsatz digitaler Medien zur selbstberichteten Umsetzung qualitätsvollen Unterrichtshandelns (Klassenführung, kognitive Aktivierung und konstruktive Unterstützung).
Studie 3 führt die Themenfelder der Fortbildungen und der Kompetenzen im digitalen Kontext zusammen und befasst sich mit dem Zusammenhang zwischen Fortbildungsthemen und digitalen Kompetenzen. Ergebnisse von Pfadmodellierungen zeigen, dass die Teilnahme an digitalbezogenen Fortbildungen zu den technologisch-pädagogisch-inhaltlichen Themen „Computergestützte Förderung der Schüler*innen“ und „Fachspezifische Unterrichtsentwicklung mit digitalen Medien“ mit dem selbstberichteten qualitätsvollen Einsatz digitaler Medien zur kognitiven Aktivierung und konstruktiven Unterstützung einhergehen. Diese Befunde stärken die Annahme, dass Lehrkräfte für einen qualitätsvollen Einsatz digitaler Medien sowohl technologische als auch pädagogisch didaktische Kompetenzen benötigen (Lipowsky & Rzejak, 2021; Mishra & Koehler, 2006; Scheiter & Lachner, 2019) und Fortbildungen folglich technologische mit unterrichtspraktischen Inhalten kombinieren sollten (Bonnes et al., 2022). Zudem zeigt die Studie basierend auf den theoretischen Annahmen von Kunter et al. (2011), dass selbsteingeschätzte digitale Kompetenzen von Lehrkräften die Zusammenhänge zwischen der Teilnahmehäufigkeit an digitalbezogenen Fortbildungen und der selbstberichteten digitalgestützten Unterrichtsqualität vermittelten.
In der abschließenden Gesamtdiskussion der Dissertation werden die Befunde vor dem Hintergrund des dargelegten Forschungsstandes und hinsichtlich der Forschungslücken diskutiert und auf Grundlage der Befunde der drei Studien forschungs- und praxisrelevante Implikationen abgeleitet.
Die Zusammenarbeit zwischen Lehr- und anderen Fachkräften stellt in Modellen inklusiver Schul- und Unterrichtsentwicklung sowie Schuleffektivität ein wichtiges Element dar. Wenngleich Kooperation als bedeutsam postuliert wird, so belegen Studien, dass diese bisher überwiegend in autonomieerhaltenden Formen praktiziert wird. Als entwicklungsförderlich gelten jedoch v.a. komplexere Formen der Zusammenarbeit. Vor dem Hintergrund inklusiver Bildung und dem Anspruch einer bestmöglichen individuellen Entwicklung der Schüler*innen stellt die Zusammenarbeit von Lehr- und Fachkräften folglich ein sehr bedeutsames Thema dar. Es ist zu hinterfragen, wie sich die Zusammenarbeit zwischen Lehr- und Fachkräften im Primar- wie Sekundarstufenbereich an inklusiven Schulen gestaltet, welche Faktoren diese beeinflussen und welche Relevanz die unterschiedlichen Formen der Zusammenarbeit im Prozess inklusiver Schulentwicklung einnehmen. Bestehende Forschungsdesiderata aufgrei-fend, fokussiert die vorliegende Dissertation auf die realisierte Zusammenarbeit von Lehr- und Fachkräften im Primar- und Sekundarstufenbereich inklusiver Schulen, am Beispiel des Landes Brandenburg. Neben den realisierten Formen der Zusammenarbeit, stehen insbesondere die Identifikation von Kooperationsmustern von Lehr- und Fachkräften sowie von Schulen, und deren Zusammenhänge mit der Leistungsentwicklung von Schüler*innen im Kern des Forschungsinteresses.
Die vorliegende Dissertation bearbeitet insgesamt sechs Forschungsfragen, welche in drei Teilstudien adressiert werden: Zunächst werden mittels deskriptiver Analysen sowie Mehrebenenmodellierungen die Ausgangslage multiprofessioneller Kooperation (erste Forschungsfrage) sowie deren Rahmenbedingungen (zweite Forschungsfrage) im Primar- wie Sekundarstufenbereich erfasst (Teilstudie 1). Lehr- und Fachkräfte kooperierten überwiegend in autonomieerhaltenden, austauschbasierten Formen. Weiterhin zeigte sich, dass insbesondere die individuelle Offenheit zur Zusammenarbeit sowie die subjektiv wahrgenommene Unterstützung durch die Schulleitung bedeutsame Faktoren für die Realisierung multiprofessioneller Kooperation darstellten. Die Fragestellungen drei und vier befassen sich mit der Identifikation von Mustern im Kooperationsverhalten (Teilstudie 2). Zum einen geht es hierbei um personenbezogene Profile von Lehr- und Fachkräften (dritte Forschungsfrage), zum anderen um schulbezogene Profile (vierte Forschungsfrage), welche mittels des personenzentrierten Ansatzes der latenten Profilanalysen unter Berücksichtigung der Mehrebenenstruktur identifiziert werden. Hinsichtlich des individuellen Kooperationsverhaltens konnten vier Profile eruiert werden, bzgl. des schulspezifischen Kooperationsverhaltens drei. Die Mehrheit der Lehr- und Fachkräfte konnte im „regularly“-Profil verortet werden, d.h. nach eigener Einschätzung kooperierten diese überdurchschnittlich häufig im Austausch miteinander und arbeitsteilig, aber auch regelmäßig kokonstruktiv. Auf Schulebene zeigte sich, dass etwa jede zweite inklusive Schule im Land Brandenburg über eine hoch ausgeprägte Kooperationskultur verfügte. Im Fokus der Teilstudie 3 wird den Fragen nachgegangen, in welchem Zusammenhang die schulspezifischen Kooperationskulturen mit der Leistungsentwicklung von Schüler*innen in der Primar- wie Sekundarstufe steht. Mittels autoregressiver Mehrebenenanalysen wird einerseits der Zusammenhang mit der Leistungsentwicklung aller Schüler*innen (fünfte Forschungsfrage) untersucht, sowie spezifisch auf die Entwicklung von Schüler*innen mit und ohne sonderpädagogischem Förderbedarf (sechste Forschungsfrage) fokussiert. Ein zentrales Ergebnis war hierbei, dass Schüler*innen mit sonderpädagogischem Förderbedarf in der Primar- wie Sekundarstufe in ihrer Leistungsentwicklung am stärksten profitierten, wenn sie an Schulen lernten, an denen sich die Lehr- und Fachkräfte sehr regelmäßig über Lernstände der Schüler*innen austauschten (Austausch), Arbeitspakete für differenzierte Lernangebote erarbeiteten und verteilten (Arbeitsteilung) und darüber hinaus gelegentlich gemeinsam Problemlösungen entwickelten (Kokonstruktion).
Die Ergebnisse werden vor dem Hintergrund der postulierten Relevanz multiprofessioneller Kooperation für inklusive Schul- und Unterrichtsentwicklungsprozesse eingeordnet und diskutiert. Weiterhin werden verschiedene praktische Implikationen für die Unterstützung multiprofessioneller Zusammenarbeit im Primar- und Sekundarstufenbereich abgeleitet.
Die vorliegende Arbeit thematisiert die Synthese und die Polymerisation von Monomeren auf der Basis nachwachsender Rohstoffe wie zum Beispiel in Gewürzen und ätherischen Ölen enthaltenen kommerziell verfügbaren Phenylpropanoiden (Eugenol, Isoeugenol, Zimtalkohol, Anethol und Estragol) und des Terpenoids Myrtenol sowie ausgehend von der Rinde einer Birke (Betula pendula) und der Korkeiche (Quercus suber). Ausgewählte Phenylpropanoide (Eugenol, Isoeugenol und Zimtalkohol) und das Terpenoid Myrtenol wurden zunächst in den jeweiligen Laurylester überführt und anschließend das olefinische Strukturelement epoxidiert, wobei 4 neue (2-Methoxy-4-(oxiran-2-ylmethyl)phenyldodecanoat, 2-Methoxy-4-(3-methyl-oxiran-2-yl)phenyldodecanoat, (3-Phenyloxiran-2-yl)methyldodecanoat, (7,7-Dimethyl-3-oxatricyclo[4.1.1.02,4]octan-2-yl)methyldodecanoat) und 2 bereits bekannte monofunktionelle Epoxide (2-(4-Methoxybenzyl)oxiran und 2-(4-Methoxyphenyl)-3-methyloxiran) erhalten wurden, die mittels 1H-NMR-, 13C-NMR- und FT-IR-Spektroskopie sowie mit DSC untersucht wurden. Die Photo-DSC Untersuchung der Epoxidmonomere in einer kationischen Photopolymerisation bei 40 °C ergab die maximale Polymerisationsgeschwindigkeit (Rpmax: 0,005 s-1 bis 0,038 s-1) sowie die Zeit (tmax: 13 s bis 26 s) bis zum Erreichen des Rpmax-Wertes und führte zu flüssigen Oligomeren, deren zahlenmittlerer Polymerisationsgrad mit 3 bis 6 mittels GPC bestimmt wurde. Die Umsetzung von 2-Methoxy-4-(oxiran-2-ylmethyl)phenyldodecanoat mit Methacrylsäure ergab ein Isomerengemisch (2-Methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat und 2-Methoxy-4-(2-(methacryl-oyloxy)-3-hydroxypropyl)phenyldodecanoat), das mittels Photo-DSC in einer freien radikalischen Photopolymerisation untersucht wurde (Rpmax: 0,105 s-1 und tmax: 5 s), die zu festen in Chloroform unlöslichen Polymeren führte.
Aus Korkpulver und gemahlener Birkenrinde wurden selektiv 2 kristalline ω-Hydroxyfettsäuren (9,10-Epoxy-18-hydroxyoctadecansäure und 22-Hydroxydocosansäure) isoliert. Die kationische Photopolymerisation der 9,10-Epoxy-18-hydroxyoctadecansäure ergab einen nahezu farblosen transparenten und bei Raumtemperatur elastischen Film, welcher ein Anwendungspotential für Oberflächenbeschichtungen hat. Aus der Reaktion von 9,10-Epoxy-18-hydroxyoctadecansäure mit Methacrylsäure wurde ein bei Raumtemperatur flüssiges Gemisch aus zwei Konstitutionsisomeren (9,18-Dihydroxy-10-(methacryloyloxy)octadecansäure und 9-(Methacryloyloxy)-10,18-dihydroxyoctadecansäure) erhalten (Tg: -60 °C). Die radikalische Photopolymerisation dieser Konstitutionsisomere wurde ebenfalls mittels Photo-DSC untersucht (Rpmax: 0,098 s-1 und tmax: 3,8 s). Die Reaktion von 22-Hydroxydocosansäure mit Methacryloylchlorid ergab die kristalline 22-(Methacryloyloxy)docosansäure, welche ebenfalls in einer radikalischen Photopolymerisation mittels Photo-DSC untersucht wurde (Rpmax: 0,023 s-1 und tmax: 9,6 s).
Die mittels AIBN in Dimethylsulfoxid initiierte Homopolymerisation der 22-(Methacryloyloxy)docosansäure und der Isomerengemische bestehend aus 2-Methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat und 2-Methoxy-4-(2-(methacryl-oyloxy)-3-hydroxypropyl)phenyldodecanoat sowie aus 9,18-Dihydroxy-10-(methacryloy-loxy)octadecansäure und 9-(Methacryloyloxy)-10,18-dihydroxyoctadecansäure ergab feste lösliche Polymere, die mittels 1H-NMR- und FT-IR-Spektroskopie, GPC (Poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyldodecanoat): Pn = 94) und DSC (Poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyldodecanoat): Tg: 52 °C; Poly(9,18-dihydroxy-10-(methacryloyloxy)-octadecansäure / 9-(methacryloyloxy)-10,18-dihydroxyoctadecansäure): Tg: 10 °C; Poly(22-(methacryloyloxy)docosansäure): Tm: 74,1 °C, wobei der Schmelzpunkt mit dem des Photopolymers (Tm = 76,8 °C) vergleichbar ist) charakterisiert wurden.
Das bereits bekannte Monomer 4-(4-Methacryloyloxyphenyl)butan-2-on wurde ausgehend von 4-(4-Hydroxyphenyl)butan-2-on hergestellt, welches aus Birkenrinde gewonnen werden kann, und unter identischen Bedingungen für einen Vergleich mit den neuen Monomeren polymerisiert. Die freie radikalische Polymerisation führte zu Poly(4-(4-methacryloyloxyphenyl)butan-2-on) (Pn: 214 und Tg: 83 °C). Neben der Homopolymerisation wurde eine statistische Copolymerisation des Isomerengemisches 2-Methoxy-4-(2-hydroxy-3-(methacryl-oyloxy)propyl)phenyldodecanoat / 2-Methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)-phenyldodecanoat mit 4-(4-Methacryloyloxyphenyl)butan-2-on untersucht, wobei ein äquimolarer Einsatz der Ausgangsmonomere zu einem Anstieg der Ausbeute, der Molmassenverteilung und der Dispersität des Copolymers (Tg: 44 °C) führte. Die unter Verwendung von Diethylcarbonat als „grünes“ Lösungsmittel mittels AIBN initiierten freien radikalischen Homopolymerisationen von 4-(4-Methacryloyloxyphenyl)butan-2-on und von Laurylmethacrylat ergaben vergleichbare Polymerisationsgrade der Homopolymere (Pn: 150), welche jedoch aufgrund ihrer Strukturunterschiede deutlich unterschiedliche Glasübergangstemperaturen hatten (Poly(4-(4-methacryloyloxyphenyl)butan-2-on): Tg: 70 °C, Poly(laurylmethacrylat) Tg: -49 °C. Eine statistische Copolymerisation äquimolarer Stoffmengen der beiden Monomere in Diethylcarbonat führte bei einer Polymerisationszeit von 60 Minuten zu einem leicht bevorzugten Einbau des 4-(4-Methacryloyloxyphenyl)butan-2-on in das Copolymer (Tg: 17 °C). Copolymerisationsdiagramme für die freien radikalischen Copolymerisationen von 4-(4-Methacryloyloxyphenyl)butan-2-on mit n-Butylmethacrylat beziehungsweise 2-(Dimethylamino)ethylmethacrylat (t: 20 min bis 60 min; Molenbrüche (X) für 4-(4-Methacryloyloxyphenyl)butan-2-on: 0,2; 0,4; 0,6 und 0,8) zeigten ein nahezu ideales azeotropes Copolymerisationsverhalten, obwohl ein leicht bevorzugter Einbau von 4-(4-Methacryloyloxyphenyl)butan-2-on in das jeweilige Copolymer beobachtet wurde. Dabei korreliert ein Anstieg der Ausbeute und der Glasübergangstemperatur der erhaltenen Copolymere mit einem zunehmenden Gehalt an 4-(4-Methacryloyloxyphenyl)butan-2-on im Reaktionsgemisch. Die unter Einsatz der modifizierten Gibbs-DiMarzio-Gleichung berechneten Glasübergangstemperaturen der Copolymere stimmten mit den gemessenen Werten gut überein. Das ist eine gute Ausgangsbasis für die Bestimmung der Glasübergangstemperatur eines Copolymers mit einer beliebigen Zusammensetzung.
Legitimiertes Unrecht
(2024)
Das Oberste Gericht der DDR war integraler Bestandteil der sozialistischen Staatsführung und unterlag strengen Denk- und Organisationsstrukturen. Es war eng in die politische Agenda der SED eingebunden und genoss keinerlei Unabhängigkeit. Die Auslegung des DDR-Rechts durch das Gericht orientierte sich ausschließlich an den innen- und außenpolitischen Interessen der SED. Dies galt auch für die Rechtsprechung in Fällen der Republikflucht und ihrer gesetzlichen Vorläufer. Die höchste Gerichtsinstanz im Staat war aktiv an der Gestaltung und Umsetzung der Strafjustiz gegen Republikflüchtige beteiligt, was wesentlich zur Festigung der Herrschaftsgewalt der SED beitrug. Die vorliegende Untersuchung analysiert Urteile des Obersten Gerichts im historisch-politischen Kontext und zeigt auf, dass die Urteilspraxis ausschließlich im Interesse parteipolitischer Ziele handelte und weder dem Volk noch der eigentlichen Rechtsfindung verpflichtet war. Des Weiteren wird der maßgebliche Beitrag des Obersten Gerichts an der schrittweisen Kriminalisierung der Bürger der DDR beleuchtet. Dies wirft ein kritisches Licht auf die Rolle des Rechtssystems bei der Sicherung von Rechtsstaatlichkeit und Menschenrechten in autoritären Regimen.
In der DDR sollte die Rechtsprechung den Zielen der Politik und dem Aufbau sowie der Sicherung des Sozialismus dienen. Zur Verwirklichung dieser Ziele unternahm das SED-Regime insbesondere den Versuch, auf die Ausbildung des juristischen Nachwuchses Einfluss zu nehmen. Die Arbeit untersucht anhand der im Bundesarchiv verwahrten Originalquellen die Anforderungen, die an das juristische Studium in der DDR gestellt wurden, und die Umstände, unter denen die juristische Ausbildung erfolgte. Unter besonderer Berücksichtigung der Auswahl, Aus- und Weiterbildung der Staatsanwälte beleuchtet die Arbeit die sog. »Kaderarbeit« der DDR-Justiz sowie die wesentlichen Zulassungs-, Prüfungs-, Studien- und Weiterbildungsbedingungen. Die Auswertung des überlieferten Archivmaterials führt zu der Erkenntnis, dass die Aus- und Weiterbildung der DDR-Juristen zur Sicherstellung der Ziele der sozialistischen Partei durch eine planmäßige und systematische politisch-ideologische Erziehung und Kontrolle bestimmt war.
Dieses Buch geht der Frage nach, aus welchen Gründen im Berlin des Jahres 1845 mit der »Genossenschaft für Reform im Judenthum« die womöglich bis heute radikalste Ausprägung jüdischer Reform entstand. Dazu werden die Hauptwerke Sigismund Sterns (1812–1867), des Gründers der Bewegung, erstmals systematisch dargestellt und zeitgeschichtlich eingeordnet. Die Studie macht deutlich, dass die Gründung der Genossenschaft nur im Kontext der vielfältigen, gesamtgesellschaftlichen und innerjüdischen, religiösen und politischen Umwälzungen im Vormärz und deren theoretisch-diskursivem Unterbau verstanden werden kann. Das Aufkommen der Bewegung und das jähe Verklingen ihrer Vitalität nach 1848 erweisen sich dabei als Spiegel der komplexen Verflechtungszusammenhänge deutsch-jüdischen philosophisch-theologischen Denkens im 19. Jahrhundert.
Ausgehend von der Beobachtung, dass die aktuelle Digitalisierungsforschung die Ambivalenz der Digitalisierung zwar erkennt, aber nicht zum Gegenstand ihrer Analysen macht, fokussiert die vorliegende kumulative Dissertation auf die ambivalente Dichotomie aus Potenzialen und Problemen, die mit digitalen Transformationen von Organisationen einhergeht. Entlang von sechs Publikationen wird mit einem systemtheoretischen Blick auf Organisationen die spannungsvolle Dichotomie hinsichtlich dreier ambivalenter Verhältnisse aufgezeigt: Erstens wird in Bezug auf das Verhältnis von Digitalisierung und Postbürokratie deutlich, dass digitale Transformationen das Potenzial aufweisen, postbürokratische Arbeitsweisen zu erleichtern. Parallel ergibt sich das Problem, dass auf Konsens basierende postbürokratische Strukturen Digitalisierungsinitiativen erschweren, da diese auf eine Vielzahl von Entscheidungen angewiesen sind. Zweitens zeigt sich mit Blick auf das ambivalente Verhältnis von Digitalisierung und Vernetzung, dass einerseits organisationsweite Kooperation ermöglicht wird, während sich andererseits die Gefahr digitaler Widerspruchskommunikation auftut. Beim dritten Verhältnis zwischen Digitalisierung und Gender deutet sich das mit neuen digitalen Technologien einhergehende Potenzial für Gender Inklusion an, während zugleich das Problem einprogrammierter Gender Biases auftritt, die Diskriminierungen oftmals verschärfen. Durch die Gegenüberstellung der Potenziale und Probleme wird nicht nur die Ambivalenz organisationaler Digitalisierung analysierbar und verständlich, es stellt sich auch heraus, dass mit digitalen Transformationen einen doppelte Formalisierung einhergeht: Organisationen werden nicht nur mit den für Reformen üblichen Anpassungen der formalen Strukturen konfrontiert, sondern müssen zusätzlich formale Entscheidungen zu Technikeinführung und -beibehaltung treffen sowie formale Lösungen etablieren, um auf unvorhergesehene Potenziale und Probleme reagieren. Das Ziel der Dissertation ist es, eine analytisch generalisierte Heuristik an die Hand zu geben, mit deren Hilfe die Errungenschaften und Chancen digitaler Transformationen identifiziert werden können, während sich parallel ihr Verhältnis zu den gleichzeitig entstehenden Herausforderungen und Folgeproblemen erklären lässt.
Krankheitsängste in verschiedenen Populationen und die Effektivität ambulanter Verhaltenstheraphie
(2023)
Diese Arbeit zeigt auf, wie historisch und rechtlich eine Ungleichheit zwischen Schwarzen und Weißen in Deutschland gewachsen ist und geht der Frage nach, welche Anforderungen das Verfassungsrecht, die Rechtspraxis und die Politik erfüllen müssen, um sie auszugleichen.
Eingangs wird die Entwicklung des Verbots der rassischen Diskriminierung im internationalen und nationalen Recht dargelegt. Folglich zeichnet die Verfasserin die Diskriminierungsgeschichte von Schwarzen Menschen nach. Zur Überwindung der nach wie vor bestehenden strukturellen Diskriminierung schlägt sie ein positives Recht vor, das sich auf Menschenrechtsstandards und Lösungsansätzen aus Rechtsvergleichen stützt und die Gleichberechtigung von Schwarzen Menschen bewirken soll.
Sexualität in der Geschichte
(2024)
Jelena Tomović führt in diesem Band durch die Entwicklungen unserer sexuellen Sprache und Praktiken. Sie zeigt, dass die Art und Weise, wie über Sexualität gesprochen wird, nicht nur ein Spiegelbild, sondern auch ein treibender Faktor für soziale Veränderungen ist. Die Studie stellt die konventionelle Vorstellung von Sexualität in Frage und führt die Lesenden in eine Welt der subtilen Nuancen und kulturellen Veränderungen. Mit kommunikationstheoretischen Ansätzen, dem praxeologischen Ansatz, ihrer sozialkonstruktivistischen Grundannahme und einem klaren Fokus auf Akteur*innen bietet die Autorin eine frische Perspektive auf die Geschichte der Sexualität. Das Buch eröffnet neue Wege für die Erforschung und das Verständnis von Intimität und sozialer Kommunikation.
Beerdigen oder verbrennen?
(2024)
Die Arbeit „Die Bekämpfung transnationaler Kriminalität im Kontext fragiler Staatlichkeit“ widmet sich dem Phänomen grenzüberschreitend tätiger Akteure der organisierten Kriminalität die den Umstand ausnutzen, dass einige international anerkannte Regierungen nur eine unzureichende Kontrolle über Teile ihres Staatsgebietes ausüben. Es wird untersucht, weshalb der durch die internationale Staatengemeinschaft geschaffene Rechtsrahmen, zur Bekämpfung transnationaler Kriminalitätsphänomene im Kontext dieser fragilen Staaten, nicht oder nur defizitär dazu beiträgt die Kriminalitätsphänomene zu bekämpfen.
Nachdem zunächst erörtert wird, was im Rahmen der Untersuchung unter dem Begriff der transnationalen Kriminalität verstanden wird, wird der internationale Rechtsrahmen zur Bekämpfung anhand von fünf beispielhaft ausgewählten transnationalen Kriminalitätsphänomenen beschrieben. Im darauffolgenden Hauptteil der Untersuchung wird der Frage nachgegangen, weshalb dieser durch die internationale Staatengemeinschaft geschaffene Rechtsrahmen, gerade in fragilen Staaten, kaum einen Beitrag dazu leistet solchen Kriminalitätsphänomenen effektiv zu begegnen. Dabei wird festgestellt, dass die Genese des internationalen Rechtsrahmens zu einem Legitimitätsdefizit desselbigen führt. Auch die mangelhafte Berücksichtigung der speziellen Lebensrealitäten, die in vielen fragilen Staaten vorzufinden sind, wirkt sich negativ auf die Durchsetzbarkeit des internationalen Rechtsrahmens aus. Es wird dargelegt, dass unterschiedlich hohe menschenrechtliche Schutzstandards zu Normenkollisionen bei der internationalen Zusammenarbeit der Staaten führen, insbesondere im Rahmen der internationalen Rechtshilfe. Da gerade fragile Staaten häufig durch eine defizitäre menschenrechtliche Situation gekennzeichnet sind, stellt dies konsolidierte Staaten im Rahmen der Zusammenarbeit mit fragilen Staaten öfters vor Herausforderungen. Schließlich wird aufgezeigt, dass auch die extraterritoriale Jurisdiktion und somit die strafrechtliche Verfolgung transnationaler Straftaten durch Drittstaaten mit rechtlichen und praktischen Problemen einhergeht.
In einem letzten Kapitel der Arbeit wird der Frage nachgegangen, ob nicht ein alternativer Strafverfolgungsmechanismus geschaffen werden sollte, um transnationale Kriminalitätsphänomene zu verfolgen, die aus fragilen Staaten heraus begangen werden und wie ein solch alternativer Strafverfolgungsmechanismus konkret ausgestaltet sein sollte.
Food Neophilie
(2023)
Trotz der eindeutigen Vorteile einer ausgewogenen Ernährung halten sich viele Menschen weltweit nicht an entsprechende Ernährungsrichtlinien. Um angemessene Strategien zur Unterstützung einer gesundheitsfördernden Ernährung zu entwickeln, ist ein Verständnis der zugrunde liegenden Faktoren unerlässlich. Insbesondere die Gruppe der älteren Erwachsenen stellt dabei eine wichtige Zielgruppe für ernährungsbezogene Präventions- und Interventionsansätze dar. Einer der vielen Faktoren, die als Determinanten einer gesundheitsfördernden Ernährung diskutiert werden, ist die Food Neophilie, also die Bereitschaft, neue und unbekannte Lebensmittel auszuprobieren. Aktuelle Forschungsergebnisse legen nahe, dass die Food Neophilie positiv mit einer gesundheitsfördernden Ernährung in Verbindung steht, allerdings ist die bisherige Forschung in diesem Bereich äußerst begrenzt. Das Ziel der Dissertation war es, das Konstrukt der Food Neophilie sowie seine Beziehung zu gesundheitsförderndem Ernährungsverhalten im höheren Erwachsenenalter grundlegend zu erforschen, um das Potenzial der Food Neophilie für die Gesundheitsförderung älterer Erwachsener besser zu verstehen. Dabei wurde im Rahmen der ersten Publikation zunächst untersucht, wie sich das Konstrukt der Food Neophilie reliabel und valide erfassen lässt, um weiterführende Untersuchungen der Food Neophilie zu ermöglichen. Die psychometrische Validierung der deutschen Version der Variety Seeking Tendency Scale (VARSEEK) basierte auf zwei unabhängigen Stichproben mit insgesamt N = 1000 Teilnehmenden und bestätigte, dass es sich bei der Skala um ein reliables und valides Messinstrument zur Erfassung der Food Neophilie handelt. Darauf aufbauend wurde im Rahmen der zweiten Publikation die Beziehung der Food Neophilie und der Ernährungsqualität über die Zeit hinweg analysiert. Die prospektive Untersuchung von N = 960 Teilnehmenden des höheren Erwachsenenalters (M = 63.4 Jahre) anhand einer Cross-Lagged-Panel-Analyse ergab hohe zeitliche Stabilitäten der Food Neophilie und der Ernährungsqualität über einen Zeitraum von drei Jahren. Es zeigte sich zudem ein positiver querschnittlicher Zusammenhang zwischen der Food Neophilie und der Ernährungsqualität, jedoch wurde die Food Neophilie nicht als signifikante Determinante der Ernährungsqualität über die Zeit hinweg identifiziert. In der dritten Publikation wurden schließlich nicht nur die individuellen Auswirkungen der Food Neophilie auf die Ernährungsqualität betrachtet, sondern auch potenzielle dynamische Wechselwirkungen innerhalb von Partnerschaften einbezogen. Hierzu erfolgte mittels eines Actor-Partner-Interdependence-Modells eine Differenzierung potenzieller intra- und interpersoneller Einflüsse der Food Neophilie auf die Ernährungsqualität. Im Rahmen der dyadischen Analyse zeigte sich bei N = 390 heterosexuellen Paaren im höheren Erwachsenenalter (M = 64.0 Jahre) ein Dominanzmuster: Während die Food Neophilie der Frauen positiv mit ihrer eigenen Ernährungsqualität und der ihrer Partner zusammenhing, war die Food Neophilie der Männer nicht mit der Ernährungsqualität des Paares assoziiert. Insgesamt leistet die vorliegende Dissertation einen wertvollen Beitrag zum umfassenden Verständnis der Food Neophilie sowie ihrer Rolle im Kontext der Ernährungsgesundheit älterer Erwachsener. Trotz fehlender Vorhersagekraft über die Zeit hinweg deutet der positive Zusammenhang zwischen Food Neophilie und Ernährungsqualität darauf hin, dass die Fokussierung auf eine positive und neugierige Einstellung gegenüber Lebensmitteln eine innovative Perspektive für Präventions- und Interventionsansätze zur Unterstützung einer gesundheitsfördernden Ernährung älterer Erwachsener bieten könnte.
Die umfangreiche rechtswissenschaftliche Studie befasst sich mit den preußischen Staatskirchenverträgen aus der Zeit der Weimarer Republik. Diese Verträge waren Höhepunkte einer Entwicklung in Richtung größerer Freiheit und Unabhängigkeit der Kirchen vom Staat, die den Vorgängen im Reich und in anderen deutschen Ländern teils entsprach, teils zuwiderlief. Die Entwicklung folgte keiner unverrückbaren Idealvorstellung über das Verhältnis von Staat und Kirche, sondern stellte sich stets als pragmatische Reaktion auf realpolitische Probleme dar. Die Staatskirchenverträge selbst prägten die weiteren Entwicklungen in Ost und West bis zur Gegenwart.
Die vorliegende Arbeit untersucht Urlaubsfotografien bei Facebook und beschreibt, welche sozio-technischen Medienpraktiken sich innerhalb der Social-Media Plattform über die Fotografien vollziehen. Fotografische Praktiken sind durch aktive Handlungen und soziale Gebrauchsweisen bestimmt. Urlaubsfotografien tragen zum Beispiel zur Strukturierung von Reiserouten und Vorstellungen bei, indem genrespezifische Motive und Rahmungen mit Hilfe von Medien reproduziert und wiederholt werden. Praktiken des Zeigens, Teilens und Kommunizierens werden durch Social Plug-Ins (Like/Share Buttons) und Tagging-Funktionen auch in die Benutzeroberflächen von Facebook integriert. Dadurch werden Nutzer*innen Aktivitäten und technische Prozesse miteinander verbunden. Am Beispiel der automatischen Generierung von Urlaubsfotografien auf Geotagseiten wird gezeigt, dass Social-Tagging zur Entstehung und Aushandlung geographischer Räume und Ortsvorstellungen beiträgt. Mithilfe technischer Strukturierungen von Fotografien auf Taggingseiten werden genrespezifische Motive, fotografische Trends und Ästhetiken besonders sichtbar. Allerdings wird ihre Visualisierung auch durch algorithmische Priorisierung einzelner Inhalte mitbestimmt. Dadurch werden Urlaubsfotografien für ein fotografisches Profiling genutzt, da sie das algorithmische Erfassen und Auswerten von Nutzer*innen-Informationen ermöglichen. Die Arbeit zeigt, dass der Einsatz von Bilderkennungsverfahren und fotografischen Datenanalysen zu einer optimierten Informationsgewinnung und zu einer Standardisierung von Fotografien beiträgt.
Preisalgorithmenkartelle
(2024)
Mithilfe von Preisalgorithmen sind Unternehmen in der Lage, automatische und wechselseitige Preisanpassungen vorzunehmen. Dadurch können klassische Kartellkonstellationen mangels konspirativer Treffen in den Hintergrund treten. Die Arbeit zeigt auf, unter welchen Voraussetzungen der Einsatz von Preisalgorithmen einen Verstoß gegen das europäische Kartellverbot begründen kann. Dazu werden Fallkonstellationen beleuchtet, die ein algorithmisches Zusammenwirken sowohl unmittelbar zwischen Wettbewerbern als auch mittelbar über einen Dritten begründen. Ferner wird auch auf algorithmenspezifische Compliance-Maßnahmen eingegangen. Schließlich werden die praktischen Herausforderungen bei der Aufdeckung und dem Nachweis solcher Kartelle aufgezeigt.
Ausgehend von Überlegungen des anthropologisch orientierten Psychiaters Erwin Straus geht dieses Buch der Frage nach, welche Bedingungen vorliegen, wenn bestimmte Ereignisse von Personen als bedeutsam erlebt werden. Des Weiteren wird ausführlich erörtert, wie sich Personalität im Menschen ausbildet und inwieweit sie von der gelingenden Integration bedeutungsvoller Ersterlebnisse abhängt. Das dabei zugrundeliegende Person-Konzept stellt einen eigenständigen Syntheseversuch der vier Konzepte von Erwin Straus, Viktor Emil von Gebsattel, Helmuth Plessner und Max Scheler dar. Der Autor arbeitet in oberärztlicher Funktion am Klinikum Schloss Lütgenhof in Dassow, einer Akutklinik für Personale Medizin, integrierte Psychosomatik, Innere Medizin und Psychotherapie
Eskalation des Commitments in Wirtschaftsinformatik Projekten: eine kognitiv-affektive Perspektive
(2024)
Projekte im Bereich der Wirtschaftsinformatik (IS-Projekte) sind von zentraler Bedeutung für die Steuerung von Unternehmensstrategien und die Aufrechterhaltung von Wettbewerbsvorteilen, überschreiten jedoch häufig das Budget, sprengen den Zeitrahmen und weisen eine hohe Misserfolgsquote auf. Diese Dissertation befasst sich mit den psychologischen Grundlagen menschlichen Verhaltens - insbesondere Kognition und Emotion - im Zusammenhang mit einem weit verbreiteten Problem im IS-Projektmanagement: der Tendenz, an fehlgehenden Handlungssträngen festzuhalten, auch Eskalation des Commitments (Englisch: “escalation of commitment” - EoC) genannt.
Mit einem kombinierten Forschungsansatz (dem Mix von qualitativen und quantitativen Methoden) untersuche ich in meiner Dissertation die emotionalen und kognitiven Grundlagen der Entscheidungsfindung hinter eskalierendem Commitment zu scheiternden IS-Projekten und deren Entwicklung über die Zeit. Die Ergebnisse eines psychophysiologischen Laborexperiments liefern Belege auf die Vorhersagen bezüglich der Rolle von negativen und komplexen situativen Emotionen der kognitiven Dissonanz Theorie gegenüber der Coping-Theorie und trägt zu einem besseren Verständnis dafür bei, wie sich Eskalationstendenzen während sequenzieller Entscheidungsfindung aufgrund kognitiver Lerneffekte verändern. Mit Hilfe psychophysiologischer Messungen, einschließlich der Daten-Triangulation zwischen elektrodermaler und kardiovaskulärer Aktivität sowie künstliche Intelligenz-basierter Analyse von Gesichtsmikroexpressionen, enthüllt diese Forschung physiologische Marker für eskalierendes Commitment. Ergänzend zu dem Experiment zeigt eine qualitative Analyse text-basierter Reflexionen während der Eskalationssituationen, dass Entscheidungsträger verschiedene kognitive Begründungsmuster verwenden, um eskalierende Verhaltensweisen zu rechtfertigen, die auf eine Sequenz von vier unterschiedlichen kognitiven Phasen schließen lassen.
Durch die Integration von qualitativen und quantitativen Erkenntnissen entwickelt diese Dissertation ein umfassendes theoretisches Model dafür, wie Kognition und Emotion eskalierendes Commitment über die Zeit beeinflussen. Ich schlage vor, dass eskalierendes Commitment eine zyklische Anpassung von Denkmodellen ist, die sich durch Veränderungen in kognitiven Begründungsmustern, Variationen im zeitlichen Kognitionsmodus und Interaktionen mit situativen Emotionen und deren Erwartung auszeichnet. Der Hauptbeitrag dieser Arbeit liegt in der Entflechtung der emotionalen und kognitiven Mechanismen, die eskalierendes Commitment im Kontext von IS-Projekten antreiben. Die Erkenntnisse tragen dazu bei, die Qualität von Entscheidungen unter Unsicherheit zu verbessern und liefern die Grundlage für die Entwicklung von Deeskalationsstrategien. Beteiligte an „in Schieflage geratenden“ IS-Projekten sollten sich der Tendenz auf fehlgeschlagenen Aktionen zu beharren und der Bedeutung der zugrundeliegenden emotionalen und kognitiven Dynamiken bewusst sein.
Juana Borrero
(2023)
Juana Borrero y Pierra (1877–1896) war eine der wichtigsten Vertreterinnen des inselkubanischen Modernismo. Gleichwohl ist das Schaffen der schon zu Lebzeiten zum Wunderkind stilisierten Autorin, Dichterin und Malerin wissenschaftlich kaum eingehender untersucht worden. Die Werkstudie schlägt einen umfassenden, konsequent ästhetischen Blick auf das aus Gedichten, poetischer Prosa, literarischen Liebesbriefen, Zeichnungen und Malereien bestehende Gesamtwerk Borreros vor, das im Kern ein Streben nach Ganzheit von Kunst und Leben offenlegt. Dabei werden die Text- und Bildstrategien der Künstlerin mit den ästhetischen, soziohistorischen und biografischen Kontexten verzahnt, wodurch Juana Borreros Stimme als exemplarische Stimme der kubanischen Spätmoderne sowie einer bewegten kubanischen Literatur les- und sichtbar wird.
Unterliegt illegales Vermögen dem strafrechtlichen Vermögensschutz? Die Beantwortung dieser Frage ist seit Jahren in der Strafrechtswissenschaft umstritten und führt zu einer Vielzahl an Meinungen. Stärken und Schwächen der in der Literatur vertretenen Ansichten sind bis heute Gegenstand einer andauernden wissenschaftlichen Diskussion. Dennoch fehlt es an einer umfassenden Untersuchung der höchstrichterlichen Rechtsprechungspraxis – diese Lücke soll die vorliegende Arbeit schließen.
Um die Fülle der dafür untersuchten Entscheidungen systematisch darzustellen, wurden diese in verschiedene Fallgruppen eingeordnet. Die Bildung der Fallgruppen basiert nicht wie üblich auf einem phänomenologischen Ansatz, sondern auf einem konsequenten systematisch-dogmatischen Ansatz. Dies ermöglicht die Betrachtung bekannter Sachverhaltskonstellationen im neuen Licht.
Körper – Karte – Text
(2024)
Rabelais' Pentalogie um die Riesen Gargantua und Pantagruel spiegelt Aspekte des sich verändernden Weltbildes ihrer Entstehungszeit. Diese Studie untersucht auf der Folie der Theorie des Simulakrum Schrift, wie Körpermodellierungen und kartographisches imaginaire durch den Autor als Strategien der Verhüllung verborgener Botschaften eingesetzt werden. Sie zeigt an ausgewählten Beispielen des Quart Livre die Aufweichung der Grenzen von Körper, Karte und Text und deren Durchdringung. Die Metaphorizität des Textes gibt Aufschluss über seine Autoreflexivität und bewirkt eine gleichsam ganzheitliche Lektüreerfahrung. Schließlich avanciert die Fiktion in ihrer Trugbildhaftigkeit als grotesk-sinnlicher Körper und polysemantische Karte zum Welterklärungsmodell, das jedoch erst dechiffriert werden muss.
Arachidonsäurelipoxygenasen (ALOX-Isoformen) sind Lipid-peroxidierenden Enzyme, die bei der Zelldifferenzierung und bei der Pathogenese verschiedener Erkrankungen bedeutsam sind. Im menschlichen Genom gibt es sechs funktionelle ALOX-Gene, die als Einzelkopiegene vorliegen. Für jedes humane ALOX-Gen gibt es ein orthologes Mausgen. Obwohl sich die sechs humanen ALOX-Isoformen strukturell sehr ähnlich sind, unterscheiden sich ihre funktionellen Eigenschaften deutlich voneinander. In der vorliegenden Arbeit wurden vier unterschiedliche Fragestellungen zum Vorkommen, zur biologischen Rolle und zur Evolutionsabhängigkeit der enzymatischen Eigenschaften von Säugetier-ALOX-Isoformen untersucht:
1) Spitzhörnchen (Tupaiidae) sind evolutionär näher mit dem Menschen verwandt als Nagetiere und wurden deshalb als Alternativmodelle für die Untersuchung menschlicher Erkrankungen vorgeschlagen. In dieser Arbeit wurde erstmals der Arachidonsäurestoffwechsel von Spitzhörnchen untersucht. Dabei wurde festgestellt, dass im Genom von Tupaia belangeri vier unterschiedliche ALOX15-Gene vorkommen und die Enzyme sich hinsichtlich ihrer katalytischen Eigenschaften ähneln. Diese genomische Vielfalt, die weder beim Menschen noch bei Mäusen vorhanden ist, erschwert die funktionellen Untersuchungen zur biologischen Rolle des ALOX15-Weges. Damit scheint Tupaia belangeri kein geeigneteres Tiermodel für die Untersuchung des ALOX15-Weges des Menschen zu sein.
2) Entsprechend der Evolutionshypothese können Säugetier-ALOX15-Orthologe in Arachidonsäure-12-lipoxygenierende- und Arachidonsäure-15-lipoxygenierende Enzyme eingeteilt werden. Dabei exprimieren Säugetierspezies, die einen höheren Evolutionsgrad als Gibbons aufweisen, Arachidonsäure-15-lipoxygenierende ALOX15-Orthologe, während evolutionär weniger weit entwickelte Säugetiere Arachidonsäure-12 lipoxygenierende Enzyme besitzen. In dieser Arbeit wurden elf neue ALOX15-Orthologe als rekombinante Proteine exprimiert und funktionell charakterisiert. Die erhaltenen Ergebnisse fügen sich widerspruchsfrei in die Evolutionshypothese ein und verbreitern deren experimentelle Basis. Die experimentellen Daten bestätigen auch das Triadenkonzept.
3) Da humane und murine ALOX15B-Orthologe unterschiedliche funktionelle Eigenschaften aufweisen, können Ergebnisse aus murinen Krankheitsmodellen zur biologischen Rolle der ALOX15B nicht direkt auf den Menschen übertragen werden. Um die ALOX15B-Orthologen von Maus und Mensch funktionell einander anzugleichen, wurden im Rahmen der vorliegenden Arbeit Knock-in Mäuse durch die In vivo Mutagenese mittels CRISPR/Cas9-Technik hergestellt. Diese exprimieren eine humanisierte Mutante (Doppelmutation von Tyrosin603Asparaginsäure+Histidin604Valin) der murinen Alox15b. Diese Mäuse waren lebens- und fortpflanzungsfähig, zeigten aber geschlechtsspezifische Unterschiede zu ausgekreuzten Wildtyp-Kontrolltieren im Rahmen ihre Individualentwicklung.
4) In vorhergehenden Untersuchungen zur Rolle der ALOX15B in Rahmen der Entzündungsreaktion wurde eine antiinflammatorische Wirkung des Enzyms postuliert. In der vorliegenden Arbeit wurde untersucht, ob eine Humanisierung der murinen Alox15b die Entzündungsreaktion in zwei verschiedenen murinen Entzündungsmodellen beeinflusst. Eine Humanisierung der murinen Alox15b führte zu einer verstärkten Ausbildung von Entzündungssymptomen im induzierten Dextran-Natrium-Sulfat-Kolitismodell. Im Gegensatz dazu bewirkte die Humanisierung der Alox15b eine Abschwächung der Entzündungssymptome im Freund‘schen Adjuvans Pfotenödemmodell. Diese Daten deuten darauf hin, dass sich die Rolle der ALOX15B in verschiedenen Entzündungsmodellen unterscheidet.
Im Rahmen einer explorativen Entwicklung wurde in der vorliegenden Studie ein Konzept zur Wissenschaftskommunikation für ein Graduiertenkolleg, in dem an photochemischen Prozessen geforscht wird, erstellt und anschließend evaluiert. Der Grund dafür ist die immer stärker wachsende Forderung nach Wissenschaftskommunikation seitens der Politik. Es wird darüber hinaus gefordert, dass die Kommunikation der eigenen Forschung in Zukunft integrativer Bestandteil des wissenschaftlichen Arbeitens wird. Um junge Wissenschaftler bereits frühzeitig auf diese Aufgabe vorzubereiten, wird Wissenschaftskommunikation auch in Forschungsverbünden realisiert.
Aus diesem Grund wurde in einer Vorstudie untersucht, welche Anforderungen an ein Konzept zur Wissenschaftskommunikation im Rahmen eines Forschungsverbundes gestellt werden, indem die Einstellung der Doktoranden zur Wissenschaftskommunikation sowie ihre Kommunikationsfähigkeiten anhand eines geschlossenen Fragebogens evaluiert wurden. Darüber hinaus wurden aus den Daten Wissenschaftskommunikationstypen abgeleitet. Auf Grundlage der Ergebnisse wurden unterschiedliche Wissenschaftskommunikationsmaßnahmen entwickelt, die sich in der Konzeption, den Rezipienten, sowie der Form der Kommunikation und den Inhalten unterscheiden.
Im Rahmen dieser Entwicklung wurde eine Lerneinheit mit Bezug auf die Inhalte des Graduiertenkollegs, bestehend aus einem Lehr-Lern-Experiment und den dazugehörigen Begleitmaterialien, konzipiert. Anschließend wurde die Lerneinheit in eine der Wissenschaftskommunikationsmaßnahmen integriert. Je nach Anforderung an die Doktoranden, wurden die Maßnahmen durch vorbereitende Workshops ergänzt.
Durch einen halboffenen Pre-Post-Fragebogen wurde der Einfluss der Wissenschaftskommunikationsmaßnahmen und der dazugehörigen Workshops auf die Selbstwirksamkeit der Doktoranden evaluiert, um Rückschlüsse darauf zu ziehen, wie sich die Wahrnehmung der eigenen Kommunikationsfähigkeiten durch die Interventionen verändert. Die Ergebnisse deuten darauf hin, dass die einzelnen Wissenschaftskommunikationsmaßnahmen die verschiedenen Typen in unterschiedlicher Weise beeinflussen. Es ist anzunehmen, dass es abhängig von der eigenen Einschätzung der Kommunikationsfähigkeit unterschiedliche Bedürfnisse der Förderung gibt, die durch dedizierte Wissenschaftskommunikationsmaßnahmen berücksichtigt werden können.
Auf dieser Grundlage werden erste Ansätze für eine allgemeingültige Strategie vorgeschlagen, die die individuellen Fähigkeiten zur Wissenschaftskommunikation in einem naturwissenschaftlichen Forschungsverbund fördert.
Kraft und Kognition
(2023)
Die in den letzten Jahren aus Querschnittstudien gewonnenen empirischen Erkenntnisse deuten auf einen Zusammenhang zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit hin [10]. Diese Beobachtung wird von Längsschnittstudien gestützt, bei denen in Folge gezielter Krafttrainingsinterventionen, welche typischerweise zur Steigerung der muskulären Kraftleistungsfähigkeit führen, Verbesserungen der kognitiven Leistungsfähigkeit dokumentiert werden konnten [11]. Die zugrundeliegenden Mechanismen, die den Zusammenhang zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit begründen, sind jedoch noch nicht vollständig bekannt und bedürfen weiterer Forschung [10,12]. Vor diesem Hintergrund hatten die im Rahmen dieser Dissertation durchgeführten Forschungsarbeiten das übergeordnete Ziel, die Mechanismen zu untersuchen, welche den Zusammenhang zwischen der muskulären Kraftleistungsfähigkeit und der kognitiven Leistungsfähigkeit erklären können. In dieser Arbeit wurden dazu unterschiedliche Populationen (junge Menschen und ältere Menschen ohne und mit leichten kognitiven Störungen) unter Anwendung verschiedener untersuchungsmethodischer Ansätze (systematische Literaturrecherche, Doppelaufgabenparadigma und funktionelle Nahinfrarotspektroskopie) untersucht. Aufgrund der im Rahmen dieser Dissertation durchgeführten Forschungsarbeiten, die konsekutiv aufeinander aufbauen, konnten folgende Haupterkenntnisse gewonnen werden:
• Um einen umfassenden Überblick über die aktuelle Evidenzlage zum Thema Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit sowie den zugrundeliegenden neuronalen Korrelaten zu erlangen, wurde eine systematische Literaturrecherche zu diesem Forschungsthema durchgeführt. Die Ergebnisse dieser systematischen Literaturrecherche dokumentieren, dass ein gezieltes Krafttraining neben der Steigerung der kognitiven Leistungsfähigkeit zu funktionellen und strukturellen Veränderungen des Gehirns, insbesondere in frontalen Gehirnregionen, führen kann [13]. Ferner zeigen die Ergebnisse dieser systematischen Literaturrecherche, bei der eine begrenzte Anzahl verfügbarer Studien (n = 18) identifiziert wurde, den Bedarf weiterer Forschungsarbeiten zu diesem Themenfeld an [13].
• Zur Überprüfung der Hypothese, dass zur Ausführung von Krafttrainingsübungen höhere kognitive Prozesse benötigt werden, wurde in einer experimentellen Studie bei jüngeren gesunden Erwachsenen das Doppelaufgabenparadigma bei der Krafttrainingsübung Knie-beuge angewendet. Die in dieser Studie beobachteten Doppelaufgabenkosten bei der Ausführung der Krafttrainingsübung Kniebeuge (im Vergleich zur Kontrollbedingung Stehen) deuten auf die Beteiligung höherer kognitiver Prozesse zur Lösung dieser Bewegungsaufgabe hin und bestätigen die aufgestellte Hypothese [14].
• Um die Hypothese zu untersuchen, dass spezifische neuronale Korrelate (funktionelle Gehirnaktivität) den Zusammenhang zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit vermitteln, wurde bei jungen gesunden Erwachsenen der Zusammenhang zwischen der Ausprägung der maximalen Handgriffkraft (normalisiert auf den Body-Mass-Index) und der kortikalen hämodynamischen Antwortreaktion untersucht, die bei der Durchführung eines standardisierten kognitiven Tests mittels funktioneller Nahinfrarotspektroskopie in präfrontalen Gehirnarealen gemessen wurde. Im Rahmen dieser Querschnittsstudie konnte die initiale Hypothese nicht vollständig bestätigt werden, da zwar Zusammenhänge zwischen maximaler Handgriffkraft und kognitiver Leistungsfähigkeit mit Parametern der hämodynamischen Antwortreaktion beobachtet wurden, aber die Ausprägung der maximalen Handgriffkraft nicht im Zusammenhang mit der Kurzeitgedächtnisleistung stand [16].
• Zur Untersuchung der Annahme, dass eine vorliegende neurologische Erkrankung (im Speziellen eine leichte kognitive Störung), die typischerweise mit Veränderungen von spezifischen neuronalen Korrelaten (z.B. des Hippokampus‘ [17-19] und des präfrontalen Kortex‘ [20,21]) einhergeht, einen Einfluss auf die Assoziation zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit hat, wurde in einer Querschnittsstudie der Zusammenhang zwischen der Ausprägung der maximalen Handgriffkraft (normalisiert auf den Body-Mass-Index) und der Ausprägung der exekutiven Funktionen bei älteren Erwachsenen mit amnestischem und nicht-amnestischem Subtyp der leichten kognitiven Störung sowie gesunden älteren Erwachsenen untersucht. In dieser Querschnittsstudie wurde nur bei älteren Erwachsenen mit dem amnestischen Subtyp der leichten kognitiven Störung ein Zusammenhang zwischen maximaler Handgriffkraft und exekutiven Funktionen beobachtet. Solch eine Korrelation existiert jedoch nicht bei älteren Erwachsenen mit dem non-amnestischen Subtyp der leichten kognitiven Störung oder bei gesunden älteren Erwachsenen [24].
• In einem Perspektivenartikel wurde aufgezeigt, wie durch die theoriegeleitete Nutzung physiologischer Effekte, die bei einer speziellen Krafttrainingsmethode durch die Moderation des peripheren Blutflusses mittels Manschetten oder Bändern auftreten, insbesondere Populationen mit niedriger mechanischer Belastbarkeit von den positiven Effekten des Krafttrainings auf die Gehirngesundheit profitieren könnten [25].
Insgesamt deuten die Ergebnisse der in dieser Dissertation zusammengeführten und aufeinander aufbauenden Forschungsarbeiten auf das Vorhandensein von gemeinsamen neuronalen Korrelaten (z.B. frontaler Kortex) hin, die sowohl für die muskuläre Kraftleistungsfähigkeit als auch für höhere kognitive Prozesse eine wichtige Rolle spielen [26]. Betrachtet man die in der vorliegenden Dissertation gewonnenen Erkenntnisse im Verbund mit den bereits in der Literatur existieren-den empirischen Belegen, unterstützen sie die Sichtweise, dass eine relativ hohe muskuläre Kraftleistungsfähigkeit und deren Erhalt durch gezielte Krafttrainingsinterventionen über die Lebenspanne positive Effekte auf die (Gehirn-)Gesundheit haben können [27].
Digital Fashion
(2024)
Das virtuelle Kleid als mediale und soziokulturelle Alltagserscheinung der Gegenwart bildet den Gegenstand der vorliegenden interdisziplinären Unter-suchung. An der Schnittstelle zwischen Menschen, Medien und Mode ist das virtuelle Kleid an unrealen Orten und in synthetischen Situationen ausschließlich auf einem Screen erfahrbar. In diesem Dispositiv lassen sich Körperkonzepte, Darstellungskonventionen, soziale Handlungsmuster und Kommunikations-strategien ausmachen, die zwar auf einer radikalen Ablösung vom textilen Material beruhen, aber dennoch nicht ohne sehr konkrete Verweise auf das textile Material auskommen. Dies führt zu neuen Ansätzen der Auseinandersetzung mit Kleidern, die nun als Visualisierung gebündelter Datenpakete zu betrachten sind. Die dynamische Entwicklung neuer Erscheinungsformen und deren nahtlose Einbindung in traditionelle Geschäftsmodelle und bestehende Modekonzepte macht eine Positionsbestimmung notwendig, insbesondere im Hinblick auf gegenwärtige Nachhaltigkeitsdiskurse um immaterielle Produkte. Für diese Studie liefern die hinter den Bildern liegenden Prozesse der ökonomischen Ausrichtung, der Herstellung, der Verwendung und der Rezeption den methodologischen Zugang für die Analyse. Mithilfe eines typologisierenden Instrumentariums wird aus der Vielzahl und Vielfalt der Darstellungen ein Set an forschungsleitenden Beispielen zusammengestellt, welche dann in einer mehrstufigen Kontextanalyse zu einer begrifflichen Fassung des virtuellen Kleides sowie zu fünf Kontexteinheiten führen. Am Beispiel des virtuellen Kleides zeichnet diese Untersuchung den technischen, gesellschaftlichen und sozialen Wandel nach und arbeitet seine Bedeutung für zukünftige Modeentwicklungen heraus. Damit leistet die Untersuchung einen Beitrag zur medien- und sozialwissenschaftlichen Modeforschung der Gegenwart.
Die Geschichtsschreibung terminiert das Ende des deutschen Zionismus bisher mit dem NS-Verbot der Zionistischen Vereinigung für Deutschland im Zuge des Novemberpogroms 1938. Zu diesem Zeitpunkt hatte er aber von seinem geographischen Kontext entgrenzt, in Erez Israel bereits neue Wurzeln geschlagen. Zionisten aus Deutschland schickten sich nun an, mit ihrem spezifischen Erfahrungshorizont und Wertemaßstab und mitgebrachtem ideologischen Rüstzeug die Entwicklung des jüdischen Nationalheims mitzugestalten und einer umfassenden ökonomischen, kulturellen und politischen Akkulturation der deutschen Alijah den Weg zu bahnen. Entgegen aller zionistischen Theorie gründeten sie auf landsmannschaftlicher Basis im Jahr 1932 die Selbsthilfeorganisation Hitachduth Olej Germania und während des Weltkrieges die Partei Alija Chadascha.
Die Dissertation beinhaltet die Gesamtschau des deutschen Zionismus in seiner letzten Phase in den Jahren 1932 bis 1948; zugleich beleuchtet sie die Geschichte der etwa 60.000 in Palästina eingewanderten Juden aus Deutschland in der für diese Abhandlung relevanten Zeitperiode. Im ersten Teil wird in chronologischer Folge die 1932 beginnende letztmalige Sammlung und Neuformierung des deutschen Zionismus in seiner neu-alten Heimat dargestellt. Wenn man so will, die formativen Jahre im personellen, organisatorischen und ideologisch-politischen Sinne, die schließlich nach dem fast gänzlichen Scheitern der politischen Integration der deutschen Alijah mit der – in der Rückschau – fast zwangsläufig erscheinenden Begründung der Alija Chadascha ihren Abschluss fanden. Im zweiten Teil werden die Positionen der deutschen Zionisten zu den existenziellen Fragen der jüdischen Gemeinschaft in Palästina, hebräisch Jischuw genannt, in der im Fokus stehenden Zeitperiode dargestellt. Im Einzelnen handelt es sich erstens um die Einwanderungsfrage, die untrennbar verbunden war mit der in der zionistischen Theorie unabdingbaren Forderung nach der Erlangung einer jüdischen Majorität in Palästina; zweitens um die der staatlichen Ausgestaltung des zukünftigen jüdischen Gemeinwesens und drittens um die Frage der adäquaten Reaktion des Jischuw auf die Schoah. In diese jeweils in separaten Kapiteln behandelten Themenkomplexe wird die Frage nach dem anzustrebenden Verhältnis zur britischen Mandatsmacht mit einfließen. Hieran mussten die deutschen Zionisten ihr mitgebrachtes geistig-ideologisches Rüstzeug einem Praxistest unterziehen und nach realpolitischen Antworten suchen.
Dem kometenhaften Aufstieg der weiterhin landsmannschaftlich geprägten Alija Chadascha folgte dann in den ersten Nachkriegsjahren ein ebenso rapider Zerfall. Einige Monate nach der Staatsgründung Israels löste sie sich dann sang- und klanglos auf und das Gros ihrer Aktivisten integrierte sich in das Parteiengefüge des neuen Staates. Der deutsche Zionismus als politische Bewegung kam nun wirklich an sein Ende. Diese Abhandlung wird somit zum einen den Kampf der deutschen Alijah um gesellschaftliche Anerkennung und politische Partizipation im Jischuw nachzeichnen und zum anderen eine geistig-ideologische Verortung des deutschen Zionismus in seiner letzten Phase vollziehen und Tendenzen der ideologischen Neuausrichtung offenlegen. Darüber hinaus werden in der Historiographie vorhandene Allgemeinplätze wie die fast allseits anerkannte These vom Scheitern der deutschen Zionisten in der neuen Heimat einer Überprüfung unterzogen. Die letzte vorhandene Leerstelle im wissenschaftlichen Kanon zur mehr als 50-jährigen Geschichte des deutschen Zionismus wird somit geschlossen.
Die Fluoreszenz-Calcium-Imaging-Methode wird auch heute noch als gängige Methode verwendet, vor allem wegen der geringeren Kosten für das Wirkstoffscreening in der pharmazeutischen Forschung, wobei Ionenkanäle sowie einige der G-Protein gekoppelte Rezeptoren (GPCRs) die Mehrzahl der Wirkstoffziele ansprechen. Die zellfreie Synthese eukaryotischer Proteine hat nicht die Nachteile, die bei der Überexpression dieser ionenpermeablen Proteine in Zellen auftreten können, wie z. B. Zelltoxizität, geringere Proteinexpression und die Beseitigung der exprimierten Proteine aufgrund veränderter Domänen sowie die zeitaufwändige Pflege von Zelllinien. Die Synthese von Ionenkanälen in zellfreien Proteinsyntheseplattformen für das künftige Wirkstoffscreening ist noch in der Grundlagenforschung. Obwohl die Fluoreszenz-Calcium-Imaging-Methode in zellbasierten Assays weit verbreitet ist, wurde diese Methode bisher noch nicht in zellfreien Proteinexpressionssystemen verwendet. Insgesamt ist die neue Anwendung der Calcium-Imaging-Methode in eukaryontischen zellfreien Systemen eine Voraussetzung für die schnelle pharmakologische Analyse von Wirkstoffen. Das erste Ziel dieser wissenschaftlichen Arbeit bestand darin, die grundlegenden Prinzipien der Calcium-Imaging-Methode zur Untersuchung von Ionenkanälen in zellbasierten Systemen zu untersuchen. Hierfür wurden zwei Tumorzelllinien des Auges verwendet, und zwar benigne Pterygiumzellen und maligne Aderhautmelanom 92.1 Zellen. In diesen Studien wurde die Interaktion zwischen den nativ überexprimierten transient-receptor-potential-Ionenkanälen (TRPs) wie TRP Vanilliod 1 (TRPV1) (Capsaicinrezeptor) und TRP Melastatin 8 (TRPM8) (Mentholrezeptor) in diesen Tumorzellen nach Zugabe von verschiedenen Medikamenten und Hormonen untersucht. Das zweite Ziel dieser Arbeit war es, den Calcium-Mechanismus von GPCRs in den Zellen zu untersuchen. Zu diesem Zweck wurde Mas, ein GPCR und Angiotensin (1-7) -Hormonrezeptor, aus dem renin-angiotensin-aldosteron-system (RAAS) in der Human Embryonic Kidney-293 (HEK293) Zelllinie überexprimiert. In dieser Studie wurden insbesondere die Aktivierung klassischer GPCR-Signalwege wie Phospholipase C und Proteinkinase C durch Angiotensin-(1-7) über Mas und die Beteiligung von TRP-Kanälen nachgewiesen. Die zellbasierte-Calcium-Imaging-Methode für chemische Calcium-Indikatoren ließ sich aufgrund der Anwesenheit einer großen Menge cytosolischer Carboxylesterasen gut anwenden. Carboxylesterase ist das wichtigste Enzym in der Calcium Imaging Methode, das die Verarbeitung chemischen Calcium-Farbstoffe behandelt. Dieses Enzym fehlt jedoch in Mikrosomen, die als Basismembran für die Integration synthetisierter Ionenkanäle in eukaryontischen zellfreien Systemen verwendet werden. Das dritte Ziel dieser Forschungsarbeit war die Umsetzung der zellbasierten Calcium-Imaging Methode und der Calcium-Signalwege in zellfreie Systeme. Hier wurde die zellfrei synthetisierte Carboxylesterase in Mikrosomen von Spodoptera frugiperda (Sf21) als praktikables Calcium-Imaging-Werkzeug etabliert, um sowohl native ionenpermeable Proteine als auch zellfrei-synthetisierte Ionenkanäle zu untersuchen. Die Enzymaktivität der zellfrei-synthetisierten Carboxylesterase in Mikrosomen wurde durch Esterase-Assays und den Calcium-Fluoreszenzfarbstoff Fluo-5N Acetoxymethylester (Fluo-5N AM) Belastungstests nachgewiesen. Das Calcium-Imaging der nativ vorhandenen Ca2+-ATPase des sarkoplasmatischen/endoplasmatischen Retikulums (SERCA) und der Ryanodin-Rezeptoren (RyR) in den Mikrosomen sowie der zell-frei exprimierten TRP-Ionenkanäle wurden mit dem Fura-5N-AM- Fluoreszenzfarbstoff in mit Carboxylesterase vorsynthetisierten Mikrosomen nachgewiesen.
Zusammenfassend lässt sich sagen, dass das Prinzip der zellbasierten Calcium-Imaging -Methode vielversprechend an das eukaryotische zellfreie Sf21-System angepasst werden konnte, um Ionenkanäle zu analysieren. Nach entsprechender Forschung könnte die etablierte Methode in Zukunft auch auf andere Membranproteine ausgeweitet werden. Dies umfasst die Untersuchung anderer zell-frei exprimierte GPCRs oder anderer Ionenkanäle wie Kalium-, Natrium- und Chlorid-Ionenkanäle.
Zwischen Modellierung und Stakeholderbeteiligung - Wissensproduktion in der Energiewendeforschung
(2023)
Die Dekarbonisierung des Energiesystems ist Teil der international im Rahmen des Pariser Klimaabkommens beschlossenen CO2-Minderungsstrategie zur Bekämpfung des Klimawandels. Nach den Verhandlungen und Beschlüssen der Klimaziele stehen politische Entscheider weltweit nun vor der Frage, wie sie diese erreichen können. Dies produziert eine hohe politische Nachfrage nach Wissen um die direkten und indirekten Effekte verschiedener Instrumente und potentiellen Entwicklungspfade einer Energiewende. Dieser gesellschaftliche Bedarf an wissenschaftlichen Antworten zu Lösungsoptionen wurde im Rahmen einer Klimafolgenforschung, genauer einer Klimapolitikfolgenforschung, aufgenommen. Der relativ neue Zweig einer Energiewendeforschung hat sich weltweit entwickelt, steht dabei allerdings vor der doppelten Herausforderung: Erstens befindet sich das Objekt der Forschung nicht im luftleeren Raum, sondern innerhalb ökonomischer, sozialer und politischer Zusammenhänge, hier gesellschaftliche Einbettung genannt. Denn die Frage, wie die Energiewende erreicht werden kann, wird auch außerhalb der Wissenschaft debattiert und stellt damit ein Aushandlungsfeld unterschiedlicher Interessen und Narrative dar. Zweitens befindet sich das zu untersuchende Objekt in der Zukunft, hier unter dem Terminus des strukturellen Nicht-Wissens zusammengefasst. Diese beiden Bedingungen führen dazu, dass konventionelle Methoden der empirischen Sozialforschung nicht greifen und eine Öffnung und Transformation der Wissenschaft in Hinblick auf neue Methoden vonnöten ist (Nowotny 2001, Ravetz 2006, Schneidewind 2013). In dieser Arbeit untersuche ich zwei Möglichkeiten, wie mit der Herausforderung, Wissen unter der Bedingung des strukturellen Nicht-Wissens und der gesellschaftlichen Einbettung zu produzieren, in der Energiewendeforschung umgegangen wird. Einerseits wird dies durch die Einbeziehung von Stakeholdern, also nicht-wissenschaftlicher Akteure, in den Forschungsprozess getan. Andererseits ist die Nutzung von komplexen ökonometrischen Modellen zur Berechnung von Implikationen und energiewirtschaftlichen Entwicklungspfaden zu einem zentralen Mittel der Wissensgenerierung in der Energiewendeforschung avanciert. Damit wird der als Problem verstandenen strukturellen Bedingung des Nicht-Wissens insofern begegnet, als dass die Ergebnisse von Stakeholder-Involvement und von Modellierungsarbeiten zweifelsohne neues Wissen zur Verfügung stellen. Uneinigkeit besteht jedoch darin, worüber dieses Wissen etwas aussagt: Sind es Interessen oder legitime Perspektiven, die Stakeholder in den Forschungsprozess einbringen und sind Modelle vereinfachte Darstellungen der Welt oder sind sie Ausdruck der Vorstellung des Modellierers?
Die Studie untersucht, wie Lehrpersonen auf Primarstufe ihre Anleitungsstrategien bei der Durchführung von musikalischen Gestaltungsprozessen in ihren Schulklassen entwickeln. Die Entwicklungsprozesse wurden vom Forscher begleitet und mit Reflexionsimpulsen unterstützt. Lehrende und Forscher analysieren und diskutieren regelmässig das Unterrichtsgeschehen, um neue Wege der Anleitung anzubahnen. Im Fokus stehen die Lehrpersonen, ihr Wirken und ihre im Prozess sich vollziehende Professionalisierung.
Die Studie gliedert sich in vier Teile. Der erste Teil legt die musikfachlichen und professionstheoretischen Fundierungen dar. Diese Fundierungen bilden die Grundlage vorliegender fachgegenstandsspezifischer Professionalisierung. Der zweite Teil stellt das Forschungsformat von Design-based Research sowie dessen konkrete Adaption vor. Der dritte Teil expliziert das empirische Vorgehen im Feld. Der vierte Teil berichtet die Ergebnisse in Form von Designprinzipien und Designprodukten.
Die leitende Forschungsfrage lautet:
Wie verläuft der Kompetenzerwerb von Klassenlehrpersonen auf der Primarstufe beim Anleiten musikalischer Gestaltungsprozesse und wie lässt sich dieser Kompetenzerwerb mittels Reflexionstools unterstützen?
Das Forschungsziel ist demnach ein doppeltes: Erstens Erkenntnisgewinnung zur Struktur des Kompetenzerwerbs im begleiteten Selbstlernprozess der Lehrer:innen. Zweitens die Generierung von Reflexionstools, die Klassenlehrpersonen bei der Initiierung und Moderation musikalischer Gestaltungsprozesse in der Praxis unterstützen.
Die Untersuchung nimmt eine offene Herausforderung aus der Bildungspraxis als Ausgangspunkt für fachspezifische Professionalisierung an. Das Forschungsformat von Design-based Research erwies sich als sinnvolle Strategie, da die Lehrkräfte ihre Professionalisierung als theoriegestützten Selbstlernprozess in ihrem angestammten Praxisfeld angehen konnten.
Die Auswertung der Befragungen, die im Rahmen der Designprozesse erfolgten, zeigt, dass die Untersuchungsteilnehmenden ihr sozial-kommunikatives Verhalten sowie ihre fachdidaktischen Zugänge und Vorgehensweisen veränderten und in Richtung einer didaktisch-improvisierenden Handlungsweise zu erweitern vermochten.
Am Ende der Untersuchung entstanden drei Reflexionstools in unterschiedlichen Formaten und auf unterschiedlichen Abstraktionsniveaus: Das Reflexionstool try-outs beinhaltet konkrete Reflexionsimpulse (Handlungsanregungen und Reflexionsfragen) für das unterrichtliche Lehrer:innen-Handeln. Das dynamische Kompetenzmodell Kompetenzflyer bietet eine Reflexionsfolie für die Ansteuerung eigenständiger Kompetenzerwerbsschritte. Das online-Tool improspider ist ein Selbstreflexionsinstrument zur Einschätzung personaler Orientierungen und bildet, auf Basis empirisch erarbeiteter Merkmale einer didaktisch-improvisierenden Handlungsweise beim Anleiten musikalischer Gestaltungsprozesse, Improvisationskompetenz individuell ab.
Anschaulichkeiten herstellen
(2023)
Die Handschrift D der Driu liet von der maget entstand um 1220 und ist die älteste vollständige erhaltene Fassung des Textes. Priester Wernher gilt als Verfasser der geistlichen Dichtung und erstellt sie im Jahr 1172 auf der Grundlage apokrypher und biblischer Quellen. Die Handschrift D wird in der mediävistischen Germanistik gerne zu jenen Werken gezählt, die den Auftakt einer zunehmenden Verschriftlichung in der Volkssprache markieren. Gemäß ihrem Erscheinungsbild erweist sich die Handschrift und der Zeitpunkt ihrer Entstehung aber vor allem als ein Wendepunkt, an dem der Einfluss der lateinischen Schriftkultur auf die Produktion volkssprachlicher Literatur besonders deutlich wird. Während insgesamt der Anteil der geistlichen Dichtung kontinuierlich abnimmt, erfolgt von literaturwissenschaftlicher Seite zurecht auch die Einordnung der Handschrift in die weltlich-laikale Hofliteratur. In diesem Kontext steht die Handschrift D aber nicht am Beginn einer Blütezeit, sondern weist vor allem in das blühende Spannungsfeld zwischen der lateinisch geprägten Buchproduktion und der geistlichen Dichtung auf der einen und dem Anspruch einer laikalen Rezeptionsgemeinschaft auf der anderen Seite. In diesem Feld bewegt sich meine medienanthropologische Untersuchung. Die Schwerpunkte liegen hierbei auf der Rekonstruktion der Handschriftenherstellung sowie auf der Analyse der Darstellungsprinzipien im Bildprogramm.
Obwohl sieben der neun Menschenrechtsverträge auf Ebene der Vereinten Nationen die Möglichkeit eines Staatenbeschwerdeverfahrens eröffnen, kam dieser Verfahrensart über Jahrzehnte hinweg keinerlei praktische Bedeutung zu. Im Frühjahr 2018 erreichten den CERD-Ausschuss dann jedoch gleich drei verschiedene Staatenmitteilungen. Die erstmalige Aktivierung des Verfahrens fast 50 Jahre nach Inkrafttreten des Internationalen Übereinkommens zur Beseitigung jeder Form von Rassendiskriminierung (CERD) kann dabei als eine historische Entwicklung bezeichnet werden.
Vor diesem Hintergrund bietet dieses Buch erstmals eine umfassende Auseinandersetzung mit dem Staatenbeschwerdeverfahren nach Art. 11-13 CERD und den sich daraus ergebenden völkerrechtlichen Fragen. Unter Auswertung der jüngsten Praxis des CERD-Ausschusses und der ad hoc Vergleichskommission wird die Funktionsweise des Verfahrens detailliert dargestellt, wobei immer wieder Parallelen zu den Mechanismen anderer Vertragsregime gezogen werden. Auf diese Weise soll die Arbeit auch zu dem Verständnis vergleichbarer Staatenbeschwerdeverfahren anderer Menschenrechtsverträge beitragen und zugleich die Bedeutung des Phänomens zwischenstaatlicher Streitbeilegung in Menschenrechtsfragen stärker in den Vordergrund rücken.
BCH Codes mit kombinierter Korrektur und Erkennung In dieser Arbeit wird auf Grundlage des BCH Codes untersucht, wie eine Fehlerkorrektur mit einer Erkennung höherer Fehleranzahlen kombiniert werden kann. Mit dem Verfahren der 1-Bit Korrektur mit zusätzlicher Erkennung höherer Fehler wurde ein Ansatz entwickelt, welcher die Erkennung zusätzlicher Fehler durch das parallele Lösen einfacher Gleichungen der Form s_x = s_1^x durchführt. Die Anzahl dieser Gleichungen ist linear zu der Anzahl der zu überprüfenden höheren Fehler.
In dieser Arbeit wurde zusätzlich für bis zu 4-Bit Korrekturen mit zusätzlicher Erkennung höherer Fehler ein weiterer allgemeiner Ansatz vorgestellt. Dabei werden parallel für alle korrigierbaren Fehleranzahlen spekulative Fehlerkorrekturen durchgeführt. Aus den bestimmten Fehlerstellen werden spekulative Syndromkomponenten erzeugt, durch welche die Fehlerstellen bestätigt und höhere erkennbare Fehleranzahlen ausgeschlossen werden können. Die vorgestellten Ansätze unterscheiden sich von dem in entwickelten Ansatz, bei welchem die Anzahl der Fehlerstellen durch die Berechnung von Determinanten in absteigender Reihenfolge berechnet wird, bis die erste Determinante 0 bildet. Bei dem bekannten Verfahren ist durch die Berechnung der Determinanten eine faktorielle Anzahl an Berechnungen in Relation zu der Anzahl zu überprüfender Fehler durchzuführen. Im Vergleich zu dem bekannten sequentiellen Verfahrens nach Berlekamp Massey besitzen die Berechnungen im vorgestellten Ansatz simple Gleichungen und können parallel durchgeführt werden.Bei dem bekannten Verfahren zur parallelen Korrektur von 4-Bit Fehlern ist eine Gleichung vierten Grades im GF(2^m) zu lösen. Dies erfolgt, indem eine Hilfsgleichung dritten Grades und vier Gleichungen zweiten Grades parallel gelöst werden. In der vorliegenden Arbeit wurde gezeigt, dass sich eine Gleichung zweiten Grades einsparen lässt, wodurch sich eine Vereinfachung der Hardware bei einer parallelen Realisierung der 4-Bit Korrektur ergibt. Die erzielten Ergebnisse wurden durch umfangreiche Simulationen in Software und Hardwareimplementierungen überprüft.
Dielektrophorese ist die Manipulation polarisierbarer Partikel durch inhomogene elektrische Wechselfelder. In dieser Arbeit wurden drei verschiedene Enzyme durch Dielektrophorese immobilisiert und anschließend hinsichtlich ihrer katalytischen Aktivität untersucht: Meerrettichperoxidase, Cholinoxidase aus Alcaligenes sp. und Glucoseoxidase aus Aspergillus niger. Die Immobilisierung erfolgte durch Dielektrophorese auf nano-Elektrodenarrays aus Wolfram-Zylindern mit 500 nm Durchmesser oder aus Titannitrid-Ringen mit 20 nm Breite. Die Immobilisierung der Enzyme konnte fluoreszenzmikroskopisch entweder anhand der intrinsischen Fluoreszenz oder aufgrund einer Fluoreszenzmarkierung vor oder nach der Immobilisierung für alle getesteten Enzyme nachgewiesen werden. Die Messung der Enzymaktivität erfolgte quantitativ durch den direkten oder indirekten Nachweis des gebildeten Produktes oder, im Falle der Cholinoxidase, durch Beobachtung der intrinsischen Fluoreszenz des Cofaktors FAD, die vom Oxidationszustand dieses Enzyms abhängt. Für die Meerrettichperoxidase konnte so eine hohe erhaltene Enzymaktivität nach der Immobilisierung nachgewiesen werden. Die Aktivität der permanent immobilisierten Fraktion der Meerrettichperoxidase entsprach bis zu 47 % der höchstmöglichen Aktivität einer Monolage dieses Enzyms auf den Elektroden des Chips. Diese Aktivität kann als aktive, aber zufällig gegenüber der Oberfläche ausgerichtete Enzymschicht interpretiert werden. Für die permanent immobilisierte Glucoseoxidase wurde nur eine Aktivität entsprechend <1,3 % der Aktivität einer solchen Enzymschicht detektiert, während für die immobilisierte Cholinoxidase gar keine Aktivität nachgewiesen werden konnte. Die Aktivität der durch DEP immobilisierten Enzyme konnte somit quantitativ bestimmt werden. Der Anteil an erhaltener Aktivität hängt dabei stark vom verwendeten Enzym ab.
Rechtschreibkompetenz ist eine wesentliche Voraussetzung, um eigenständig Texte verfassen zu können und somit am gesellschaftlichen Leben teilhaben zu können. Die vorliegende Arbeit nimmt daher die Rechtschreibkompetenz von Kindern der Grundschule genauer in den Blick. Mit Hilfe von drei empirischen Untersuchungen wird die Entwicklung der Rechtschreibkompetenz vor allem dahingehend betrachtet, inwiefern sich diese entlang von theoretischen Kompetenzmodellen entwickelt und welche Merkmale diese Entwicklung unterstützen können. Als Datengrundlage dient hierfür das Pilotprojekt inklusive Grundschule, in dem die Rechtschreibkompetenz von 697 Schülerinnen und Schülern zu insgesamt drei Messzeitpunkten (vom Beginn der zweiten Jahrgangsstufe bis zum Ende der dritten Jahrgangsstufe) untersucht wurde.
Mithilfe von latenten Transitionsanalysen konnte gezeigt werden, dass sich hinsichtlich des Ablaufs der Rechtschreibkompetenzniveaus nur sehr wenige Einzelfälle von den theoretischen Modellen unterscheiden. Anschließend zeigte sich durch multinomiale logistische Regressionen, dass Wechsel zwischen Kompetenzniveaus vor allem mit dem Arbeitsverhalten zusammenhingen, wohingegen hinsichtlich der Merkmale der Unterrichtsqualität nicht die erwarteten Zusammenhänge gezeigt werden konnten. Mögliche Ursachen und Implikationen werden in der Arbeit diskutiert.