Refine
Year of publication
Document Type
- Doctoral Thesis (3269) (remove)
Language
- German (3269) (remove)
Keywords
- Deutschland (9)
- Modellierung (9)
- Spracherwerb (9)
- language acquisition (9)
- taste (7)
- Bildung (6)
- Evaluation (6)
- Geschmack (6)
- Nanopartikel (6)
- Polymer (6)
Institute
- Institut für Chemie (331)
- Wirtschaftswissenschaften (321)
- Institut für Biochemie und Biologie (304)
- Öffentliches Recht (240)
- Institut für Physik und Astronomie (229)
- Bürgerliches Recht (217)
- Historisches Institut (208)
- Institut für Ernährungswissenschaft (164)
- Sozialwissenschaften (129)
- Department Erziehungswissenschaft (99)
Die Zusammenarbeit zwischen Lehr- und anderen Fachkräften stellt in Modellen inklusiver Schul- und Unterrichtsentwicklung sowie Schuleffektivität ein wichtiges Element dar. Wenngleich Kooperation als bedeutsam postuliert wird, so belegen Studien, dass diese bisher überwiegend in autonomieerhaltenden Formen praktiziert wird. Als entwicklungsförderlich gelten jedoch v.a. komplexere Formen der Zusammenarbeit. Vor dem Hintergrund inklusiver Bildung und dem Anspruch einer bestmöglichen individuellen Entwicklung der Schüler*innen stellt die Zusammenarbeit von Lehr- und Fachkräften folglich ein sehr bedeutsames Thema dar. Es ist zu hinterfragen, wie sich die Zusammenarbeit zwischen Lehr- und Fachkräften im Primar- wie Sekundarstufenbereich an inklusiven Schulen gestaltet, welche Faktoren diese beeinflussen und welche Relevanz die unterschiedlichen Formen der Zusammenarbeit im Prozess inklusiver Schulentwicklung einnehmen. Bestehende Forschungsdesiderata aufgrei-fend, fokussiert die vorliegende Dissertation auf die realisierte Zusammenarbeit von Lehr- und Fachkräften im Primar- und Sekundarstufenbereich inklusiver Schulen, am Beispiel des Landes Brandenburg. Neben den realisierten Formen der Zusammenarbeit, stehen insbesondere die Identifikation von Kooperationsmustern von Lehr- und Fachkräften sowie von Schulen, und deren Zusammenhänge mit der Leistungsentwicklung von Schüler*innen im Kern des Forschungsinteresses.
Die vorliegende Dissertation bearbeitet insgesamt sechs Forschungsfragen, welche in drei Teilstudien adressiert werden: Zunächst werden mittels deskriptiver Analysen sowie Mehrebenenmodellierungen die Ausgangslage multiprofessioneller Kooperation (erste Forschungsfrage) sowie deren Rahmenbedingungen (zweite Forschungsfrage) im Primar- wie Sekundarstufenbereich erfasst (Teilstudie 1). Lehr- und Fachkräfte kooperierten überwiegend in autonomieerhaltenden, austauschbasierten Formen. Weiterhin zeigte sich, dass insbesondere die individuelle Offenheit zur Zusammenarbeit sowie die subjektiv wahrgenommene Unterstützung durch die Schulleitung bedeutsame Faktoren für die Realisierung multiprofessioneller Kooperation darstellten. Die Fragestellungen drei und vier befassen sich mit der Identifikation von Mustern im Kooperationsverhalten (Teilstudie 2). Zum einen geht es hierbei um personenbezogene Profile von Lehr- und Fachkräften (dritte Forschungsfrage), zum anderen um schulbezogene Profile (vierte Forschungsfrage), welche mittels des personenzentrierten Ansatzes der latenten Profilanalysen unter Berücksichtigung der Mehrebenenstruktur identifiziert werden. Hinsichtlich des individuellen Kooperationsverhaltens konnten vier Profile eruiert werden, bzgl. des schulspezifischen Kooperationsverhaltens drei. Die Mehrheit der Lehr- und Fachkräfte konnte im „regularly“-Profil verortet werden, d.h. nach eigener Einschätzung kooperierten diese überdurchschnittlich häufig im Austausch miteinander und arbeitsteilig, aber auch regelmäßig kokonstruktiv. Auf Schulebene zeigte sich, dass etwa jede zweite inklusive Schule im Land Brandenburg über eine hoch ausgeprägte Kooperationskultur verfügte. Im Fokus der Teilstudie 3 wird den Fragen nachgegangen, in welchem Zusammenhang die schulspezifischen Kooperationskulturen mit der Leistungsentwicklung von Schüler*innen in der Primar- wie Sekundarstufe steht. Mittels autoregressiver Mehrebenenanalysen wird einerseits der Zusammenhang mit der Leistungsentwicklung aller Schüler*innen (fünfte Forschungsfrage) untersucht, sowie spezifisch auf die Entwicklung von Schüler*innen mit und ohne sonderpädagogischem Förderbedarf (sechste Forschungsfrage) fokussiert. Ein zentrales Ergebnis war hierbei, dass Schüler*innen mit sonderpädagogischem Förderbedarf in der Primar- wie Sekundarstufe in ihrer Leistungsentwicklung am stärksten profitierten, wenn sie an Schulen lernten, an denen sich die Lehr- und Fachkräfte sehr regelmäßig über Lernstände der Schüler*innen austauschten (Austausch), Arbeitspakete für differenzierte Lernangebote erarbeiteten und verteilten (Arbeitsteilung) und darüber hinaus gelegentlich gemeinsam Problemlösungen entwickelten (Kokonstruktion).
Die Ergebnisse werden vor dem Hintergrund der postulierten Relevanz multiprofessioneller Kooperation für inklusive Schul- und Unterrichtsentwicklungsprozesse eingeordnet und diskutiert. Weiterhin werden verschiedene praktische Implikationen für die Unterstützung multiprofessioneller Zusammenarbeit im Primar- und Sekundarstufenbereich abgeleitet.
Die vorliegende Arbeit thematisiert die Synthese und die Polymerisation von Monomeren auf der Basis nachwachsender Rohstoffe wie zum Beispiel in Gewürzen und ätherischen Ölen enthaltenen kommerziell verfügbaren Phenylpropanoiden (Eugenol, Isoeugenol, Zimtalkohol, Anethol und Estragol) und des Terpenoids Myrtenol sowie ausgehend von der Rinde einer Birke (Betula pendula) und der Korkeiche (Quercus suber). Ausgewählte Phenylpropanoide (Eugenol, Isoeugenol und Zimtalkohol) und das Terpenoid Myrtenol wurden zunächst in den jeweiligen Laurylester überführt und anschließend das olefinische Strukturelement epoxidiert, wobei 4 neue (2-Methoxy-4-(oxiran-2-ylmethyl)phenyldodecanoat, 2-Methoxy-4-(3-methyl-oxiran-2-yl)phenyldodecanoat, (3-Phenyloxiran-2-yl)methyldodecanoat, (7,7-Dimethyl-3-oxatricyclo[4.1.1.02,4]octan-2-yl)methyldodecanoat) und 2 bereits bekannte monofunktionelle Epoxide (2-(4-Methoxybenzyl)oxiran und 2-(4-Methoxyphenyl)-3-methyloxiran) erhalten wurden, die mittels 1H-NMR-, 13C-NMR- und FT-IR-Spektroskopie sowie mit DSC untersucht wurden. Die Photo-DSC Untersuchung der Epoxidmonomere in einer kationischen Photopolymerisation bei 40 °C ergab die maximale Polymerisationsgeschwindigkeit (Rpmax: 0,005 s-1 bis 0,038 s-1) sowie die Zeit (tmax: 13 s bis 26 s) bis zum Erreichen des Rpmax-Wertes und führte zu flüssigen Oligomeren, deren zahlenmittlerer Polymerisationsgrad mit 3 bis 6 mittels GPC bestimmt wurde. Die Umsetzung von 2-Methoxy-4-(oxiran-2-ylmethyl)phenyldodecanoat mit Methacrylsäure ergab ein Isomerengemisch (2-Methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat und 2-Methoxy-4-(2-(methacryl-oyloxy)-3-hydroxypropyl)phenyldodecanoat), das mittels Photo-DSC in einer freien radikalischen Photopolymerisation untersucht wurde (Rpmax: 0,105 s-1 und tmax: 5 s), die zu festen in Chloroform unlöslichen Polymeren führte.
Aus Korkpulver und gemahlener Birkenrinde wurden selektiv 2 kristalline ω-Hydroxyfettsäuren (9,10-Epoxy-18-hydroxyoctadecansäure und 22-Hydroxydocosansäure) isoliert. Die kationische Photopolymerisation der 9,10-Epoxy-18-hydroxyoctadecansäure ergab einen nahezu farblosen transparenten und bei Raumtemperatur elastischen Film, welcher ein Anwendungspotential für Oberflächenbeschichtungen hat. Aus der Reaktion von 9,10-Epoxy-18-hydroxyoctadecansäure mit Methacrylsäure wurde ein bei Raumtemperatur flüssiges Gemisch aus zwei Konstitutionsisomeren (9,18-Dihydroxy-10-(methacryloyloxy)octadecansäure und 9-(Methacryloyloxy)-10,18-dihydroxyoctadecansäure) erhalten (Tg: -60 °C). Die radikalische Photopolymerisation dieser Konstitutionsisomere wurde ebenfalls mittels Photo-DSC untersucht (Rpmax: 0,098 s-1 und tmax: 3,8 s). Die Reaktion von 22-Hydroxydocosansäure mit Methacryloylchlorid ergab die kristalline 22-(Methacryloyloxy)docosansäure, welche ebenfalls in einer radikalischen Photopolymerisation mittels Photo-DSC untersucht wurde (Rpmax: 0,023 s-1 und tmax: 9,6 s).
Die mittels AIBN in Dimethylsulfoxid initiierte Homopolymerisation der 22-(Methacryloyloxy)docosansäure und der Isomerengemische bestehend aus 2-Methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat und 2-Methoxy-4-(2-(methacryl-oyloxy)-3-hydroxypropyl)phenyldodecanoat sowie aus 9,18-Dihydroxy-10-(methacryloy-loxy)octadecansäure und 9-(Methacryloyloxy)-10,18-dihydroxyoctadecansäure ergab feste lösliche Polymere, die mittels 1H-NMR- und FT-IR-Spektroskopie, GPC (Poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyldodecanoat): Pn = 94) und DSC (Poly(2-methoxy-4-(2-hydroxy-3-(methacryloyloxy)propyl)phenyldodecanoat / 2-methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)phenyldodecanoat): Tg: 52 °C; Poly(9,18-dihydroxy-10-(methacryloyloxy)-octadecansäure / 9-(methacryloyloxy)-10,18-dihydroxyoctadecansäure): Tg: 10 °C; Poly(22-(methacryloyloxy)docosansäure): Tm: 74,1 °C, wobei der Schmelzpunkt mit dem des Photopolymers (Tm = 76,8 °C) vergleichbar ist) charakterisiert wurden.
Das bereits bekannte Monomer 4-(4-Methacryloyloxyphenyl)butan-2-on wurde ausgehend von 4-(4-Hydroxyphenyl)butan-2-on hergestellt, welches aus Birkenrinde gewonnen werden kann, und unter identischen Bedingungen für einen Vergleich mit den neuen Monomeren polymerisiert. Die freie radikalische Polymerisation führte zu Poly(4-(4-methacryloyloxyphenyl)butan-2-on) (Pn: 214 und Tg: 83 °C). Neben der Homopolymerisation wurde eine statistische Copolymerisation des Isomerengemisches 2-Methoxy-4-(2-hydroxy-3-(methacryl-oyloxy)propyl)phenyldodecanoat / 2-Methoxy-4-(2-(methacryloyloxy)-3-hydroxypropyl)-phenyldodecanoat mit 4-(4-Methacryloyloxyphenyl)butan-2-on untersucht, wobei ein äquimolarer Einsatz der Ausgangsmonomere zu einem Anstieg der Ausbeute, der Molmassenverteilung und der Dispersität des Copolymers (Tg: 44 °C) führte. Die unter Verwendung von Diethylcarbonat als „grünes“ Lösungsmittel mittels AIBN initiierten freien radikalischen Homopolymerisationen von 4-(4-Methacryloyloxyphenyl)butan-2-on und von Laurylmethacrylat ergaben vergleichbare Polymerisationsgrade der Homopolymere (Pn: 150), welche jedoch aufgrund ihrer Strukturunterschiede deutlich unterschiedliche Glasübergangstemperaturen hatten (Poly(4-(4-methacryloyloxyphenyl)butan-2-on): Tg: 70 °C, Poly(laurylmethacrylat) Tg: -49 °C. Eine statistische Copolymerisation äquimolarer Stoffmengen der beiden Monomere in Diethylcarbonat führte bei einer Polymerisationszeit von 60 Minuten zu einem leicht bevorzugten Einbau des 4-(4-Methacryloyloxyphenyl)butan-2-on in das Copolymer (Tg: 17 °C). Copolymerisationsdiagramme für die freien radikalischen Copolymerisationen von 4-(4-Methacryloyloxyphenyl)butan-2-on mit n-Butylmethacrylat beziehungsweise 2-(Dimethylamino)ethylmethacrylat (t: 20 min bis 60 min; Molenbrüche (X) für 4-(4-Methacryloyloxyphenyl)butan-2-on: 0,2; 0,4; 0,6 und 0,8) zeigten ein nahezu ideales azeotropes Copolymerisationsverhalten, obwohl ein leicht bevorzugter Einbau von 4-(4-Methacryloyloxyphenyl)butan-2-on in das jeweilige Copolymer beobachtet wurde. Dabei korreliert ein Anstieg der Ausbeute und der Glasübergangstemperatur der erhaltenen Copolymere mit einem zunehmenden Gehalt an 4-(4-Methacryloyloxyphenyl)butan-2-on im Reaktionsgemisch. Die unter Einsatz der modifizierten Gibbs-DiMarzio-Gleichung berechneten Glasübergangstemperaturen der Copolymere stimmten mit den gemessenen Werten gut überein. Das ist eine gute Ausgangsbasis für die Bestimmung der Glasübergangstemperatur eines Copolymers mit einer beliebigen Zusammensetzung.
Legitimiertes Unrecht
(2024)
Das Oberste Gericht der DDR war integraler Bestandteil der sozialistischen Staatsführung und unterlag strengen Denk- und Organisationsstrukturen. Es war eng in die politische Agenda der SED eingebunden und genoss keinerlei Unabhängigkeit. Die Auslegung des DDR-Rechts durch das Gericht orientierte sich ausschließlich an den innen- und außenpolitischen Interessen der SED. Dies galt auch für die Rechtsprechung in Fällen der Republikflucht und ihrer gesetzlichen Vorläufer. Die höchste Gerichtsinstanz im Staat war aktiv an der Gestaltung und Umsetzung der Strafjustiz gegen Republikflüchtige beteiligt, was wesentlich zur Festigung der Herrschaftsgewalt der SED beitrug. Die vorliegende Untersuchung analysiert Urteile des Obersten Gerichts im historisch-politischen Kontext und zeigt auf, dass die Urteilspraxis ausschließlich im Interesse parteipolitischer Ziele handelte und weder dem Volk noch der eigentlichen Rechtsfindung verpflichtet war. Des Weiteren wird der maßgebliche Beitrag des Obersten Gerichts an der schrittweisen Kriminalisierung der Bürger der DDR beleuchtet. Dies wirft ein kritisches Licht auf die Rolle des Rechtssystems bei der Sicherung von Rechtsstaatlichkeit und Menschenrechten in autoritären Regimen.
In der DDR sollte die Rechtsprechung den Zielen der Politik und dem Aufbau sowie der Sicherung des Sozialismus dienen. Zur Verwirklichung dieser Ziele unternahm das SED-Regime insbesondere den Versuch, auf die Ausbildung des juristischen Nachwuchses Einfluss zu nehmen. Die Arbeit untersucht anhand der im Bundesarchiv verwahrten Originalquellen die Anforderungen, die an das juristische Studium in der DDR gestellt wurden, und die Umstände, unter denen die juristische Ausbildung erfolgte. Unter besonderer Berücksichtigung der Auswahl, Aus- und Weiterbildung der Staatsanwälte beleuchtet die Arbeit die sog. »Kaderarbeit« der DDR-Justiz sowie die wesentlichen Zulassungs-, Prüfungs-, Studien- und Weiterbildungsbedingungen. Die Auswertung des überlieferten Archivmaterials führt zu der Erkenntnis, dass die Aus- und Weiterbildung der DDR-Juristen zur Sicherstellung der Ziele der sozialistischen Partei durch eine planmäßige und systematische politisch-ideologische Erziehung und Kontrolle bestimmt war.
Dieses Buch geht der Frage nach, aus welchen Gründen im Berlin des Jahres 1845 mit der »Genossenschaft für Reform im Judenthum« die womöglich bis heute radikalste Ausprägung jüdischer Reform entstand. Dazu werden die Hauptwerke Sigismund Sterns (1812–1867), des Gründers der Bewegung, erstmals systematisch dargestellt und zeitgeschichtlich eingeordnet. Die Studie macht deutlich, dass die Gründung der Genossenschaft nur im Kontext der vielfältigen, gesamtgesellschaftlichen und innerjüdischen, religiösen und politischen Umwälzungen im Vormärz und deren theoretisch-diskursivem Unterbau verstanden werden kann. Das Aufkommen der Bewegung und das jähe Verklingen ihrer Vitalität nach 1848 erweisen sich dabei als Spiegel der komplexen Verflechtungszusammenhänge deutsch-jüdischen philosophisch-theologischen Denkens im 19. Jahrhundert.
Ausgehend von der Beobachtung, dass die aktuelle Digitalisierungsforschung die Ambivalenz der Digitalisierung zwar erkennt, aber nicht zum Gegenstand ihrer Analysen macht, fokussiert die vorliegende kumulative Dissertation auf die ambivalente Dichotomie aus Potenzialen und Problemen, die mit digitalen Transformationen von Organisationen einhergeht. Entlang von sechs Publikationen wird mit einem systemtheoretischen Blick auf Organisationen die spannungsvolle Dichotomie hinsichtlich dreier ambivalenter Verhältnisse aufgezeigt: Erstens wird in Bezug auf das Verhältnis von Digitalisierung und Postbürokratie deutlich, dass digitale Transformationen das Potenzial aufweisen, postbürokratische Arbeitsweisen zu erleichtern. Parallel ergibt sich das Problem, dass auf Konsens basierende postbürokratische Strukturen Digitalisierungsinitiativen erschweren, da diese auf eine Vielzahl von Entscheidungen angewiesen sind. Zweitens zeigt sich mit Blick auf das ambivalente Verhältnis von Digitalisierung und Vernetzung, dass einerseits organisationsweite Kooperation ermöglicht wird, während sich andererseits die Gefahr digitaler Widerspruchskommunikation auftut. Beim dritten Verhältnis zwischen Digitalisierung und Gender deutet sich das mit neuen digitalen Technologien einhergehende Potenzial für Gender Inklusion an, während zugleich das Problem einprogrammierter Gender Biases auftritt, die Diskriminierungen oftmals verschärfen. Durch die Gegenüberstellung der Potenziale und Probleme wird nicht nur die Ambivalenz organisationaler Digitalisierung analysierbar und verständlich, es stellt sich auch heraus, dass mit digitalen Transformationen einen doppelte Formalisierung einhergeht: Organisationen werden nicht nur mit den für Reformen üblichen Anpassungen der formalen Strukturen konfrontiert, sondern müssen zusätzlich formale Entscheidungen zu Technikeinführung und -beibehaltung treffen sowie formale Lösungen etablieren, um auf unvorhergesehene Potenziale und Probleme reagieren. Das Ziel der Dissertation ist es, eine analytisch generalisierte Heuristik an die Hand zu geben, mit deren Hilfe die Errungenschaften und Chancen digitaler Transformationen identifiziert werden können, während sich parallel ihr Verhältnis zu den gleichzeitig entstehenden Herausforderungen und Folgeproblemen erklären lässt.
Krankheitsängste in verschiedenen Populationen und die Effektivität ambulanter Verhaltenstheraphie
(2023)
Diese Arbeit zeigt auf, wie historisch und rechtlich eine Ungleichheit zwischen Schwarzen und Weißen in Deutschland gewachsen ist und geht der Frage nach, welche Anforderungen das Verfassungsrecht, die Rechtspraxis und die Politik erfüllen müssen, um sie auszugleichen.
Eingangs wird die Entwicklung des Verbots der rassischen Diskriminierung im internationalen und nationalen Recht dargelegt. Folglich zeichnet die Verfasserin die Diskriminierungsgeschichte von Schwarzen Menschen nach. Zur Überwindung der nach wie vor bestehenden strukturellen Diskriminierung schlägt sie ein positives Recht vor, das sich auf Menschenrechtsstandards und Lösungsansätzen aus Rechtsvergleichen stützt und die Gleichberechtigung von Schwarzen Menschen bewirken soll.
Sexualität in der Geschichte
(2024)
Jelena Tomović führt in diesem Band durch die Entwicklungen unserer sexuellen Sprache und Praktiken. Sie zeigt, dass die Art und Weise, wie über Sexualität gesprochen wird, nicht nur ein Spiegelbild, sondern auch ein treibender Faktor für soziale Veränderungen ist. Die Studie stellt die konventionelle Vorstellung von Sexualität in Frage und führt die Lesenden in eine Welt der subtilen Nuancen und kulturellen Veränderungen. Mit kommunikationstheoretischen Ansätzen, dem praxeologischen Ansatz, ihrer sozialkonstruktivistischen Grundannahme und einem klaren Fokus auf Akteur*innen bietet die Autorin eine frische Perspektive auf die Geschichte der Sexualität. Das Buch eröffnet neue Wege für die Erforschung und das Verständnis von Intimität und sozialer Kommunikation.
Beerdigen oder verbrennen?
(2024)
Die Arbeit „Die Bekämpfung transnationaler Kriminalität im Kontext fragiler Staatlichkeit“ widmet sich dem Phänomen grenzüberschreitend tätiger Akteure der organisierten Kriminalität die den Umstand ausnutzen, dass einige international anerkannte Regierungen nur eine unzureichende Kontrolle über Teile ihres Staatsgebietes ausüben. Es wird untersucht, weshalb der durch die internationale Staatengemeinschaft geschaffene Rechtsrahmen, zur Bekämpfung transnationaler Kriminalitätsphänomene im Kontext dieser fragilen Staaten, nicht oder nur defizitär dazu beiträgt die Kriminalitätsphänomene zu bekämpfen.
Nachdem zunächst erörtert wird, was im Rahmen der Untersuchung unter dem Begriff der transnationalen Kriminalität verstanden wird, wird der internationale Rechtsrahmen zur Bekämpfung anhand von fünf beispielhaft ausgewählten transnationalen Kriminalitätsphänomenen beschrieben. Im darauffolgenden Hauptteil der Untersuchung wird der Frage nachgegangen, weshalb dieser durch die internationale Staatengemeinschaft geschaffene Rechtsrahmen, gerade in fragilen Staaten, kaum einen Beitrag dazu leistet solchen Kriminalitätsphänomenen effektiv zu begegnen. Dabei wird festgestellt, dass die Genese des internationalen Rechtsrahmens zu einem Legitimitätsdefizit desselbigen führt. Auch die mangelhafte Berücksichtigung der speziellen Lebensrealitäten, die in vielen fragilen Staaten vorzufinden sind, wirkt sich negativ auf die Durchsetzbarkeit des internationalen Rechtsrahmens aus. Es wird dargelegt, dass unterschiedlich hohe menschenrechtliche Schutzstandards zu Normenkollisionen bei der internationalen Zusammenarbeit der Staaten führen, insbesondere im Rahmen der internationalen Rechtshilfe. Da gerade fragile Staaten häufig durch eine defizitäre menschenrechtliche Situation gekennzeichnet sind, stellt dies konsolidierte Staaten im Rahmen der Zusammenarbeit mit fragilen Staaten öfters vor Herausforderungen. Schließlich wird aufgezeigt, dass auch die extraterritoriale Jurisdiktion und somit die strafrechtliche Verfolgung transnationaler Straftaten durch Drittstaaten mit rechtlichen und praktischen Problemen einhergeht.
In einem letzten Kapitel der Arbeit wird der Frage nachgegangen, ob nicht ein alternativer Strafverfolgungsmechanismus geschaffen werden sollte, um transnationale Kriminalitätsphänomene zu verfolgen, die aus fragilen Staaten heraus begangen werden und wie ein solch alternativer Strafverfolgungsmechanismus konkret ausgestaltet sein sollte.
Food Neophilie
(2023)
Trotz der eindeutigen Vorteile einer ausgewogenen Ernährung halten sich viele Menschen weltweit nicht an entsprechende Ernährungsrichtlinien. Um angemessene Strategien zur Unterstützung einer gesundheitsfördernden Ernährung zu entwickeln, ist ein Verständnis der zugrunde liegenden Faktoren unerlässlich. Insbesondere die Gruppe der älteren Erwachsenen stellt dabei eine wichtige Zielgruppe für ernährungsbezogene Präventions- und Interventionsansätze dar. Einer der vielen Faktoren, die als Determinanten einer gesundheitsfördernden Ernährung diskutiert werden, ist die Food Neophilie, also die Bereitschaft, neue und unbekannte Lebensmittel auszuprobieren. Aktuelle Forschungsergebnisse legen nahe, dass die Food Neophilie positiv mit einer gesundheitsfördernden Ernährung in Verbindung steht, allerdings ist die bisherige Forschung in diesem Bereich äußerst begrenzt. Das Ziel der Dissertation war es, das Konstrukt der Food Neophilie sowie seine Beziehung zu gesundheitsförderndem Ernährungsverhalten im höheren Erwachsenenalter grundlegend zu erforschen, um das Potenzial der Food Neophilie für die Gesundheitsförderung älterer Erwachsener besser zu verstehen. Dabei wurde im Rahmen der ersten Publikation zunächst untersucht, wie sich das Konstrukt der Food Neophilie reliabel und valide erfassen lässt, um weiterführende Untersuchungen der Food Neophilie zu ermöglichen. Die psychometrische Validierung der deutschen Version der Variety Seeking Tendency Scale (VARSEEK) basierte auf zwei unabhängigen Stichproben mit insgesamt N = 1000 Teilnehmenden und bestätigte, dass es sich bei der Skala um ein reliables und valides Messinstrument zur Erfassung der Food Neophilie handelt. Darauf aufbauend wurde im Rahmen der zweiten Publikation die Beziehung der Food Neophilie und der Ernährungsqualität über die Zeit hinweg analysiert. Die prospektive Untersuchung von N = 960 Teilnehmenden des höheren Erwachsenenalters (M = 63.4 Jahre) anhand einer Cross-Lagged-Panel-Analyse ergab hohe zeitliche Stabilitäten der Food Neophilie und der Ernährungsqualität über einen Zeitraum von drei Jahren. Es zeigte sich zudem ein positiver querschnittlicher Zusammenhang zwischen der Food Neophilie und der Ernährungsqualität, jedoch wurde die Food Neophilie nicht als signifikante Determinante der Ernährungsqualität über die Zeit hinweg identifiziert. In der dritten Publikation wurden schließlich nicht nur die individuellen Auswirkungen der Food Neophilie auf die Ernährungsqualität betrachtet, sondern auch potenzielle dynamische Wechselwirkungen innerhalb von Partnerschaften einbezogen. Hierzu erfolgte mittels eines Actor-Partner-Interdependence-Modells eine Differenzierung potenzieller intra- und interpersoneller Einflüsse der Food Neophilie auf die Ernährungsqualität. Im Rahmen der dyadischen Analyse zeigte sich bei N = 390 heterosexuellen Paaren im höheren Erwachsenenalter (M = 64.0 Jahre) ein Dominanzmuster: Während die Food Neophilie der Frauen positiv mit ihrer eigenen Ernährungsqualität und der ihrer Partner zusammenhing, war die Food Neophilie der Männer nicht mit der Ernährungsqualität des Paares assoziiert. Insgesamt leistet die vorliegende Dissertation einen wertvollen Beitrag zum umfassenden Verständnis der Food Neophilie sowie ihrer Rolle im Kontext der Ernährungsgesundheit älterer Erwachsener. Trotz fehlender Vorhersagekraft über die Zeit hinweg deutet der positive Zusammenhang zwischen Food Neophilie und Ernährungsqualität darauf hin, dass die Fokussierung auf eine positive und neugierige Einstellung gegenüber Lebensmitteln eine innovative Perspektive für Präventions- und Interventionsansätze zur Unterstützung einer gesundheitsfördernden Ernährung älterer Erwachsener bieten könnte.
Die umfangreiche rechtswissenschaftliche Studie befasst sich mit den preußischen Staatskirchenverträgen aus der Zeit der Weimarer Republik. Diese Verträge waren Höhepunkte einer Entwicklung in Richtung größerer Freiheit und Unabhängigkeit der Kirchen vom Staat, die den Vorgängen im Reich und in anderen deutschen Ländern teils entsprach, teils zuwiderlief. Die Entwicklung folgte keiner unverrückbaren Idealvorstellung über das Verhältnis von Staat und Kirche, sondern stellte sich stets als pragmatische Reaktion auf realpolitische Probleme dar. Die Staatskirchenverträge selbst prägten die weiteren Entwicklungen in Ost und West bis zur Gegenwart.
Die vorliegende Arbeit untersucht Urlaubsfotografien bei Facebook und beschreibt, welche sozio-technischen Medienpraktiken sich innerhalb der Social-Media Plattform über die Fotografien vollziehen. Fotografische Praktiken sind durch aktive Handlungen und soziale Gebrauchsweisen bestimmt. Urlaubsfotografien tragen zum Beispiel zur Strukturierung von Reiserouten und Vorstellungen bei, indem genrespezifische Motive und Rahmungen mit Hilfe von Medien reproduziert und wiederholt werden. Praktiken des Zeigens, Teilens und Kommunizierens werden durch Social Plug-Ins (Like/Share Buttons) und Tagging-Funktionen auch in die Benutzeroberflächen von Facebook integriert. Dadurch werden Nutzer*innen Aktivitäten und technische Prozesse miteinander verbunden. Am Beispiel der automatischen Generierung von Urlaubsfotografien auf Geotagseiten wird gezeigt, dass Social-Tagging zur Entstehung und Aushandlung geographischer Räume und Ortsvorstellungen beiträgt. Mithilfe technischer Strukturierungen von Fotografien auf Taggingseiten werden genrespezifische Motive, fotografische Trends und Ästhetiken besonders sichtbar. Allerdings wird ihre Visualisierung auch durch algorithmische Priorisierung einzelner Inhalte mitbestimmt. Dadurch werden Urlaubsfotografien für ein fotografisches Profiling genutzt, da sie das algorithmische Erfassen und Auswerten von Nutzer*innen-Informationen ermöglichen. Die Arbeit zeigt, dass der Einsatz von Bilderkennungsverfahren und fotografischen Datenanalysen zu einer optimierten Informationsgewinnung und zu einer Standardisierung von Fotografien beiträgt.
Preisalgorithmenkartelle
(2024)
Mithilfe von Preisalgorithmen sind Unternehmen in der Lage, automatische und wechselseitige Preisanpassungen vorzunehmen. Dadurch können klassische Kartellkonstellationen mangels konspirativer Treffen in den Hintergrund treten. Die Arbeit zeigt auf, unter welchen Voraussetzungen der Einsatz von Preisalgorithmen einen Verstoß gegen das europäische Kartellverbot begründen kann. Dazu werden Fallkonstellationen beleuchtet, die ein algorithmisches Zusammenwirken sowohl unmittelbar zwischen Wettbewerbern als auch mittelbar über einen Dritten begründen. Ferner wird auch auf algorithmenspezifische Compliance-Maßnahmen eingegangen. Schließlich werden die praktischen Herausforderungen bei der Aufdeckung und dem Nachweis solcher Kartelle aufgezeigt.
Ausgehend von Überlegungen des anthropologisch orientierten Psychiaters Erwin Straus geht dieses Buch der Frage nach, welche Bedingungen vorliegen, wenn bestimmte Ereignisse von Personen als bedeutsam erlebt werden. Des Weiteren wird ausführlich erörtert, wie sich Personalität im Menschen ausbildet und inwieweit sie von der gelingenden Integration bedeutungsvoller Ersterlebnisse abhängt. Das dabei zugrundeliegende Person-Konzept stellt einen eigenständigen Syntheseversuch der vier Konzepte von Erwin Straus, Viktor Emil von Gebsattel, Helmuth Plessner und Max Scheler dar. Der Autor arbeitet in oberärztlicher Funktion am Klinikum Schloss Lütgenhof in Dassow, einer Akutklinik für Personale Medizin, integrierte Psychosomatik, Innere Medizin und Psychotherapie
Eskalation des Commitments in Wirtschaftsinformatik Projekten: eine kognitiv-affektive Perspektive
(2024)
Projekte im Bereich der Wirtschaftsinformatik (IS-Projekte) sind von zentraler Bedeutung für die Steuerung von Unternehmensstrategien und die Aufrechterhaltung von Wettbewerbsvorteilen, überschreiten jedoch häufig das Budget, sprengen den Zeitrahmen und weisen eine hohe Misserfolgsquote auf. Diese Dissertation befasst sich mit den psychologischen Grundlagen menschlichen Verhaltens - insbesondere Kognition und Emotion - im Zusammenhang mit einem weit verbreiteten Problem im IS-Projektmanagement: der Tendenz, an fehlgehenden Handlungssträngen festzuhalten, auch Eskalation des Commitments (Englisch: “escalation of commitment” - EoC) genannt.
Mit einem kombinierten Forschungsansatz (dem Mix von qualitativen und quantitativen Methoden) untersuche ich in meiner Dissertation die emotionalen und kognitiven Grundlagen der Entscheidungsfindung hinter eskalierendem Commitment zu scheiternden IS-Projekten und deren Entwicklung über die Zeit. Die Ergebnisse eines psychophysiologischen Laborexperiments liefern Belege auf die Vorhersagen bezüglich der Rolle von negativen und komplexen situativen Emotionen der kognitiven Dissonanz Theorie gegenüber der Coping-Theorie und trägt zu einem besseren Verständnis dafür bei, wie sich Eskalationstendenzen während sequenzieller Entscheidungsfindung aufgrund kognitiver Lerneffekte verändern. Mit Hilfe psychophysiologischer Messungen, einschließlich der Daten-Triangulation zwischen elektrodermaler und kardiovaskulärer Aktivität sowie künstliche Intelligenz-basierter Analyse von Gesichtsmikroexpressionen, enthüllt diese Forschung physiologische Marker für eskalierendes Commitment. Ergänzend zu dem Experiment zeigt eine qualitative Analyse text-basierter Reflexionen während der Eskalationssituationen, dass Entscheidungsträger verschiedene kognitive Begründungsmuster verwenden, um eskalierende Verhaltensweisen zu rechtfertigen, die auf eine Sequenz von vier unterschiedlichen kognitiven Phasen schließen lassen.
Durch die Integration von qualitativen und quantitativen Erkenntnissen entwickelt diese Dissertation ein umfassendes theoretisches Model dafür, wie Kognition und Emotion eskalierendes Commitment über die Zeit beeinflussen. Ich schlage vor, dass eskalierendes Commitment eine zyklische Anpassung von Denkmodellen ist, die sich durch Veränderungen in kognitiven Begründungsmustern, Variationen im zeitlichen Kognitionsmodus und Interaktionen mit situativen Emotionen und deren Erwartung auszeichnet. Der Hauptbeitrag dieser Arbeit liegt in der Entflechtung der emotionalen und kognitiven Mechanismen, die eskalierendes Commitment im Kontext von IS-Projekten antreiben. Die Erkenntnisse tragen dazu bei, die Qualität von Entscheidungen unter Unsicherheit zu verbessern und liefern die Grundlage für die Entwicklung von Deeskalationsstrategien. Beteiligte an „in Schieflage geratenden“ IS-Projekten sollten sich der Tendenz auf fehlgeschlagenen Aktionen zu beharren und der Bedeutung der zugrundeliegenden emotionalen und kognitiven Dynamiken bewusst sein.
Juana Borrero
(2023)
Juana Borrero y Pierra (1877–1896) war eine der wichtigsten Vertreterinnen des inselkubanischen Modernismo. Gleichwohl ist das Schaffen der schon zu Lebzeiten zum Wunderkind stilisierten Autorin, Dichterin und Malerin wissenschaftlich kaum eingehender untersucht worden. Die Werkstudie schlägt einen umfassenden, konsequent ästhetischen Blick auf das aus Gedichten, poetischer Prosa, literarischen Liebesbriefen, Zeichnungen und Malereien bestehende Gesamtwerk Borreros vor, das im Kern ein Streben nach Ganzheit von Kunst und Leben offenlegt. Dabei werden die Text- und Bildstrategien der Künstlerin mit den ästhetischen, soziohistorischen und biografischen Kontexten verzahnt, wodurch Juana Borreros Stimme als exemplarische Stimme der kubanischen Spätmoderne sowie einer bewegten kubanischen Literatur les- und sichtbar wird.
Unterliegt illegales Vermögen dem strafrechtlichen Vermögensschutz? Die Beantwortung dieser Frage ist seit Jahren in der Strafrechtswissenschaft umstritten und führt zu einer Vielzahl an Meinungen. Stärken und Schwächen der in der Literatur vertretenen Ansichten sind bis heute Gegenstand einer andauernden wissenschaftlichen Diskussion. Dennoch fehlt es an einer umfassenden Untersuchung der höchstrichterlichen Rechtsprechungspraxis – diese Lücke soll die vorliegende Arbeit schließen.
Um die Fülle der dafür untersuchten Entscheidungen systematisch darzustellen, wurden diese in verschiedene Fallgruppen eingeordnet. Die Bildung der Fallgruppen basiert nicht wie üblich auf einem phänomenologischen Ansatz, sondern auf einem konsequenten systematisch-dogmatischen Ansatz. Dies ermöglicht die Betrachtung bekannter Sachverhaltskonstellationen im neuen Licht.
Körper – Karte – Text
(2024)
Rabelais' Pentalogie um die Riesen Gargantua und Pantagruel spiegelt Aspekte des sich verändernden Weltbildes ihrer Entstehungszeit. Diese Studie untersucht auf der Folie der Theorie des Simulakrum Schrift, wie Körpermodellierungen und kartographisches imaginaire durch den Autor als Strategien der Verhüllung verborgener Botschaften eingesetzt werden. Sie zeigt an ausgewählten Beispielen des Quart Livre die Aufweichung der Grenzen von Körper, Karte und Text und deren Durchdringung. Die Metaphorizität des Textes gibt Aufschluss über seine Autoreflexivität und bewirkt eine gleichsam ganzheitliche Lektüreerfahrung. Schließlich avanciert die Fiktion in ihrer Trugbildhaftigkeit als grotesk-sinnlicher Körper und polysemantische Karte zum Welterklärungsmodell, das jedoch erst dechiffriert werden muss.
Arachidonsäurelipoxygenasen (ALOX-Isoformen) sind Lipid-peroxidierenden Enzyme, die bei der Zelldifferenzierung und bei der Pathogenese verschiedener Erkrankungen bedeutsam sind. Im menschlichen Genom gibt es sechs funktionelle ALOX-Gene, die als Einzelkopiegene vorliegen. Für jedes humane ALOX-Gen gibt es ein orthologes Mausgen. Obwohl sich die sechs humanen ALOX-Isoformen strukturell sehr ähnlich sind, unterscheiden sich ihre funktionellen Eigenschaften deutlich voneinander. In der vorliegenden Arbeit wurden vier unterschiedliche Fragestellungen zum Vorkommen, zur biologischen Rolle und zur Evolutionsabhängigkeit der enzymatischen Eigenschaften von Säugetier-ALOX-Isoformen untersucht:
1) Spitzhörnchen (Tupaiidae) sind evolutionär näher mit dem Menschen verwandt als Nagetiere und wurden deshalb als Alternativmodelle für die Untersuchung menschlicher Erkrankungen vorgeschlagen. In dieser Arbeit wurde erstmals der Arachidonsäurestoffwechsel von Spitzhörnchen untersucht. Dabei wurde festgestellt, dass im Genom von Tupaia belangeri vier unterschiedliche ALOX15-Gene vorkommen und die Enzyme sich hinsichtlich ihrer katalytischen Eigenschaften ähneln. Diese genomische Vielfalt, die weder beim Menschen noch bei Mäusen vorhanden ist, erschwert die funktionellen Untersuchungen zur biologischen Rolle des ALOX15-Weges. Damit scheint Tupaia belangeri kein geeigneteres Tiermodel für die Untersuchung des ALOX15-Weges des Menschen zu sein.
2) Entsprechend der Evolutionshypothese können Säugetier-ALOX15-Orthologe in Arachidonsäure-12-lipoxygenierende- und Arachidonsäure-15-lipoxygenierende Enzyme eingeteilt werden. Dabei exprimieren Säugetierspezies, die einen höheren Evolutionsgrad als Gibbons aufweisen, Arachidonsäure-15-lipoxygenierende ALOX15-Orthologe, während evolutionär weniger weit entwickelte Säugetiere Arachidonsäure-12 lipoxygenierende Enzyme besitzen. In dieser Arbeit wurden elf neue ALOX15-Orthologe als rekombinante Proteine exprimiert und funktionell charakterisiert. Die erhaltenen Ergebnisse fügen sich widerspruchsfrei in die Evolutionshypothese ein und verbreitern deren experimentelle Basis. Die experimentellen Daten bestätigen auch das Triadenkonzept.
3) Da humane und murine ALOX15B-Orthologe unterschiedliche funktionelle Eigenschaften aufweisen, können Ergebnisse aus murinen Krankheitsmodellen zur biologischen Rolle der ALOX15B nicht direkt auf den Menschen übertragen werden. Um die ALOX15B-Orthologen von Maus und Mensch funktionell einander anzugleichen, wurden im Rahmen der vorliegenden Arbeit Knock-in Mäuse durch die In vivo Mutagenese mittels CRISPR/Cas9-Technik hergestellt. Diese exprimieren eine humanisierte Mutante (Doppelmutation von Tyrosin603Asparaginsäure+Histidin604Valin) der murinen Alox15b. Diese Mäuse waren lebens- und fortpflanzungsfähig, zeigten aber geschlechtsspezifische Unterschiede zu ausgekreuzten Wildtyp-Kontrolltieren im Rahmen ihre Individualentwicklung.
4) In vorhergehenden Untersuchungen zur Rolle der ALOX15B in Rahmen der Entzündungsreaktion wurde eine antiinflammatorische Wirkung des Enzyms postuliert. In der vorliegenden Arbeit wurde untersucht, ob eine Humanisierung der murinen Alox15b die Entzündungsreaktion in zwei verschiedenen murinen Entzündungsmodellen beeinflusst. Eine Humanisierung der murinen Alox15b führte zu einer verstärkten Ausbildung von Entzündungssymptomen im induzierten Dextran-Natrium-Sulfat-Kolitismodell. Im Gegensatz dazu bewirkte die Humanisierung der Alox15b eine Abschwächung der Entzündungssymptome im Freund‘schen Adjuvans Pfotenödemmodell. Diese Daten deuten darauf hin, dass sich die Rolle der ALOX15B in verschiedenen Entzündungsmodellen unterscheidet.
Im Rahmen einer explorativen Entwicklung wurde in der vorliegenden Studie ein Konzept zur Wissenschaftskommunikation für ein Graduiertenkolleg, in dem an photochemischen Prozessen geforscht wird, erstellt und anschließend evaluiert. Der Grund dafür ist die immer stärker wachsende Forderung nach Wissenschaftskommunikation seitens der Politik. Es wird darüber hinaus gefordert, dass die Kommunikation der eigenen Forschung in Zukunft integrativer Bestandteil des wissenschaftlichen Arbeitens wird. Um junge Wissenschaftler bereits frühzeitig auf diese Aufgabe vorzubereiten, wird Wissenschaftskommunikation auch in Forschungsverbünden realisiert.
Aus diesem Grund wurde in einer Vorstudie untersucht, welche Anforderungen an ein Konzept zur Wissenschaftskommunikation im Rahmen eines Forschungsverbundes gestellt werden, indem die Einstellung der Doktoranden zur Wissenschaftskommunikation sowie ihre Kommunikationsfähigkeiten anhand eines geschlossenen Fragebogens evaluiert wurden. Darüber hinaus wurden aus den Daten Wissenschaftskommunikationstypen abgeleitet. Auf Grundlage der Ergebnisse wurden unterschiedliche Wissenschaftskommunikationsmaßnahmen entwickelt, die sich in der Konzeption, den Rezipienten, sowie der Form der Kommunikation und den Inhalten unterscheiden.
Im Rahmen dieser Entwicklung wurde eine Lerneinheit mit Bezug auf die Inhalte des Graduiertenkollegs, bestehend aus einem Lehr-Lern-Experiment und den dazugehörigen Begleitmaterialien, konzipiert. Anschließend wurde die Lerneinheit in eine der Wissenschaftskommunikationsmaßnahmen integriert. Je nach Anforderung an die Doktoranden, wurden die Maßnahmen durch vorbereitende Workshops ergänzt.
Durch einen halboffenen Pre-Post-Fragebogen wurde der Einfluss der Wissenschaftskommunikationsmaßnahmen und der dazugehörigen Workshops auf die Selbstwirksamkeit der Doktoranden evaluiert, um Rückschlüsse darauf zu ziehen, wie sich die Wahrnehmung der eigenen Kommunikationsfähigkeiten durch die Interventionen verändert. Die Ergebnisse deuten darauf hin, dass die einzelnen Wissenschaftskommunikationsmaßnahmen die verschiedenen Typen in unterschiedlicher Weise beeinflussen. Es ist anzunehmen, dass es abhängig von der eigenen Einschätzung der Kommunikationsfähigkeit unterschiedliche Bedürfnisse der Förderung gibt, die durch dedizierte Wissenschaftskommunikationsmaßnahmen berücksichtigt werden können.
Auf dieser Grundlage werden erste Ansätze für eine allgemeingültige Strategie vorgeschlagen, die die individuellen Fähigkeiten zur Wissenschaftskommunikation in einem naturwissenschaftlichen Forschungsverbund fördert.
Kraft und Kognition
(2023)
Die in den letzten Jahren aus Querschnittstudien gewonnenen empirischen Erkenntnisse deuten auf einen Zusammenhang zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit hin [10]. Diese Beobachtung wird von Längsschnittstudien gestützt, bei denen in Folge gezielter Krafttrainingsinterventionen, welche typischerweise zur Steigerung der muskulären Kraftleistungsfähigkeit führen, Verbesserungen der kognitiven Leistungsfähigkeit dokumentiert werden konnten [11]. Die zugrundeliegenden Mechanismen, die den Zusammenhang zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit begründen, sind jedoch noch nicht vollständig bekannt und bedürfen weiterer Forschung [10,12]. Vor diesem Hintergrund hatten die im Rahmen dieser Dissertation durchgeführten Forschungsarbeiten das übergeordnete Ziel, die Mechanismen zu untersuchen, welche den Zusammenhang zwischen der muskulären Kraftleistungsfähigkeit und der kognitiven Leistungsfähigkeit erklären können. In dieser Arbeit wurden dazu unterschiedliche Populationen (junge Menschen und ältere Menschen ohne und mit leichten kognitiven Störungen) unter Anwendung verschiedener untersuchungsmethodischer Ansätze (systematische Literaturrecherche, Doppelaufgabenparadigma und funktionelle Nahinfrarotspektroskopie) untersucht. Aufgrund der im Rahmen dieser Dissertation durchgeführten Forschungsarbeiten, die konsekutiv aufeinander aufbauen, konnten folgende Haupterkenntnisse gewonnen werden:
• Um einen umfassenden Überblick über die aktuelle Evidenzlage zum Thema Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit sowie den zugrundeliegenden neuronalen Korrelaten zu erlangen, wurde eine systematische Literaturrecherche zu diesem Forschungsthema durchgeführt. Die Ergebnisse dieser systematischen Literaturrecherche dokumentieren, dass ein gezieltes Krafttraining neben der Steigerung der kognitiven Leistungsfähigkeit zu funktionellen und strukturellen Veränderungen des Gehirns, insbesondere in frontalen Gehirnregionen, führen kann [13]. Ferner zeigen die Ergebnisse dieser systematischen Literaturrecherche, bei der eine begrenzte Anzahl verfügbarer Studien (n = 18) identifiziert wurde, den Bedarf weiterer Forschungsarbeiten zu diesem Themenfeld an [13].
• Zur Überprüfung der Hypothese, dass zur Ausführung von Krafttrainingsübungen höhere kognitive Prozesse benötigt werden, wurde in einer experimentellen Studie bei jüngeren gesunden Erwachsenen das Doppelaufgabenparadigma bei der Krafttrainingsübung Knie-beuge angewendet. Die in dieser Studie beobachteten Doppelaufgabenkosten bei der Ausführung der Krafttrainingsübung Kniebeuge (im Vergleich zur Kontrollbedingung Stehen) deuten auf die Beteiligung höherer kognitiver Prozesse zur Lösung dieser Bewegungsaufgabe hin und bestätigen die aufgestellte Hypothese [14].
• Um die Hypothese zu untersuchen, dass spezifische neuronale Korrelate (funktionelle Gehirnaktivität) den Zusammenhang zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit vermitteln, wurde bei jungen gesunden Erwachsenen der Zusammenhang zwischen der Ausprägung der maximalen Handgriffkraft (normalisiert auf den Body-Mass-Index) und der kortikalen hämodynamischen Antwortreaktion untersucht, die bei der Durchführung eines standardisierten kognitiven Tests mittels funktioneller Nahinfrarotspektroskopie in präfrontalen Gehirnarealen gemessen wurde. Im Rahmen dieser Querschnittsstudie konnte die initiale Hypothese nicht vollständig bestätigt werden, da zwar Zusammenhänge zwischen maximaler Handgriffkraft und kognitiver Leistungsfähigkeit mit Parametern der hämodynamischen Antwortreaktion beobachtet wurden, aber die Ausprägung der maximalen Handgriffkraft nicht im Zusammenhang mit der Kurzeitgedächtnisleistung stand [16].
• Zur Untersuchung der Annahme, dass eine vorliegende neurologische Erkrankung (im Speziellen eine leichte kognitive Störung), die typischerweise mit Veränderungen von spezifischen neuronalen Korrelaten (z.B. des Hippokampus‘ [17-19] und des präfrontalen Kortex‘ [20,21]) einhergeht, einen Einfluss auf die Assoziation zwischen muskulärer Kraftleistungsfähigkeit und kognitiver Leistungsfähigkeit hat, wurde in einer Querschnittsstudie der Zusammenhang zwischen der Ausprägung der maximalen Handgriffkraft (normalisiert auf den Body-Mass-Index) und der Ausprägung der exekutiven Funktionen bei älteren Erwachsenen mit amnestischem und nicht-amnestischem Subtyp der leichten kognitiven Störung sowie gesunden älteren Erwachsenen untersucht. In dieser Querschnittsstudie wurde nur bei älteren Erwachsenen mit dem amnestischen Subtyp der leichten kognitiven Störung ein Zusammenhang zwischen maximaler Handgriffkraft und exekutiven Funktionen beobachtet. Solch eine Korrelation existiert jedoch nicht bei älteren Erwachsenen mit dem non-amnestischen Subtyp der leichten kognitiven Störung oder bei gesunden älteren Erwachsenen [24].
• In einem Perspektivenartikel wurde aufgezeigt, wie durch die theoriegeleitete Nutzung physiologischer Effekte, die bei einer speziellen Krafttrainingsmethode durch die Moderation des peripheren Blutflusses mittels Manschetten oder Bändern auftreten, insbesondere Populationen mit niedriger mechanischer Belastbarkeit von den positiven Effekten des Krafttrainings auf die Gehirngesundheit profitieren könnten [25].
Insgesamt deuten die Ergebnisse der in dieser Dissertation zusammengeführten und aufeinander aufbauenden Forschungsarbeiten auf das Vorhandensein von gemeinsamen neuronalen Korrelaten (z.B. frontaler Kortex) hin, die sowohl für die muskuläre Kraftleistungsfähigkeit als auch für höhere kognitive Prozesse eine wichtige Rolle spielen [26]. Betrachtet man die in der vorliegenden Dissertation gewonnenen Erkenntnisse im Verbund mit den bereits in der Literatur existieren-den empirischen Belegen, unterstützen sie die Sichtweise, dass eine relativ hohe muskuläre Kraftleistungsfähigkeit und deren Erhalt durch gezielte Krafttrainingsinterventionen über die Lebenspanne positive Effekte auf die (Gehirn-)Gesundheit haben können [27].
Digital Fashion
(2024)
Das virtuelle Kleid als mediale und soziokulturelle Alltagserscheinung der Gegenwart bildet den Gegenstand der vorliegenden interdisziplinären Unter-suchung. An der Schnittstelle zwischen Menschen, Medien und Mode ist das virtuelle Kleid an unrealen Orten und in synthetischen Situationen ausschließlich auf einem Screen erfahrbar. In diesem Dispositiv lassen sich Körperkonzepte, Darstellungskonventionen, soziale Handlungsmuster und Kommunikations-strategien ausmachen, die zwar auf einer radikalen Ablösung vom textilen Material beruhen, aber dennoch nicht ohne sehr konkrete Verweise auf das textile Material auskommen. Dies führt zu neuen Ansätzen der Auseinandersetzung mit Kleidern, die nun als Visualisierung gebündelter Datenpakete zu betrachten sind. Die dynamische Entwicklung neuer Erscheinungsformen und deren nahtlose Einbindung in traditionelle Geschäftsmodelle und bestehende Modekonzepte macht eine Positionsbestimmung notwendig, insbesondere im Hinblick auf gegenwärtige Nachhaltigkeitsdiskurse um immaterielle Produkte. Für diese Studie liefern die hinter den Bildern liegenden Prozesse der ökonomischen Ausrichtung, der Herstellung, der Verwendung und der Rezeption den methodologischen Zugang für die Analyse. Mithilfe eines typologisierenden Instrumentariums wird aus der Vielzahl und Vielfalt der Darstellungen ein Set an forschungsleitenden Beispielen zusammengestellt, welche dann in einer mehrstufigen Kontextanalyse zu einer begrifflichen Fassung des virtuellen Kleides sowie zu fünf Kontexteinheiten führen. Am Beispiel des virtuellen Kleides zeichnet diese Untersuchung den technischen, gesellschaftlichen und sozialen Wandel nach und arbeitet seine Bedeutung für zukünftige Modeentwicklungen heraus. Damit leistet die Untersuchung einen Beitrag zur medien- und sozialwissenschaftlichen Modeforschung der Gegenwart.
Die Geschichtsschreibung terminiert das Ende des deutschen Zionismus bisher mit dem NS-Verbot der Zionistischen Vereinigung für Deutschland im Zuge des Novemberpogroms 1938. Zu diesem Zeitpunkt hatte er aber von seinem geographischen Kontext entgrenzt, in Erez Israel bereits neue Wurzeln geschlagen. Zionisten aus Deutschland schickten sich nun an, mit ihrem spezifischen Erfahrungshorizont und Wertemaßstab und mitgebrachtem ideologischen Rüstzeug die Entwicklung des jüdischen Nationalheims mitzugestalten und einer umfassenden ökonomischen, kulturellen und politischen Akkulturation der deutschen Alijah den Weg zu bahnen. Entgegen aller zionistischen Theorie gründeten sie auf landsmannschaftlicher Basis im Jahr 1932 die Selbsthilfeorganisation Hitachduth Olej Germania und während des Weltkrieges die Partei Alija Chadascha.
Die Dissertation beinhaltet die Gesamtschau des deutschen Zionismus in seiner letzten Phase in den Jahren 1932 bis 1948; zugleich beleuchtet sie die Geschichte der etwa 60.000 in Palästina eingewanderten Juden aus Deutschland in der für diese Abhandlung relevanten Zeitperiode. Im ersten Teil wird in chronologischer Folge die 1932 beginnende letztmalige Sammlung und Neuformierung des deutschen Zionismus in seiner neu-alten Heimat dargestellt. Wenn man so will, die formativen Jahre im personellen, organisatorischen und ideologisch-politischen Sinne, die schließlich nach dem fast gänzlichen Scheitern der politischen Integration der deutschen Alijah mit der – in der Rückschau – fast zwangsläufig erscheinenden Begründung der Alija Chadascha ihren Abschluss fanden. Im zweiten Teil werden die Positionen der deutschen Zionisten zu den existenziellen Fragen der jüdischen Gemeinschaft in Palästina, hebräisch Jischuw genannt, in der im Fokus stehenden Zeitperiode dargestellt. Im Einzelnen handelt es sich erstens um die Einwanderungsfrage, die untrennbar verbunden war mit der in der zionistischen Theorie unabdingbaren Forderung nach der Erlangung einer jüdischen Majorität in Palästina; zweitens um die der staatlichen Ausgestaltung des zukünftigen jüdischen Gemeinwesens und drittens um die Frage der adäquaten Reaktion des Jischuw auf die Schoah. In diese jeweils in separaten Kapiteln behandelten Themenkomplexe wird die Frage nach dem anzustrebenden Verhältnis zur britischen Mandatsmacht mit einfließen. Hieran mussten die deutschen Zionisten ihr mitgebrachtes geistig-ideologisches Rüstzeug einem Praxistest unterziehen und nach realpolitischen Antworten suchen.
Dem kometenhaften Aufstieg der weiterhin landsmannschaftlich geprägten Alija Chadascha folgte dann in den ersten Nachkriegsjahren ein ebenso rapider Zerfall. Einige Monate nach der Staatsgründung Israels löste sie sich dann sang- und klanglos auf und das Gros ihrer Aktivisten integrierte sich in das Parteiengefüge des neuen Staates. Der deutsche Zionismus als politische Bewegung kam nun wirklich an sein Ende. Diese Abhandlung wird somit zum einen den Kampf der deutschen Alijah um gesellschaftliche Anerkennung und politische Partizipation im Jischuw nachzeichnen und zum anderen eine geistig-ideologische Verortung des deutschen Zionismus in seiner letzten Phase vollziehen und Tendenzen der ideologischen Neuausrichtung offenlegen. Darüber hinaus werden in der Historiographie vorhandene Allgemeinplätze wie die fast allseits anerkannte These vom Scheitern der deutschen Zionisten in der neuen Heimat einer Überprüfung unterzogen. Die letzte vorhandene Leerstelle im wissenschaftlichen Kanon zur mehr als 50-jährigen Geschichte des deutschen Zionismus wird somit geschlossen.
Die Fluoreszenz-Calcium-Imaging-Methode wird auch heute noch als gängige Methode verwendet, vor allem wegen der geringeren Kosten für das Wirkstoffscreening in der pharmazeutischen Forschung, wobei Ionenkanäle sowie einige der G-Protein gekoppelte Rezeptoren (GPCRs) die Mehrzahl der Wirkstoffziele ansprechen. Die zellfreie Synthese eukaryotischer Proteine hat nicht die Nachteile, die bei der Überexpression dieser ionenpermeablen Proteine in Zellen auftreten können, wie z. B. Zelltoxizität, geringere Proteinexpression und die Beseitigung der exprimierten Proteine aufgrund veränderter Domänen sowie die zeitaufwändige Pflege von Zelllinien. Die Synthese von Ionenkanälen in zellfreien Proteinsyntheseplattformen für das künftige Wirkstoffscreening ist noch in der Grundlagenforschung. Obwohl die Fluoreszenz-Calcium-Imaging-Methode in zellbasierten Assays weit verbreitet ist, wurde diese Methode bisher noch nicht in zellfreien Proteinexpressionssystemen verwendet. Insgesamt ist die neue Anwendung der Calcium-Imaging-Methode in eukaryontischen zellfreien Systemen eine Voraussetzung für die schnelle pharmakologische Analyse von Wirkstoffen. Das erste Ziel dieser wissenschaftlichen Arbeit bestand darin, die grundlegenden Prinzipien der Calcium-Imaging-Methode zur Untersuchung von Ionenkanälen in zellbasierten Systemen zu untersuchen. Hierfür wurden zwei Tumorzelllinien des Auges verwendet, und zwar benigne Pterygiumzellen und maligne Aderhautmelanom 92.1 Zellen. In diesen Studien wurde die Interaktion zwischen den nativ überexprimierten transient-receptor-potential-Ionenkanälen (TRPs) wie TRP Vanilliod 1 (TRPV1) (Capsaicinrezeptor) und TRP Melastatin 8 (TRPM8) (Mentholrezeptor) in diesen Tumorzellen nach Zugabe von verschiedenen Medikamenten und Hormonen untersucht. Das zweite Ziel dieser Arbeit war es, den Calcium-Mechanismus von GPCRs in den Zellen zu untersuchen. Zu diesem Zweck wurde Mas, ein GPCR und Angiotensin (1-7) -Hormonrezeptor, aus dem renin-angiotensin-aldosteron-system (RAAS) in der Human Embryonic Kidney-293 (HEK293) Zelllinie überexprimiert. In dieser Studie wurden insbesondere die Aktivierung klassischer GPCR-Signalwege wie Phospholipase C und Proteinkinase C durch Angiotensin-(1-7) über Mas und die Beteiligung von TRP-Kanälen nachgewiesen. Die zellbasierte-Calcium-Imaging-Methode für chemische Calcium-Indikatoren ließ sich aufgrund der Anwesenheit einer großen Menge cytosolischer Carboxylesterasen gut anwenden. Carboxylesterase ist das wichtigste Enzym in der Calcium Imaging Methode, das die Verarbeitung chemischen Calcium-Farbstoffe behandelt. Dieses Enzym fehlt jedoch in Mikrosomen, die als Basismembran für die Integration synthetisierter Ionenkanäle in eukaryontischen zellfreien Systemen verwendet werden. Das dritte Ziel dieser Forschungsarbeit war die Umsetzung der zellbasierten Calcium-Imaging Methode und der Calcium-Signalwege in zellfreie Systeme. Hier wurde die zellfrei synthetisierte Carboxylesterase in Mikrosomen von Spodoptera frugiperda (Sf21) als praktikables Calcium-Imaging-Werkzeug etabliert, um sowohl native ionenpermeable Proteine als auch zellfrei-synthetisierte Ionenkanäle zu untersuchen. Die Enzymaktivität der zellfrei-synthetisierten Carboxylesterase in Mikrosomen wurde durch Esterase-Assays und den Calcium-Fluoreszenzfarbstoff Fluo-5N Acetoxymethylester (Fluo-5N AM) Belastungstests nachgewiesen. Das Calcium-Imaging der nativ vorhandenen Ca2+-ATPase des sarkoplasmatischen/endoplasmatischen Retikulums (SERCA) und der Ryanodin-Rezeptoren (RyR) in den Mikrosomen sowie der zell-frei exprimierten TRP-Ionenkanäle wurden mit dem Fura-5N-AM- Fluoreszenzfarbstoff in mit Carboxylesterase vorsynthetisierten Mikrosomen nachgewiesen.
Zusammenfassend lässt sich sagen, dass das Prinzip der zellbasierten Calcium-Imaging -Methode vielversprechend an das eukaryotische zellfreie Sf21-System angepasst werden konnte, um Ionenkanäle zu analysieren. Nach entsprechender Forschung könnte die etablierte Methode in Zukunft auch auf andere Membranproteine ausgeweitet werden. Dies umfasst die Untersuchung anderer zell-frei exprimierte GPCRs oder anderer Ionenkanäle wie Kalium-, Natrium- und Chlorid-Ionenkanäle.
Zwischen Modellierung und Stakeholderbeteiligung - Wissensproduktion in der Energiewendeforschung
(2023)
Die Dekarbonisierung des Energiesystems ist Teil der international im Rahmen des Pariser Klimaabkommens beschlossenen CO2-Minderungsstrategie zur Bekämpfung des Klimawandels. Nach den Verhandlungen und Beschlüssen der Klimaziele stehen politische Entscheider weltweit nun vor der Frage, wie sie diese erreichen können. Dies produziert eine hohe politische Nachfrage nach Wissen um die direkten und indirekten Effekte verschiedener Instrumente und potentiellen Entwicklungspfade einer Energiewende. Dieser gesellschaftliche Bedarf an wissenschaftlichen Antworten zu Lösungsoptionen wurde im Rahmen einer Klimafolgenforschung, genauer einer Klimapolitikfolgenforschung, aufgenommen. Der relativ neue Zweig einer Energiewendeforschung hat sich weltweit entwickelt, steht dabei allerdings vor der doppelten Herausforderung: Erstens befindet sich das Objekt der Forschung nicht im luftleeren Raum, sondern innerhalb ökonomischer, sozialer und politischer Zusammenhänge, hier gesellschaftliche Einbettung genannt. Denn die Frage, wie die Energiewende erreicht werden kann, wird auch außerhalb der Wissenschaft debattiert und stellt damit ein Aushandlungsfeld unterschiedlicher Interessen und Narrative dar. Zweitens befindet sich das zu untersuchende Objekt in der Zukunft, hier unter dem Terminus des strukturellen Nicht-Wissens zusammengefasst. Diese beiden Bedingungen führen dazu, dass konventionelle Methoden der empirischen Sozialforschung nicht greifen und eine Öffnung und Transformation der Wissenschaft in Hinblick auf neue Methoden vonnöten ist (Nowotny 2001, Ravetz 2006, Schneidewind 2013). In dieser Arbeit untersuche ich zwei Möglichkeiten, wie mit der Herausforderung, Wissen unter der Bedingung des strukturellen Nicht-Wissens und der gesellschaftlichen Einbettung zu produzieren, in der Energiewendeforschung umgegangen wird. Einerseits wird dies durch die Einbeziehung von Stakeholdern, also nicht-wissenschaftlicher Akteure, in den Forschungsprozess getan. Andererseits ist die Nutzung von komplexen ökonometrischen Modellen zur Berechnung von Implikationen und energiewirtschaftlichen Entwicklungspfaden zu einem zentralen Mittel der Wissensgenerierung in der Energiewendeforschung avanciert. Damit wird der als Problem verstandenen strukturellen Bedingung des Nicht-Wissens insofern begegnet, als dass die Ergebnisse von Stakeholder-Involvement und von Modellierungsarbeiten zweifelsohne neues Wissen zur Verfügung stellen. Uneinigkeit besteht jedoch darin, worüber dieses Wissen etwas aussagt: Sind es Interessen oder legitime Perspektiven, die Stakeholder in den Forschungsprozess einbringen und sind Modelle vereinfachte Darstellungen der Welt oder sind sie Ausdruck der Vorstellung des Modellierers?
Die Studie untersucht, wie Lehrpersonen auf Primarstufe ihre Anleitungsstrategien bei der Durchführung von musikalischen Gestaltungsprozessen in ihren Schulklassen entwickeln. Die Entwicklungsprozesse wurden vom Forscher begleitet und mit Reflexionsimpulsen unterstützt. Lehrende und Forscher analysieren und diskutieren regelmässig das Unterrichtsgeschehen, um neue Wege der Anleitung anzubahnen. Im Fokus stehen die Lehrpersonen, ihr Wirken und ihre im Prozess sich vollziehende Professionalisierung.
Die Studie gliedert sich in vier Teile. Der erste Teil legt die musikfachlichen und professionstheoretischen Fundierungen dar. Diese Fundierungen bilden die Grundlage vorliegender fachgegenstandsspezifischer Professionalisierung. Der zweite Teil stellt das Forschungsformat von Design-based Research sowie dessen konkrete Adaption vor. Der dritte Teil expliziert das empirische Vorgehen im Feld. Der vierte Teil berichtet die Ergebnisse in Form von Designprinzipien und Designprodukten.
Die leitende Forschungsfrage lautet:
Wie verläuft der Kompetenzerwerb von Klassenlehrpersonen auf der Primarstufe beim Anleiten musikalischer Gestaltungsprozesse und wie lässt sich dieser Kompetenzerwerb mittels Reflexionstools unterstützen?
Das Forschungsziel ist demnach ein doppeltes: Erstens Erkenntnisgewinnung zur Struktur des Kompetenzerwerbs im begleiteten Selbstlernprozess der Lehrer:innen. Zweitens die Generierung von Reflexionstools, die Klassenlehrpersonen bei der Initiierung und Moderation musikalischer Gestaltungsprozesse in der Praxis unterstützen.
Die Untersuchung nimmt eine offene Herausforderung aus der Bildungspraxis als Ausgangspunkt für fachspezifische Professionalisierung an. Das Forschungsformat von Design-based Research erwies sich als sinnvolle Strategie, da die Lehrkräfte ihre Professionalisierung als theoriegestützten Selbstlernprozess in ihrem angestammten Praxisfeld angehen konnten.
Die Auswertung der Befragungen, die im Rahmen der Designprozesse erfolgten, zeigt, dass die Untersuchungsteilnehmenden ihr sozial-kommunikatives Verhalten sowie ihre fachdidaktischen Zugänge und Vorgehensweisen veränderten und in Richtung einer didaktisch-improvisierenden Handlungsweise zu erweitern vermochten.
Am Ende der Untersuchung entstanden drei Reflexionstools in unterschiedlichen Formaten und auf unterschiedlichen Abstraktionsniveaus: Das Reflexionstool try-outs beinhaltet konkrete Reflexionsimpulse (Handlungsanregungen und Reflexionsfragen) für das unterrichtliche Lehrer:innen-Handeln. Das dynamische Kompetenzmodell Kompetenzflyer bietet eine Reflexionsfolie für die Ansteuerung eigenständiger Kompetenzerwerbsschritte. Das online-Tool improspider ist ein Selbstreflexionsinstrument zur Einschätzung personaler Orientierungen und bildet, auf Basis empirisch erarbeiteter Merkmale einer didaktisch-improvisierenden Handlungsweise beim Anleiten musikalischer Gestaltungsprozesse, Improvisationskompetenz individuell ab.
Anschaulichkeiten herstellen
(2023)
Die Handschrift D der Driu liet von der maget entstand um 1220 und ist die älteste vollständige erhaltene Fassung des Textes. Priester Wernher gilt als Verfasser der geistlichen Dichtung und erstellt sie im Jahr 1172 auf der Grundlage apokrypher und biblischer Quellen. Die Handschrift D wird in der mediävistischen Germanistik gerne zu jenen Werken gezählt, die den Auftakt einer zunehmenden Verschriftlichung in der Volkssprache markieren. Gemäß ihrem Erscheinungsbild erweist sich die Handschrift und der Zeitpunkt ihrer Entstehung aber vor allem als ein Wendepunkt, an dem der Einfluss der lateinischen Schriftkultur auf die Produktion volkssprachlicher Literatur besonders deutlich wird. Während insgesamt der Anteil der geistlichen Dichtung kontinuierlich abnimmt, erfolgt von literaturwissenschaftlicher Seite zurecht auch die Einordnung der Handschrift in die weltlich-laikale Hofliteratur. In diesem Kontext steht die Handschrift D aber nicht am Beginn einer Blütezeit, sondern weist vor allem in das blühende Spannungsfeld zwischen der lateinisch geprägten Buchproduktion und der geistlichen Dichtung auf der einen und dem Anspruch einer laikalen Rezeptionsgemeinschaft auf der anderen Seite. In diesem Feld bewegt sich meine medienanthropologische Untersuchung. Die Schwerpunkte liegen hierbei auf der Rekonstruktion der Handschriftenherstellung sowie auf der Analyse der Darstellungsprinzipien im Bildprogramm.
Obwohl sieben der neun Menschenrechtsverträge auf Ebene der Vereinten Nationen die Möglichkeit eines Staatenbeschwerdeverfahrens eröffnen, kam dieser Verfahrensart über Jahrzehnte hinweg keinerlei praktische Bedeutung zu. Im Frühjahr 2018 erreichten den CERD-Ausschuss dann jedoch gleich drei verschiedene Staatenmitteilungen. Die erstmalige Aktivierung des Verfahrens fast 50 Jahre nach Inkrafttreten des Internationalen Übereinkommens zur Beseitigung jeder Form von Rassendiskriminierung (CERD) kann dabei als eine historische Entwicklung bezeichnet werden.
Vor diesem Hintergrund bietet dieses Buch erstmals eine umfassende Auseinandersetzung mit dem Staatenbeschwerdeverfahren nach Art. 11-13 CERD und den sich daraus ergebenden völkerrechtlichen Fragen. Unter Auswertung der jüngsten Praxis des CERD-Ausschusses und der ad hoc Vergleichskommission wird die Funktionsweise des Verfahrens detailliert dargestellt, wobei immer wieder Parallelen zu den Mechanismen anderer Vertragsregime gezogen werden. Auf diese Weise soll die Arbeit auch zu dem Verständnis vergleichbarer Staatenbeschwerdeverfahren anderer Menschenrechtsverträge beitragen und zugleich die Bedeutung des Phänomens zwischenstaatlicher Streitbeilegung in Menschenrechtsfragen stärker in den Vordergrund rücken.
BCH Codes mit kombinierter Korrektur und Erkennung In dieser Arbeit wird auf Grundlage des BCH Codes untersucht, wie eine Fehlerkorrektur mit einer Erkennung höherer Fehleranzahlen kombiniert werden kann. Mit dem Verfahren der 1-Bit Korrektur mit zusätzlicher Erkennung höherer Fehler wurde ein Ansatz entwickelt, welcher die Erkennung zusätzlicher Fehler durch das parallele Lösen einfacher Gleichungen der Form s_x = s_1^x durchführt. Die Anzahl dieser Gleichungen ist linear zu der Anzahl der zu überprüfenden höheren Fehler.
In dieser Arbeit wurde zusätzlich für bis zu 4-Bit Korrekturen mit zusätzlicher Erkennung höherer Fehler ein weiterer allgemeiner Ansatz vorgestellt. Dabei werden parallel für alle korrigierbaren Fehleranzahlen spekulative Fehlerkorrekturen durchgeführt. Aus den bestimmten Fehlerstellen werden spekulative Syndromkomponenten erzeugt, durch welche die Fehlerstellen bestätigt und höhere erkennbare Fehleranzahlen ausgeschlossen werden können. Die vorgestellten Ansätze unterscheiden sich von dem in entwickelten Ansatz, bei welchem die Anzahl der Fehlerstellen durch die Berechnung von Determinanten in absteigender Reihenfolge berechnet wird, bis die erste Determinante 0 bildet. Bei dem bekannten Verfahren ist durch die Berechnung der Determinanten eine faktorielle Anzahl an Berechnungen in Relation zu der Anzahl zu überprüfender Fehler durchzuführen. Im Vergleich zu dem bekannten sequentiellen Verfahrens nach Berlekamp Massey besitzen die Berechnungen im vorgestellten Ansatz simple Gleichungen und können parallel durchgeführt werden.Bei dem bekannten Verfahren zur parallelen Korrektur von 4-Bit Fehlern ist eine Gleichung vierten Grades im GF(2^m) zu lösen. Dies erfolgt, indem eine Hilfsgleichung dritten Grades und vier Gleichungen zweiten Grades parallel gelöst werden. In der vorliegenden Arbeit wurde gezeigt, dass sich eine Gleichung zweiten Grades einsparen lässt, wodurch sich eine Vereinfachung der Hardware bei einer parallelen Realisierung der 4-Bit Korrektur ergibt. Die erzielten Ergebnisse wurden durch umfangreiche Simulationen in Software und Hardwareimplementierungen überprüft.
Dielektrophorese ist die Manipulation polarisierbarer Partikel durch inhomogene elektrische Wechselfelder. In dieser Arbeit wurden drei verschiedene Enzyme durch Dielektrophorese immobilisiert und anschließend hinsichtlich ihrer katalytischen Aktivität untersucht: Meerrettichperoxidase, Cholinoxidase aus Alcaligenes sp. und Glucoseoxidase aus Aspergillus niger. Die Immobilisierung erfolgte durch Dielektrophorese auf nano-Elektrodenarrays aus Wolfram-Zylindern mit 500 nm Durchmesser oder aus Titannitrid-Ringen mit 20 nm Breite. Die Immobilisierung der Enzyme konnte fluoreszenzmikroskopisch entweder anhand der intrinsischen Fluoreszenz oder aufgrund einer Fluoreszenzmarkierung vor oder nach der Immobilisierung für alle getesteten Enzyme nachgewiesen werden. Die Messung der Enzymaktivität erfolgte quantitativ durch den direkten oder indirekten Nachweis des gebildeten Produktes oder, im Falle der Cholinoxidase, durch Beobachtung der intrinsischen Fluoreszenz des Cofaktors FAD, die vom Oxidationszustand dieses Enzyms abhängt. Für die Meerrettichperoxidase konnte so eine hohe erhaltene Enzymaktivität nach der Immobilisierung nachgewiesen werden. Die Aktivität der permanent immobilisierten Fraktion der Meerrettichperoxidase entsprach bis zu 47 % der höchstmöglichen Aktivität einer Monolage dieses Enzyms auf den Elektroden des Chips. Diese Aktivität kann als aktive, aber zufällig gegenüber der Oberfläche ausgerichtete Enzymschicht interpretiert werden. Für die permanent immobilisierte Glucoseoxidase wurde nur eine Aktivität entsprechend <1,3 % der Aktivität einer solchen Enzymschicht detektiert, während für die immobilisierte Cholinoxidase gar keine Aktivität nachgewiesen werden konnte. Die Aktivität der durch DEP immobilisierten Enzyme konnte somit quantitativ bestimmt werden. Der Anteil an erhaltener Aktivität hängt dabei stark vom verwendeten Enzym ab.
Rechtschreibkompetenz ist eine wesentliche Voraussetzung, um eigenständig Texte verfassen zu können und somit am gesellschaftlichen Leben teilhaben zu können. Die vorliegende Arbeit nimmt daher die Rechtschreibkompetenz von Kindern der Grundschule genauer in den Blick. Mit Hilfe von drei empirischen Untersuchungen wird die Entwicklung der Rechtschreibkompetenz vor allem dahingehend betrachtet, inwiefern sich diese entlang von theoretischen Kompetenzmodellen entwickelt und welche Merkmale diese Entwicklung unterstützen können. Als Datengrundlage dient hierfür das Pilotprojekt inklusive Grundschule, in dem die Rechtschreibkompetenz von 697 Schülerinnen und Schülern zu insgesamt drei Messzeitpunkten (vom Beginn der zweiten Jahrgangsstufe bis zum Ende der dritten Jahrgangsstufe) untersucht wurde.
Mithilfe von latenten Transitionsanalysen konnte gezeigt werden, dass sich hinsichtlich des Ablaufs der Rechtschreibkompetenzniveaus nur sehr wenige Einzelfälle von den theoretischen Modellen unterscheiden. Anschließend zeigte sich durch multinomiale logistische Regressionen, dass Wechsel zwischen Kompetenzniveaus vor allem mit dem Arbeitsverhalten zusammenhingen, wohingegen hinsichtlich der Merkmale der Unterrichtsqualität nicht die erwarteten Zusammenhänge gezeigt werden konnten. Mögliche Ursachen und Implikationen werden in der Arbeit diskutiert.
Die finanzgeschichtlichen Untersuchungen sind überwiegend auf Geld konzentriert, Naturalien wurden vernachlässigt oder ausgeblendet. Die vorliegende Arbeit bezieht die Naturalien konsequent mit ein. Nur so ist eine Analyse der Domänenwirtschaft in ihrer Bedeutung für die Staatsfinanzen möglich. Der Erkenntnisfortschritt liegt in der konsequenten Berücksichtigung der Naturalien durch Umrechnung in Geldwerte. Nicht zu leisten ist der Anteil der domänenwirtschaftlichen Erträge am Gesamthaushalt des hessischen Territorialstaates, auch ist die Vermarktung der Überschüsse der Ämter quellenbedingt nicht zu ermitteln. Die Ämterfinanzen zeigen einen Rahmen für domänenwirtschaftliche Staatsfinanzierung auf, dass bei Verzicht auf militärische Aktionen der frühmoderne Territorialstaat domänenwirtschaftlich zu finanzieren war.
Die vorliegende Untersuchung kann aufzeigen, dass der domänenwirtschaftliche Rahmen für die Finanzierung eines Territorialstaates ausreichte, wenn er auf militärische Aktivitäten und Abenteuer verzichtete. In dieser Studie werden erstmalig umfassende statistische Erhebungen der unteren staatlichen Ebene, das Landbuch und das Ämterbuch ausgewertet, die bisher nur von Kersten Krüger ediert waren. Die vorliegende Arbeit ist in die Staatsfinanzierung auf der Stufe der Domänenwirtschaft einzuordnen. Landgraf Wilhelm IV. von Hessen-Kassel war einer der letzten, der es geschafft hatte, seinen Staat domänenwirtschaftlich mit den Einnahmen aus den Naturalien zu finanzieren. Als Domänenstaat wird ein Staat bezeichnet, der auf den ordentlichen Einkünften aus Liegenschaften und Landbesitz beruht. Es wird in dieser Arbeit der domänenwirtschaftliche Rahmen für die Staatsfinanzen berechnet. Das bedeutet, dass die Zentralfinanzen nicht berücksichtigt sind.
Es konnte gezeigt werden, dass, obwohl Landgraf Wilhelm IV. über ein kleineres Territorium als sein Vater, Landgraf Philipp der Großmütige, verfügte, die Gesamtüberschüsse höher waren. Das war seiner klugen Politik zu verdanken und seinen Bemühungen, ständig die Ämterfinanzen zu verbessern. Wilhelm IV. konsolidierte seinen Staat und konnte über domänenwirtschaftliche Einnahmen aus den Ämtern seinen Staat finanzieren. Das gelang ihm, da er erstens seinen Staat ordentlich verwaltete und zweitens keine Kriege führte. Landgraf Wilhelm IV. verabscheute den Krieg. Er sagte über den Krieg: „es ist kain abscheulicher ding auf erden als ein krieg“.
Mit dem Alter kann eine Zunahme leichtgradiger Entzündungsprozesse beobachtet werden, von denen angenommen wird, dass sie den typischen, altersbedingten Verlust an Muskelmasse, -kraft und -funktion „befeuern“. Diese als Inflammaging bezeichneten Prozesse können auf ein komplexes Zusammenspiel aus einem dysfunktionalen (viszeralen) Fettgewebe, einer Dysbiose und damit einhergehender mikrobiellen Translokation und geringeren Abwehrfähigkeit sowie einer insgesamt zunehmenden Immunseneszenz zurückgeführt werden. In Summa begünstigt ein pro-inflammatorisches Milieu metabolische Störungen und chronische, altersassoziierte Erkrankungen, die das Entzündungsgeschehen aufrechterhalten oder vorantreiben. Neben einem essenziellen Bewegungsmangel trägt auch eine westlich geprägte, industrialisierte Ernährungsweise zum Entzündungsgeschehen und zur Entwicklung chronischer Erkrankungen bei. Daher liegt die Vermutung nahe, dem Entzündungsgeschehen mit ausreichend Bewegung und einer anti-inflammatorischen Ernährung entgegenzuwirken. In dieser Hinsicht werden insbesondere Omega-3-Fettsäuren (Omega-3) mit anti-inflammatorischen Eigenschaften verbunden. Obwohl ein Zusammenhang zwischen dem ernährungsbedingten Inflammationspotenzial bzw. der Zufuhr von Omega-3 und dem Inflammationsprofil bereits untersucht wurde, fehlen bislang Untersuchungen insbesondere bei älteren Erwachsenen, die den Link zwischen dem Inflammationspotenzial der Ernährung und Sarkopenie-relevanten Muskelparametern herstellen.
Aufgrund des Proteinmehrbedarfs zum Erhalt der funktionellen Muskulatur im Alter wurde bereits eine Vielzahl an Sport- und Ernährungsinterventionen durchgeführt, die eine Verbesserung des Muskelstatus mit Hilfe von strukturiertem Krafttraining und einer proteinreichen Ernährung zeigen. Es gibt zudem Hinweise, dass Omega-3 auch die Proteinsynthese verstärken könnten. Unklar ist jedoch, inwiefern eine anti-inflammatorische Ernährung mit Fokus auf Omega-3 sowohl die Entzündungsprozesse als auch den Muskelproteinmetabolismus und die neuromuskuläre Funktionalität im Alter günstig unterstützen kann. Dies vor allem im Hinblick auf die Muskelleistung, die eng mit der Sturzneigung und der Autonomie im Alltag verknüpft ist, aber in Interventionsstudien mit älteren Erwachsenen bisher wenig Berücksichtigung erhielt. Darüber hinaus werden häufig progressive Trainingselemente genutzt, die nach Studienabschluss oftmals wenig Anschluss im Lebensalltag der Betroffenen finden und somit wenig nachhaltig sind. Ziel dieser Arbeit war demnach die Evaluierung einer proteinreichen und zusätzlich mit Omega-3 supplementierten Ernährung in Kombination mit einem wöchentlichen Vibrationstraining und altersgemäßen Bewegungsprogramm auf Inflammation und neuromuskuläre Funktion bei älteren, selbständig lebenden Erwachsenen.
Hierzu wurden zunächst mögliche Zusammenhänge zwischen dem ernährungsbedingten Inflammationspotenzial, ermittelt anhand des Dietary Inflammatory Index, und dem Muskelstatus sowie dem Inflammationsprofil im Alter eruiert. Dazu dienten die Ausgangswerte von älteren, selbständig lebenden Erwachsenen einer postprandialen Interventionsstudie (POST-Studie), die im Querschnitt analysiert wurden. Die Ergebnisse bestätigten, dass eine pro-inflammatorische Ernährung sich einerseits in einem stärkeren Entzündungsgeschehen widerspiegelt und andererseits mit Sarkopenie-relevanten Parametern, wie einer geringeren Muskelmasse und Gehgeschwindigkeit, ungünstig assoziiert ist. Darüber hinaus zeigten sich diese Zusammenhänge auch in Bezug auf die Handgreifkraft bei den inaktiven, älteren Erwachsenen der Studie.
Anschließend wurde in einer explorativ ausgerichteten Pilot-Interventionsstudie (AIDA-Studie) in einem dreiarmigen Design untersucht, inwieweit sich eine Supplementierung mit Omega-3 unter Voraussetzung einer optimierten Proteinzufuhr und altersgemäßen Sportintervention mit Vibrationstraining auf die neuromuskuläre Funktion und Inflammation bei selbständig lebenden, älteren Erwachsenen auswirkt. Nach acht Wochen Intervention zeigte sich, dass eine mit Omega-3 supplementierte, proteinreiche Ernährung die Muskelleistung insbesondere bei den älteren Männern steigerte. Während sich die Kontrollgruppe nach acht Wochen Sportintervention nicht verbesserte, bestätigte sich zusätzlich eine Verbesserung der Beinkraft und der Testzeit beim Stuhl-Aufsteh-Test der älteren Erwachsenen mit einer proteinreichen Ernährung in Kombination mit der Sportintervention.
Darüber hinaus wurde deutlich, dass die zusätzliche Omega-3-Supplementierung insbesondere bei den Männern eine Reduktion der pro-inflammatorischen Zytokine im Serum zur Folge hatte. Allerdings spiegelten sich diese Beobachtungen nicht auf Genexpressionsebene in mononukleären Immunzellen oder in der LPS-induzierten Sekretion der Zytokine und Chemokine in Vollblutzellkulturen wider. Dies erfordert weitere Untersuchungen.
Kaum eine Studie zum Deutschen Kaiserreich kommt ohne einen Verweis auf die »Preußischen Jahrbücher« als einflussreicher Stimme der Zeit aus, deren Herausgeber Hans Delbrück keine Kontroverse scheute. Jonas Kleins systematische Beziehungsgeschichte untersucht, woher das Vertrauen resultierte, das Hans Delbrück als politischer Intellektueller parteiübergreifend genoss. Indem die wichtigsten innen- und außenpolitischen Krisenherde des Kaiserreichs in den Blick genommen werden, kristallisieren sich die politischen Grundlinien heraus, auf die Delbrück die »Preußischen Jahrbücher« verpflichtete: für einen starken Staat, kulturellen Liberalismus, progressive Sozialpolitik und nationale Integration. Sein unermüdlicher, keineswegs solitärer Kampf für einen »aufgeklärten Konservatismus« zeugt von alternativen Entwicklungsoptionen des Hohenzollernstaates.
Reflexion und Reflexivität
(2023)
Reflexion gilt in der Lehrkräftebildung als eine Schlüsselkategorie der professionellen Entwicklung. Entsprechend wird auf vielfältige Weise die Qualität reflexionsbezogener Kompetenzen untersucht. Eine Herausforderung hierbei kann in der Annahme bestehen, von der Analyse schriftlicher Reflexionen unmittelbar auf die Reflexivität einer Person zu schließen, da Reflexion stets kontextspezifisch als Abbild reflexionsbezogener Argumentationsprozesse angesehen werden sollte und reflexionsbezogenen Dispositionen unterliegt. Auch kann die Qualität einer Reflexion auf mehreren Dimensionen bewertet werden, ohne quantifizierbare, absolute Aussagen treffen zu können.
Daher wurden im Rahmen einer Physik-Videovignette N = 134 schriftliche Fremdreflexionen verfasst und kontextspezifische reflexionsbezogene Dispositionen erhoben. Expert*innen erstellten theoriegeleitet Qualitätsbewertungen zur Breite, Tiefe, Kohärenz und Spezifität eines jeden Reflexionstextes. Unter Verwendung computerbasierter Klassifikations- und Analyseverfahren wurden weitere Textmerkmale erhoben. Mittels explorativer Faktorenanalyse konnten die Faktoren Qualität, Quantität und Deskriptivität gefunden werden. Da alle konventionell eingeschätzten Qualitätsbewertungen durch einen Faktor repräsentiert wurden, konnte ein maximales Qualitätskorrelat kalkuliert werden, zu welchem jede schriftliche Fremdreflexion im Rahmen der vorliegenden Vignette eine computerbasiert bestimmbare Distanz aufweist. Diese Distanz zum maximalen Qualitätskorrelat konnte validiert werden und kann die Qualität der schriftlichen Reflexionen unabhängig von menschlichen Ressourcen quantifiziert repräsentieren. Abschließend konnte identifiziert werden, dass ausgewählte Dispositionen in unterschiedlichem Maße mit der Reflexionsqualität zusammenhängen. So konnten beispielsweise bezogen auf das Physik-Fachwissen minimale Zusammenhänge identifiziert werden, wohingegen Werthaltung sowie wahrgenommene Unterrichtsqualität eng mit der Qualität einer schriftlichen Reflexion in Verbindung stehen können.
Es wird geschlussfolgert, dass reflexionsbezogene Dispositionen moderierenden Einfluss auf Reflexionen nehmen können. Es wird empfohlen bei der Erhebung von Reflexion mit dem Ziel der Kompetenzmessung ausgewählte Dispositionen mit zu erheben. Weiter verdeutlicht diese Arbeit die Möglichkeit, aussagekräftige Quantifizierungen auch in der Analyse komplexer Konstrukte vorzunehmen. Durch computerbasierte Qualitätsabschätzungen können objektive und individuelle Analysen und differenzierteres automatisiertes Feedback ermöglicht werden.
Hegels Phantasie
(2023)
Als »Zwischenreich«, »Drittes« oder »Mitte« bezeichnet, kommt der Imagination seit ihren Anfängen in der Antike die Rolle eines Mediums zu. Gleichzeitig bleibt ihr medialer Aspekt durchgehend ambivalent und prekär. Es ist Georg Wilhelm Friedrich Hegel, der die Imagination nicht mehr als subjektives Vermögen versteht, sondern als Kraft der »Entäußerung« und sie somit medial denkt. In einer bislang wenig beachteten Passage aus Hegels dritter Enzyklopädie von 1830 legt Ekaterina Vassilevski nicht nur die implizite Medialität der Imagination frei, sondern auch den in Hegels Denken verborgenen Begriff des Medialen.
In dieser Dissertation konnten erfolgreich mechanisch stabile Hydrogele über eine freie radikalische Polymerisation (FRP) in Wasser synthetisiert werden. Dabei diente vor allem das Sulfobetain SPE als Monomer. Dieses wurde mit dem über eine nukleophile Substitution erster bzw. zweiter Ordnung hergestellten Vernetzer TMBEMPA/Br umgesetzt.
Die entstandenen Netzwerke wurden im Gleichgewichtsquellzustand im Wesentlichen mittels Niederfeld-Kernresonanzspektroskopie, Röntgenkleinwinkelstreuung (SAXS), Rasterelektronenmikroskopie mit Tieftemperaturtechnik (Kryo-REM), dynamisch-mechanische Analyse (DMA), Rheologie, thermogravimetrische Analyse (TGA) und dynamische Differenzkalorimetrie (DSC) analysiert.
Das hierarchisch aufgebaute Netzwerk wurde anschließend für die matrixgesteuerten Mineralisation von Calciumphosphat und –carbonat genutzt. Über das alternierende Eintauchverfahren (engl. „alternate soaking method“) und der Variation von Mineralisationsparametern, wie pH-Wert, Konzentration c und Temperatur T konnten dann verschiedene Modifikationen des Calciumphosphats generiert werden. Das entstandene Hybridmaterial wurde qualitativ mittels Röntgenpulverdiffraktometrie (XRD), abgeschwächte Totalreflexion–fouriertransformierte Infrarot Spektroskopie (ATR-FTIR), Raman-Spektroskopie, Rasterelektronenmikroskopie (REM) mit energiedispersiver Röntgenspektroskopie (EDXS) und optischer Mikroskopie (OM) als auch quantitative mittels Gravimetrie und TGA analysiert.
Für die potentielle Verwendung in der Medizintechnik, z.B. als Implantatmaterial, ist die grundlegende Einschätzung der Wechselwirkung zwischen Hydrogel bzw. Hybridmaterial und verschiedener Zelltypen unerlässlich. Dazu wurden verschiedene Zelltypen, wie Einzeller, Bakterien und adulte Stammzellen verwendet. Die Wechselwirkung mit Peptidsequenzen von Phagen komplettiert das biologische Unterkapitel.
Hydrogele sind mannigfaltig einsetzbar. Diese Arbeit fasst daher weitere Projektperspektiven, auch außerhalb des biomedizinischem Anwendungsspektrums, auf. So konnten erste Ansätze zur serienmäßige bzw. maßgeschneiderte Produktion über das „Inkjet“ Verfahren erreicht werden. Um dies ermöglichen zu können wurden erfolgreich weitere Synthesestrategien, wie die Photopolymerisation und die redoxinitiierte Polymerisation, ausgenutzt. Auch die Eignung als Filtermaterial oder Superabsorber wurde analysiert.
Deutsche Blauhelme in Afrika
(2023)
Warum trat die Bundesregierung ab Ende der 1980er Jahre weltweit als sicherheitspolitischer Akteur in Erscheinung? Warum engagierte sie sich in multinationalen Missionen der Vereinten Nationen etwa in Somalia, Namibia und Ruanda mit Soldaten oder Polizisten - und in anderen Missionen in Afrika im gleichen Zeitraum nicht? Gestützt auf ministerielle Archivquellen untersucht Torsten Konopka die Prozesse der nationalen Entscheidungsfindung, die zu einer Beteiligung oder Nichtbeteiligung an VN-Missionen in Afrika führten. Das Buch leistet einen politik- sowie militärgeschichtlichen Beitrag zur Genese der frühen Auslandsverwendungen der Bundeswehr.
Fördern und Zensieren
(2023)
»European Environmental Law and its Influence on Grandfathering – a Limiting Factor?«: How to deal with conflicts that arise between legally permitted activities and nature despite prior comprehensive environmental assessments? The author examines this question regarding EU species, habitat protection and environmental damage law. The material EU environmental law requirements for the use of permits are outlined, as well as the administrative instruments for their enforcement. A differentiation is made between permits under the Federal Immission Control Act and plan approvals.
Was bewegt Menschen dazu, freiwillig in einem Krieg zu kämpfen, obwohl ihr Heimatland nicht involviert ist? Warum riskieren sie in Konflikten weltweit ihr Leben für eine fremde Sache? Bedeutet das Fehlen institutioneller Strukturen, die den Akteuren klare Regeln und Verhaltensweisen vorgeben würden, immer eine Eskalation von Gewalt? Diese Studie hilft, das Phänomen freiwilliger Kombattanten zu verstehen. Am Fallbeispiel internationaler Kriegsfreiwilliger, die in den Jugoslawienkriegen der 1990er Jahre auf Seiten Kroatiens kämpften, macht Julia Ludwig zudem den Mehrwert einer Analyse kultureller Faktoren in der Gewaltforschung deutlich.
Zielsetzung und leitendes Erkenntnisinteresse Als Arbeitsgrundlage soll folgende Definition der Bühnengesellschaft als Ausgangspunkt dienen: Die Bühnengesellschaft wird durch die Gesamtzahl der handelnden Personen einer Posse gebildet, die in einem sozialen, psychologischen und mentalen Beziehungsverhältnis zueinanderstehen. Ihr Umfang ist sowohl von gattungsspezifischen als auch von theaterpraktischen Faktoren abhängig. Die Bühnengesellschaft bildet die Schnittstelle zwischen der fiktionalen Welt der Posse und der Lebenswirklichkeit der Zuschauer. Sie verbindet Spielwelt und Wirklichkeit. Durch diese Brückenfunktion werden beide Elemente aufeinander bezogen. Der so umrissene Blick muss bei der Analyse der Bühnengesellschaft von Nestroys Possen folgende unterschiedlich gewichtete und akzentuierte Schwerpunkte enthalten: 1. Figurenkonzeption Die Konzeption der Figuren der Nestroyschen Bühnengesellschaften wird sowohl im Kontext der historischen Wirklichkeit und den herrschenden kulturellen Konzepten als auch in Bezug zur Gattungstradition analysiert unter der erkenntnisleitenden Fragestellung, wie Zeitwirklichkeit („das konfliktreiche Welttheater“) erfahrbar wird. Der Analyse der „komischen Zentralfigur“ kommt in diesem Zusammenhang eine besondere Bedeutung zu. 2. Bühnengesellschaftliche Beziehungen Eine Analyse der Figurenkonstellation, des Verhältnisses von Haupt- und Nebenfiguren sowie der Bildung von Gruppierungen erhellt ihre dramaturgische Funktion im Kontext der satirischen Intention. 3. Bühnengesellschaft und Theater Der theaterwissenschaftliche Aspekt wird dadurch akzentuiert, dass Theaterorganisation, Bühne und die männlich-weibliche Zusammensetzung des Ensembles in den Blick genommen werden, um die Abhängigkeit des Umfangs und der Zusammensetzung der Bühnengesellschaft von den realen Gegebenheiten des Volkstheaterbetriebs aufzuzeigen. Auf der Grundlage der genannten Schwerpunkte wird für die Untersuchung folgendes leitendes Erkenntnisinteresse formuliert: Die Bühnengesellschaft besitzt eine Schnittstellenfunktion zwischen der fiktionalen Spielwelt der Posse und der Lebenswirklichkeit der Zuschauerschaft. Durch die Analyse der personellen und strukturellen Gestaltung der Bühnengesellschaft wird ihre Brückenfunktion für die ‚Wirksamkeit‘ der satirischen und parodistischen Intention erhellt.
In Forschungsprogrammen werden zahlreiche Akteure mit unterschiedlichen Hintergründen und fachlichen Expertisen in Einzel- oder Verbundvorhaben vereint, die jedoch weitestgehend unabhängig voneinander durchgeführt werden. Vor dem Hintergrund, dass gesamtgesellschaftliche Herausforderungen wie die globale Erwärmung zunehmend disziplinübergreifende Lösungsansätze erfordern, sollten Vernetzungs- und Transferprozesse in Forschungsprogrammen stärker in den Fokus rücken. Mit der Implementierung einer Begleitforschung kann dieser Forderung Rechnung getragen werden. Begleitforschung unterscheidet sich in ihrer Herangehensweise und ihrer Zielvorstellung von den „üblichen“ Projekten und kann in unterschiedlichen theoretischen Reinformen auftreten. Verkürzt dargestellt agiert sie entweder (1) inhaltlich komplementär zu den jeweiligen Forschungsprojekten, (2) auf einer Metaebene mit Fokus auf die Prozesse im Forschungsprogramm oder (3) als integrierende, synthetisierende Instanz, für die die Vernetzung der Projekte im Forschungsprogramm sowie der Wissenstransfer von Bedeutung sind. Zwar sind diese Formen analytisch in theoretische Reinformen trennbar, in der Praxis ergibt sich in der Regel jedoch ein Mix aus allen dreien.
In diesem Zusammenhang schließt die vorliegende Dissertation als ergänzende Studie an bisherige Ansätze zum methodischen Handwerkszeug der Begleitforschung an und fokussiert auf folgende Fragestellungen: Auf welcher Basis kann die Vernetzung der Akteure in einem Forschungsprogramm durchgeführt werden, um diese effektiv zusammenzubringen? Welche weiteren methodischen Elemente sollten daran ansetzen, um einen Mehrwert zu generieren, der die Summe der Einzelergebnisse des Forschungsprogrammes übersteigt? Von welcher Art kann dann ein solcher Mehrwert sein und welche Rolle spielt dabei die Begleitforschung?
Das erste methodische Element bildet die Erhebung und Aufbereitung einer Ausgangsdatenbasis. Durch eine auf semantischer Analyse basierenden Verschlagwortung projektbezogener Texte lässt sich eine umfassende Datenbasis aus den Inhalten der Forschungsprojekte generieren. Die Schlagwörter werden dabei anhand eines kontrollierten Vokabulars in einem Schlagwortkatalog strukturiert. Parallel dazu werden sie wiederum den jeweiligen Projekten zugeordnet, wodurch diese thematische Merkmale erhalten. Um thematische Überschneidungen zwischen Forschungsprojekten sichtbar und interpretierbar zu machen, beinhaltet das zweite Element Ansätze zur Visualisierung. Dazu werden die Informationen in einen Netzwerkgraphen transferiert, der sowohl alle im Forschungsprogramm involvierten Projekte als auch die identifizierten Schlagwörter in Relation zueinander abbilden kann. So kann zum Beispiel sichtbar gemacht werden, welche Forschungsprojekte sich auf Basis ihrer Inhalte „näher“ sind als andere. Genau diese Information wird im dritten methodischen Element als Planungsgrundlage für unterschiedliche Veranstaltungsformate wie Arbeitstagungen oder Transferwerkstätten genutzt. Das vierte methodische Element umfasst die Synthesebildung. Diese gestaltet sich als Prozess über den gesamten Zeitraum der Zusammenarbeit zwischen Begleitforschung und den weiteren Forschungsprojekten hinweg, da in die Synthese unter anderem Zwischen-, Teil- und Endergebnisse der Projekte einfließen, genauso wie Inhalte aus den unterschiedlichen Veranstaltungen. Letztendlich ist dieses vierte Element auch das Mittel, um aus den integrierten und synthetisierten Informationen Handlungsempfehlungen für zukünftige Vorhaben abzuleiten.
Die Erarbeitung der methodischen Elemente erfolgte im laufenden Prozess des Begleitforschungsprojektes KlimAgrar, welches der vorliegenden Dissertation als Fallbeispiel dient und dessen Hintergründe in der Thematik Klimaschutz und Klimaanpassung in der Landwirtschaft im Text ausführlich erläutert werden.
Vereine als Gefahr
(2023)
Die von kriminellen oder extremistischen Gruppen ausgehende Gefahr erhöht sich entsprechend ihres Organisationsgrades. Eine Zustandsanalyse des Vereinsrechts zeigt, dass Vereins- und Kennzeichenverbote wirkmächtige präemptive Maßnahmen gegen neue dezentrale oder mehrstufige Vereinigungen bleiben. Bei ihrer Weiterentwicklung lenkt Sandra Lukosek den Blick auf die Auslegung und wechselseitige Zurechnung verbotsrelevanten Verhaltens einzelner Mitglieder zum Verein und der Erstreckung auf gleichrangige Schwestervereine. Anhand des Waffenrechts arbeitet sie umgekehrt die Vereinszugehörigkeit als taugliches Wesensmerkmal der Mitglieder heraus. Sie betrachtet verschiedene Vereinstypen mit zu differenzierenden vereinigungsfreiheitlichen Schutzbereichen. Ein Verbot religiöser islamistisch-extremistischer Vereine unterscheidet sich vom Verbot eines Rocker- oder Reichsbürgervereins. Die Autorin lässt sich auf sicherheitsbehördliche Herausforderungen ein und findet praktikable Reformansätze zur Fortentwicklung des Vereinsrechts.
Reiz der Revolution
(2023)
Die Dissertation untersucht die vielseitigen Verflechtungen und Transfers im Rahmen der deutschen Nicaraguasolidarität der späten 1970er und der 1980er Jahre. Bereits im Vorfeld ihres Machtantritts hatten die Sandinistas in beiden Lagern um ausländische staatliche und zivile Unterstützung geworben. Nun gestalteten sie mit dem sandinistischen Reformstaat zugleich ein internationales Netz an Solidaritätsbeziehungen aus, die zur Finanzierung ihrer sozialreformerischen Programme, aber auch zur Legitimation ihrer Herrschaft dienten.
Allein in der Bundesrepublik entstanden mehrere hundert Solidaritätsgruppen. In der DDR löste die politische Führung eine staatlich gelenkte Solidarisierung mit Nicaragua aus, der sich zehntausende Menschen und unabhängige Basisinitiativen anschlossen. Trotz ihrer Verwurzelung in rivalisierenden Systemen und der Heterogenität ihrer Weltbilder – von christlicher Soziallehre bis zur kritischen Linken – arbeiteten etliche Solidaritätsinitiativen in beiden Ländern am selben Zielobjekt: einem Nicaragua jenseits der Blöcke. Gemeinsam mit ihren nicaraguanischen Projektpartner_innen eröffneten sie auf transnationaler Ebene einen neuen Raum für Kommunikation und stießen dabei auf Differenzen und Auseinandersetzungen über politische Ideen, die beiderseits des Atlantiks neue Praktiken anregten.
Die Forschungsarbeit basiert auf einer umfangreichen Quellenauswertung in insgesamt 13 Archiven, darunter das Archiv der Robert-Havemann-Gesellschaft, das Archiv der BStU, verschiedene westdeutsche Bewegungsarchive und die archivalischen Nachlässe des nicaraguanischen Kulturministeriums.
Im Rahmen dieser Arbeit wurden Energie induzierte Nanopartikel-Substrat Interaktionen untersucht. Dazu wurden Goldnanopartikelanordnungen (AuNPA) auf verschiedenen Silizium-basierten Substraten hergestellt und der Einfluss eines Energieeintrages, genauer gesagt einer thermischen Behandlung oder des Metall-assistierten chemischen Ätzens (MaCE) getestet. Die Nanopartikelanordnungen, welche für die thermische Behandlung eingesetzt wurden, wurden nass-chemisch in Toluol synthetisiert, mit Thiol-terminiertem Polystyrol funktionalisiert und mittels Schleuderbeschichtung auf verschiedenen Substraten (drei Gläser und ein Siliziumwafer) in quasi-hexagonalen Mustern angeordnet. Diese AuNP-Anordnungen wurden mit Temperaturen zwischen 475 °C – 792 °C über verschiedene Zeiträume thermisch behandelt. Generell sanken die Nanopartikel in die Substrate ein, und es wurde festgestellt, dass mit Erhöhung der Glasübergangstemperatur der Substrate die Einsinktiefe der Nanopartikel abnahm. Die AuNPA auf Siliziumwafern wurden auf Temperaturen von 700 °C – 900 °C erhitzt. Die Goldnanopartikel sanken dabei bis zu 2,5 nm in das Si-Substrat ein. Ein Sintern der Nanopartikel fand ab einer Temperatur über 660 °C statt. Welcher Sintermechanismus der dominante ist konnte abschließend nicht eindeutig geklärt werden.
Für die Untersuchung des Einflusses des zweiten Energieeintrages mittels MaCE wurden AuNPA sowie Goldkern-Silberschale-Anordnungen auf Siliziumsubstraten genutzt. Die AuNPA wurden mit Hilfe von Poly-N-Isopropylacrylamid Mikrogelen und Natriumcitrat-stabilisierten Goldnanopartikeln (Na-AuNP) bzw. Tetrachloridogoldsäure (TCG) präpariert. Es ergaben sich Nanopartikelanordnungen mit hemisphärischen Partikeln (aus Na-AuNP) und zum anderen Nanopartikelanordnungen mit sphärischen Partikeln (aus TCG). Durch eine anschließende Silberwachstumsreaktion konnten dann die dazugehörigen Goldkern-Silberschale Nanopartikelanordnungen erhalten werden. Beim MaCE konnten signifikante Unterschiede im Verhalten dieser vier Nanopartikelanordnungen festgestellt werden, z.B. mussten bei den hemisphärischen Partikelanordnungen höhere Wasserstoffperoxidkonzentrationen (0,70 M – 0,91 M) als bei den sphärischen Partikelanordnungen (0,08 M – 0,32 M) für das Ätzen eingesetzt werden, um ein Einsinken der Nanopartikel in das Substrat zu erreichen.
Als eine der großen Veteranenorganisationen und rechte Sammlungsbewegung war der "Stahlhelm – Bund der Frontsoldaten" ein bedeutender politischer Akteur der Weimarer Republik. Er stand in einem äußerst ambivalenten Verhältnis zum aufstrebenden Nationalsozialismus. Einerseits konkurrierten sie um die Vorherrschaft innerhalb des nationalen Lagers, andererseits erkannten beide Seiten den Nutzen einer Kooperation. Insbesondere den einfachen Stahlhelm-Mitgliedern erschien die NS-Bewegung als attraktive Alternative, die ihre Ziele zu erreichen schien. Die Konkurrenz steigerte sich 1931/32 zur erbitterten Feindschaft. Nach der Eingliederung eines Großteils der Bundesmitglieder in die SA im Jahr 1933 sah sich der Rest-Bund immer heftigeren Repressalien ausgesetzt, bevor er 1935 aufgelöst wurde. 1951 neu gegründet, konnte er nicht an seine früheren Erfolge anknüpfen. Mehrere Spaltungen beschleunigten den Niedergang der Organisation.
In der Schule sollen alle Kinder und Jugendliche die Kompetenzen erwerben, die sie benötigen, um selbstbestimmt am gesellschaftlichen Leben teilhaben zu können. Dabei ist es notwendig im Unterricht auf die individuellen Lernvoraussetzungen der Schüler:innen zu reagieren, damit sie optimal beim Lernen unterstützt werden können. Häufig wird in diesem Zusammenhang vom „individualisierten Unterricht“ gesprochen, der sich dadurch auszeichnen, dass das Lernangebot bestmöglich an die einzelnen Schüler:innen angepasst wird. Eine Individualisierung des Unterrichts kann jedoch bedeuten, dass die Schüler:innen nur noch an ihren eigenen Aufgaben arbeiten, ohne sich miteinander auszutauschen. Von einigen Autor:innen wurde daher die Befürchtung geäußert, dass die Individualisierung des Unterrichts zu einer Vereinzelung im Unterricht führt und die Lerngruppe als Gemeinschaft kaum noch eine Rolle spielt.
Schule soll neben fachlichen Kompetenzen jedoch auch soziale Werte und Normen vermitteln, die zu einer gesellschaftlichen Integration beitragen und Demokratie fördern. Dabei wird als zentrale Aufgabe von Schule die Vorbereitung der Kinder und Jugendliche auf ein Zusammenleben in einer pluralen Gesellschaft gesehen. So sollen sie lernen gemeinsame Lösungen, Solidarität und Verantwortungsübernahme über Differenzen hinweg zu entwickeln. Dies kann gelingen, indem eine Gemeinschaft im Unterricht geschaffen wird, in der alle Schüler:innen sich zugehörig und wertgeschätzt fühlen, voneinander lernen und gleichzeitig gefordert werden in Aushandlungsprozesse miteinander einzutreten.
Eine individualisierte Unterrichtsgestaltung und das Erleben einer Gemeinschaft wird von manchen Autor:innen als Spannungsfeld im Unterricht beschrieben. Es gibt jedoch bisher kaum empirische Forschungsarbeiten die den Forschungsgegenstand „Gemeinschaft im individualisierten Unterricht“ genauer betrachtet haben. Die vorliegende Studie setzt hier an und geht folgenden Fragestellungen nach: 1. „Was wird von Lehrkräften unter einer Gemeinschaft im individualisierten Unterricht verstanden?“, 2. „Wie wird eine Gemeinschaft im individualisierten Unterricht von Lehrkräften gestaltet?“, 3. „Inwiefern kann Gemeinschaft im individualisierten Unterricht über das Gemeinschaftsgefühl der Schüler:innen erfasst werden?“ 4. „Lässt sich ein Zusammenhang zwischen dem Gemeinschaftsgefühl der Schüler:innen und der Individualisierung des Unterrichts feststellen?“ und 5. „Lässt sich im individualisierten Unterricht ein Zusammenhang zwischen dem Gemeinschaftsgefühl und der sozialen Eingebundenheit der Schüler:innen feststellen?“.
Den Forschungsfragen wurde anhand von drei Teilstudien nachgegangen, die in einem Mixed Methods Design parallel zueinander durchgeführt und abschließend aufeinander bezogen wurden. Alle drei Studien bezogen sich auf Datenquellen aus dem Ada*Q-Projekt („Adaptivität und Unterrichtsqualität im individualisierten Unterricht“), bei dem neun Grundschulen, die den Deutschen Schulpreis gewonnen haben, anhand verschiedener Datenerhebungen untersucht wurden. Insgesamt wurden in der vorliegenden Studie Daten von 32 Lehrkräften und 542 Schüler:innen aus 49 Lerngruppen herangezogen. Teilstudie 1 nahm die Verständnisse und die Gestaltung von Gemeinschaft (Forschungsfrage 1 und 2) anhand von Interviews mit Lehrkräften in den Blick. In Teilstudie 2 wurde eine Fragebogenskala für Schüler:innen zur Erfassung des Gemeinschaftsgefühls entwickelt (Forschungsfrage 3) und Zusammenhänge mit einer individualisierten Unterrichtsgestaltung und Unterrichtsqualität überprüft (Forschungsfrage 4). In Teilstudie 3 wurden Schüler:innen anhand der Experience-Sampling-Methode mehrfach im Unterricht zu ihrer sozialen Eingebundenheit befragt und ebenfalls Zusammenhänge mit einer individualisierten Unterrichtsgestaltung und Unterrichtsqualität sowie mit dem Gemeinschaftsgefühl überprüft (Forschungsfrage 5).
In Teilstudie 1 zeigte sich mit Blick auf die Forschungsfrage 1, dass die Lehrkräfte unterschiedliche Verständnisse von Gemeinschaft hatten, die auf unterschiedliche Aspekte von Gemeinschaft fokussierten und sich ergänzten. Dabei spielte das Spannungsfeld zwischen Individualität, Heterogenität und Gemeinschaft für alle Lehrkräfte eine Rolle. In Rahmen der Forschungsfrage 2 konnten außerdem verschiedene Handlungen und Praktiken identifiziert werden, wie Lehrkräfte eine Gemeinschaft im individualisierten Unterricht gestalteten und dabei individualisiertes mit gemeinschaftlichem Lernen produktiv miteinander verbanden. Dabei wurde eine Gemeinschaft im Unterricht von den Lehrkräften als zentral für das soziale Lernen der Schüler:innen beschrieben. So verstanden sie den gemeinsamen Unterricht in heterogenen Lerngruppen als Vorbereitung für das Leben und Arbeiten in einer pluralen Gesellschaft.
Teilstudie 2 konnte zeigen, dass die Fragebogenskala zum Gemeinschaftsgefühl der Schüler:innen gute Reliabilität und Validität aufwies und damit geeignet für weitere Untersuchungen war. Im Anschluss daran zeigten sich Zusammenhänge des Gemeinschaftsgefühls mit der Unterrichtsqualität (kognitive Aktivierung, Klassenführung und konstruktive Unterstützung). Insbesondere konstruktive Unterstützung (durch die Lehrkraft) hing stark mit dem Gemeinschaftsgefühl der Schüler:innen zusammen. Dieser Zusammenhang war geringer in besonders leistungsheterogenen Lerngruppen (hier erfasst über die Jahrgangsmischung). So war das Gemeinschaftsgefühl dort weniger abhängig von der Beziehungsqualität zur Lehrkraft. In weiteren Untersuchungen konnte außerdem kein Zusammenhang mit Merkmalen einer individualisierten Unterrichtsgestaltung gefunden werden, was die Befürchtung nicht bestärkte, dass eine Individualisierung des Unterrichts und eine Gemeinschaft im Unterricht sich gegenseitig ausschließen.
In Teilstudie 3 zeigte sich, dass die soziale Eingebundenheit der Schüler:innen von Situation zu Situation und von Schüler:in zu Schüler:in stark variierte. Die durchschnittlich empfundene soziale Eingebundenheit der Schüler:innen und auch das Ausmaß der Variation der sozialen Eingebundenheit hingen dabei eng mit dem Gemeinschaftsgefühl zusammen. Dieser Befund blieb auch unter Einbezug der Unterrichtsqualität bestehen, die keinen eigenen Einfluss auf die soziale Eingebundenheit zeigte. Außerdem ließen sich positive Zusammenhänge zwischen sozialer Eingebundenheit und Merkmalen der individualisierten Unterrichtsgestaltung finden. So fühlten sich Schüler:innen stärker sozial eingebunden, wenn die Aufgaben stärker differenziert waren und sie mehr Autonomie bei der Bearbeitung der Aufgaben hatten.
Zusammengefasst weisen die Ergebnisse der vorliegenden Studie darauf hin, dass Gemeinschaft im individualisierten Unterricht sowohl für die Lehrkräfte als auch für die Schüler:innen eine wichtige Rolle spielt. So sprechen die Lehrkräfte einer Gemeinschaft wichtige Funktionen in ihrem Unterricht zu und kümmern sich aktiv darum eine Gemeinschaft zu gestalten. Das Gemeinschaftsgefühl der Schüler:innen zeigte positive Zusammenhänge mit relevanten Aspekten der Unterrichtsqualität und mit sozialer Eingebundenheit. Die Befürchtung, dass eine Individualisierung des Unterrichts zu einer Vereinzelung der Schüler:innen führt, konnte nicht bestätigt werden. Vielmehr scheinen Individualisierung und Gemeinschaft sich gegenseitig, als zwei Komplementäre beim Umgang mit Heterogenität zu unterstützen.
Die Herausforderung, produktiv mit Heterogenität umzugehen, wird sich auch in der Zukunft an Schulen stellen. Dabei ist nicht nur das individuelle Lernen, sondern auch der soziale Umgang der Schüler:innen miteinander in den Blick zu nehmen. Die vorliegende Studie trägt dazu bei, beides miteinander zu verknüpfen, indem die Bedeutung einer Gemeinschaft im individualisierten Unterricht anhand verschiedener Perspektiven herausgearbeitet wird. Abschließend werden Implikationen für Forschung und Praxis formuliert.
Negative Ambientalität
(2023)
Spur der Scherben
(2023)
Bilingualer Unterricht gilt als das Erfolgsmodell für den schulischen Fremdsprachenerwerb in Deutschland und die Beherrschung einer Fremdsprache in Wort und Schrift ist eine entscheidende berufsqualifizierende Kompetenz in unserer globalisierten Welt. Insbesondere die Verzahnung fachlicher und sprachlicher Inhalte im Kontext Bilingualen Unterrichts scheint gewinnbringend für den Fremdspracherwerb zu sein. Dabei ist die Diskrepanz zwischen den zumeist noch geringen fremdsprachlichen Fähigkeiten der Lernenden und den fachlichen Ansprüchen des Geographieunterrichts eine große Herausforderung für fachliches Lernen im bilingualen Sachfachunterricht. Es stellt sich die Frage, wie der Bilinguale Unterricht gestaltet sein muss, um einerseits geographische Themen fachlich komplex behandeln zu können und andererseits die Lernenden fremdsprachlich nicht zu überfordern.
Im Rahmen einer Design-Based-Research-Studie im bilingualen Geographieunterricht wurde untersucht, wie fachliches Lernen im bilingualen Geographieunterricht durch den Einsatz beider beteiligter Sprachen (Englisch/Deutsch) gefördert werden kann.
Auf Grundlage eines theoretisch fundierten Kenntnisstands zum Bilingualen Unterricht und zum Lernen mit Fachkonzepten im Geographieunterricht wurde eine Lernumgebung konzipiert, im Unterricht erprobt und weiterentwickelt, in der Strategien des Sprachwechsels zum Einsatz kommen.
Die Ergebnisse der Studie sind kontextbezogene Theorien einer zweisprachigen Didaktik für den bilingualen Geographieunterricht und Erkenntnisse zum Lernen mit Fachkonzepten im Geographieunterricht am Beispiel des geographischen Konzepts Wandel. Produkt der Studie ist eine unterrichtstaugliche Lernumgebung zum Thema Wandlungsprozesse an ausgewählten Orten für den bilingualen Geographieunterricht mit didaktischem Konzept, Unterrichtsmaterialien und -medien.
Bereits im vorschulischen Bereich, aber vor allem in der Grundschule entwickeln Kinder wichtige Kompetenzen für spätere Bildungsabschlüsse. Doch die Kompe-tenzunterschiede zwischen den Schüler:innen sind bereits zu Beginn der Grund-schulzeit beträchtlich. Somit kommt den Lehrkräften die überaus wichtige Aufga-be zu allen Kindern den für sie besten Bildungsweg zu ermöglichen. Um dieser Herausforderung zu begegnen, müssen Diagnostik und Förderung im Unterricht Hand in Hand gehen. Deshalb wird die Diagnosekompetenz von Lehrkräften als wichtige Voraussetzung für gelingenden Unterricht angesehen. Diese Dissertation widmet sich nun eben dieser wichtigen Kompetenz. Dabei wird sie als mehrdimen-sionales Konstrukt angesehen, zu dem neben der Beurteilung von fachlichen Kompetenzen auch die Einschätzung des Leistungsstandes und die Schlussfolge-rung hinsichtlich notwendiger Förderung im Unterricht gehören. Anhand dreier Artikel sowie ergänzender theoretischer Betrachtungen wurde die Diagnosekompe-tenz hinsichtlich möglicher Einflussfaktoren, der Bedeutung für den Unterricht sowie für die Lehrer:innenbildung untersucht.
Funken
(2023)
Die vorliegende Studie beschäftigt sich mit dem nach einer Strukturveränderung in der Sekundarstufe I entstandenen Schulmodell der Neuen Mittelschule. Untersucht wird, ob sich durch dieses Schulmodell und der damit intendierten neuen Lehr-, Lern- und Prüfungskultur Zusammenhänge zwischen gemessenen mathematischen Kompetenzen der Schüler und den durch Lehrer vergebenen Jahresnoten feststellen lassen.
Die Literaturrecherche macht deutlich, dass die Kritik an der Monokultur des leh-rerzentrierten Unterrichts zwar zu einer neuen Lehr-, Lern- und Prüfungskultur führt, deren Inhalte sind aber recht unterschiedlich, komplex und nicht eindeutig definiert. In der NMS soll die Leistungsbewertung als Lernhilfe fungieren, aber auch verlässliche Aussagen über die Leistung der Schüler treffen. Zur Wirkung der neuen Lernkultur in der NMS gibt es ebenso keine empirischen Befunde wie über die Wirkung der Leistungsbewertung.
An der empirischen Untersuchung nehmen 79 Schüler der sechsten Schulstufe aus drei Neuen Mittelschulen (dicht besiedelte, mittel besiedelte, dünn besiedelte Gemeinde) in Niederösterreich teil. In jeder Schule werden zwei Klassen untersucht. Dabei werden der Kompetenzstand in Mathematik, Schülerzentriertheit sowie Sozial- und Leistungsdruck aus Sicht der Schüler gemeinsam mit der Jah-resnote erhoben.
Für die Studie wird ein Pfadmodell entwickelt und mit einer Pfadanalyse ausge-wertet. Dabei zeigen sich zwar Zusammenhänge zwischen den gemessenen Kompetenzen in Mathematik und den Jahresnoten. Diese Jahresnoten besitzen über die Klasse bzw. die Schule hinaus aber nur eine bedingte Aussagekraft über die erbrachten Leistungen.
Im Rahmen dieser Dissertation wurden die erstmaligen Totalsynthesen der Arylnaphthalen-Lignane Alashinol D, Vitexdoin C, Vitrofolal E, Noralashinol C1 und Ternifoliuslignan E vorgestellt. Der Schlüsselschritt der entwickelten Methode, basiert auf einer regioselektiven intramolekularen Photo-Dehydro-Diels-Alder (PDDA)-Reaktion, die mittels UV-Strahlung im Durchflussreaktor durchgeführt wurde. Bei der Synthese der PDDA-Vorläufer (Diarylsuberate) wurde eine Synthesestrategie nach dem Baukastenprinzip verfolgt. Diese ermöglicht die Darstellung asymmetrischer komplexer Systeme aus nur wenigen Grundbausteinen und die Totalsynthese einer Vielzahl an Lignanen. In systematischen Voruntersuchungen konnte zudem die klare Überlegenheit der intra- gegenüber der intermolekularen PDDA-Reaktion aufgezeigt werden. Dabei stellte sich eine Verknüpfung der beiden Arylpropiolester über einen Korksäurebügel, in para-Position, als besonders effizient heraus. Werden asymmetrisch substituierte Diarylsuberate, bei denen einer der endständigen Estersubstituenten durch eine Trimethylsilyl-Gruppe oder ein Wasserstoffatom ersetzt wurde, verwendet, durchlaufen diese Systeme eine regioselektive Cyclisierung und als Hauptprodukt werden Naphthalenophane mit einem Methylester in 3-Position erhalten. Mit Hilfe von umfangreichen Experimenten zur Funktionalisierung der 4-Position, konnte zudem gezeigt werden, dass die Substitution der nucleophilen Cycloallen-Intermediate, während der PDDA-Reaktion, generell durch die Zugabe von N-Halogen-Succinimiden möglich ist. In Anbetracht der geringen Ausbeuten haben diese intermolekularen Abfangreaktionen, jedoch keinen präparativen Nutzen für die Totalsynthesen von Lignanen. Mit dem Ziel die allgemeinen photochemischen Reaktionsbedingungen zu optimieren, wurde erstmalig die triplettsensibilisierte PDDA-Reaktion vorgestellt. Durch die Verwendung von Xanthon als Sensibilisator wurde der Einsatz von effizienteren UVA-Lichtquellen ermöglicht, wodurch die Gefahr einer Photozersetzung durch Überbestrahlung minimiert wurde. Im Vergleich zur direkten Anregung mit UVB-Strahlung, konnten die Ausbeuten mit indirekter Anregung durch einen Photokatalysator signifikant gesteigert werden. Die grundlegenden Erkenntnisse und die entwickelten Synthesestrategien dieser Arbeit, können dazu beitragen zukünftig die Erschließung neuer pharmakologisch interessanter Lignane voranzutreiben.
1 Bisher ist nur die semisynthetische Darstellung von Noralashinol C ausgehend von Hydroxymatairesinol literaturbekannt.
Der Untersuchungsgegenstand der vorliegenden Arbeit ist die Praxis der Europäischen Bürgerinitiative (EBI) nach Art. 11 Abs. 4 EUV, dem weltweit ersten und einzigen Instrument transnationaler, partizipativer und digitaler Demokratie. Im Mittelpunkt der Untersuchung steht die Frage, welchen Beitrag die EBI zur weiteren Demokratisierung der EU leisten kann und auf welche Art und Weise insoweit noch weitere Verbesserungen erzielt werden können. Nach zehnjähriger Anwendungspraxis von 2012 bis 2022 liegen inzwischen ausreichend empirische Daten vor, um den Forschungsgegenstand umfassend zu erforschen und das Instrument mit Blick auf seinen von den EU-Institutionen versprochenen Legitimations- und Demokratisierungsbeitrag bewerten zu können. Insbesondere wird das EBI-Verfahren in dieser Arbeit auf seine empirisch nachweisbare Nutzung, auf seine prozedurale Nutzerfreundlichkeit sowie auf seine politische wie rechtliche Wirkmächtigkeit untersucht. Zum Zwecke der korrekten Kategorisierung, Bewertung sowie der nutzerfreundlichen Ausgestaltung des EBI-Verfahrens werden Vergleiche mit Bürger- und Volksinitiativverfahren in den EU-Mitgliedstaaten sowie mit Bürgerbeteiligungsverfahren auf EU-Ebene vorgenommen. Den empirischen und komparativen Analysen werden eine historische Analyse über die Genese der EBI seit dem EU-Verfassungskonvent sowie theoretisch-normative Überlegungen und praktische Untersuchungen zu unterschiedlichen beteiligungszentrierten Demokratiemodellen vorangestellt, um die EBI einzuordnen und die Steigerungsmöglichkeiten ihres Demokratisierungsbeitrags zu erschließen. Letzteres zielt schließlich auf die Frage nach der prozeduralen Kombination und Kompatibilität der EBI mit demokratischen Innovationen aus dem Bereich der deliberativen und direkten Demokratie ab. Die Arbeit schließt mit einem Ausblick und unterbreitet umfassende EBI-Reformoptionen sowohl auf der primär- und sekundärrechtlichen als auch auf der informellen Ebene.
Monoklonale Antikörper (mAK) sind eines der wichtigsten Biomoleküle für die Umweltanalytik und die medizinische Diagnostik. Für die Detektion von Mikroorganismen bilden sie die Grundlage für ein schnelles und präzises Testverfahren. Bis heute gibt es, aufgrund des hohen zeitlichen und materiellen Aufwandes und der unspezifischen Immunisierungsstrategien, nur wenige mAK, die spezifisch Mikroorganismen erkennen.
Zu diesem Zweck sollte ein anwendbares Verfahren für die Generierung von mAK gegen Mikroorganismen entwickelt werden, welches anhand von Escherichia coli O157:H7 und Legionella pneumophila validiert wurde. In dieser Dissertation konnten neue Oberflächenstrukturen auf den Mikroorganismen mittels vergleichender Genomanalysen und in silico Epitopanalysen identifiziert werden. Diese wurden in das Virushüllprotein VP1 integriert und für eine gezielte Immunisierungsstrategie verwendet. Für die Bestimmung antigenspezifischer antikörperproduzierender Hybridome wurde ein Immunfärbeprotokoll entwickelt und etabliert, um die Hybridome im Durchflusszytometer zu sortieren.
In der vorliegenden Studie konnten für E. coli O157:H7 insgesamt 53 potenzielle Proteinkandidaten und für L. pneumophila 38 Proteine mithilfe der bioinformatischen Analyse identifiziert werden. Fünf verschiedene potenzielle Epitope wurden für E. coli O157:H7 und drei verschiedenen für L. pneumophila ausgewählt und für die Immunisierung mit chimären VP1 verwendet. Alle Immunseren zeigten eine antigenspezifische Immunantwort. Aus den nachfolgend generierten Hybridomzellen konnten mehrere Antikörperkandidaten gewonnen werden, welche in Charakterisierungsstudien eine starke Bindung zu E. coli O157:H7 bzw. L. pneumophila vorwiesen. Kreuzreaktivitäten zu anderen relevanten Mikroorganismen konnten keine bzw. nur in geringem Maße festgestellt werden.
Folglich konnte der hier beschriebene interdisziplinäre Ansatz zur Generierung spezifischer mAK gegen Mikroorganismen nachweislich spezifische mAK hervorbringen und ist als hocheffizienter Arbeitsablauf für die Herstellung von Antikörpern gegen Mikroorganismen einsetzbar.
Neue Wege ins Lehramt
(2023)
Bis zum Jahr 2035 fehlen nach neuesten Prognosen von Klemm (2022) in Deutschland ca. 127.000 Lehrkräfte. Diese große Lücke kann nicht mehr allein durch Lehrkräfte abge-deckt werden, die ein traditionelles Lehramtsstudium absolviert haben. Als Antwort auf den Lehrkräftemangel werden in Schulen in Deutschland daher vermehrt Personen ohne traditio-nelles Lehramtsstudium eingestellt, um die Unterrichtsversorgung zu gewährleisten (KMK, 2022). Nicht-traditionell ausgebildete Lehrkräfte durchlaufen vor ihrer Einstellung in den Schuldienst in der Regel ein alternatives Qualifizierungsprogramm. Diese Qualifizierungs-programme sind jedoch in ihrer zeitlichen und inhaltlichen Ausgestaltung sehr heterogen und setzen unterschiedliche Eingangsvoraussetzungen der Bewerber:innen voraus (Driesner & Arndt, 2020). Sie sind in der Regel jedoch deutlich kürzer als traditionelle Lehramtsstudien-gänge an Hochschulen und Universitäten, um einen schnellen Einstieg in den Schuldienst zu gewährleisten. Die kürzere Qualifizierung geht damit mit einer geringeren Anzahl an Lern- und Lehrgelegenheiten einher, wie sie in einem traditionellen Lehramtsstudium zu finden wäre. Infolgedessen kann davon ausgegangen werden, dass nicht-traditionell ausgebildete Lehrkräfte weniger gut auf die Anforderungen des Lehrberufs vorbereitet sind.
Diese Annahme wird auch oft in der Öffentlichkeit vertreten und die Kritik an alternati-ven Qualifizierungsprogrammen ist groß. So äußerte sich beispielsweise der Präsident des Deutschen Lehrerverbandes, Heinz-Peter Meidinger, im Jahr 2019 gegenüber der Zeitung „Die Welt“, dass die unzureichende Qualifizierung von Quereinsteiger:innen „ein Verbre-chen an den Kindern“ sei (Die Welt, 2019). Die Forschung im deutschsprachigen Raum, die in der Läge wäre, belastbare Befunde für die Unterstützung dieser Kritik liefern zu können, steht jedoch noch am Anfang. Erste Arbeiten weisen generell auf wenige Unterschiede zwi-schen traditionell und nicht-traditionell ausgebildeten Lehrkräften hin (Kleickmann & An-ders, 2011; Kunina-Habenicht et al., 2013; Oettinghaus, Lamprecht & Korneck, 2014). Ar-beiten, die Unterschiede finden, zeigen diese vor allem im Bereich des pädagogischen Wis-sens zuungunsten der nicht-traditionell ausgebildeten Lehrkräfte. Die Frage nach weiteren Unterschieden, beispielsweise in der Unterrichtsqualität oder im beruflichen Wohlbefinden, ist bislang jedoch für den deutschen Kontext nicht beantwortet worden.
Die vorliegende Arbeit hat zum Ziel, einen Teil dieser Forschungslücken zu schließen. Sie bearbeitet in diesem Zusammenhang im Rahmen von drei Teilstudien die Fragen nach Unterschieden zwischen traditionell und nicht-traditionell ausgebildeten Lehrkräften hin-sichtlich ihrer professionellen Kompetenz, Berufswahlmotivation, Wohlbefinden und Unter-richtsqualität. Die übergeordnete Fragestellung wird vor dem Hintergrund des theoretischen Modells zu den Determinanten und Konsequenzen der professionellen Kompetenz (Kunter, Kleickmann, Klusmann & Richter, 2011) bearbeitet. Dieses Modell wird auch für die theore-tische Aufarbeitung der bereits bestehenden nationalen und internationalen Forschungsarbei-ten zu Unterschieden zwischen traditionell und nicht-traditionell ausgebildeten Lehrkräften herangezogen.
Teilstudie I untersucht zunächst Unterschiede in der professionellen Kompetenz zwi-schen traditionell und nicht-traditionell ausgebildeten Lehrkräften. Nach dem Kompetenz-modell nach Baumert und Kunter (2006) werden die beiden Gruppen in den vier Aspekten professioneller Kompetenz – Professionswissen, Überzeugungen, motivationale Orientierun-gen und selbstregulative Fähigkeiten – verglichen. Im Fokus dieser Arbeit stehen traditionell ausgebildete Lehramtsanwärter:innen und die sogenannten Quereinsteiger:innen während des Vorbereitungsdiensts. Mittels multivariater Kovarianzanalysen wurde eine Sekundärdaten-analyse des Projekts COACTIV-R durchgeführt und Unterschiede analysiert.
Teilstudie II beleuchtet sowohl Determinanten als auch Konsequenzen professioneller Kompetenz. Auf Seiten der Determinanten werden Unterschiede in der Berufswahlmotivati-on zwischen Lehrkräften mit und ohne traditionellem Lehramtsstudium untersucht. Ferner erfolgt die Analyse von Unterschieden im beruflichen Wohlbefinden (emotionale Erschöp-fung, Enthusiasmus) und die Intention, im Beruf zu verbleiben, als Konsequenz professionel-ler Kompetenz. Es erfolgte eine Analyse der Daten aus der Pilotierungsstudie aus dem Jahr 2019 für den Bildungstrend des Instituts für Qualitätsentwicklung im Bildungswesen (IQB). Unterschiede zwischen traditionell und nicht-traditionell ausgebildeten Lehrkräften wurden erneut mittels multivariater Kovarianzanalysen berechnet.
Abschließend erfolgte in Teilstudie III die Untersuchung von Unterschieden in der Un-terrichtsqualität zwischen traditionell und nicht-traditionell ausgebildeten Lehrkräften als Konsequenz professioneller Kompetenz. Hierzu wurden Daten des IQB-Bildungstrends 2018 im Rahmen einer Sekundäranalyse mithilfe doppelt-latenter Mehrebenenanalysen genutzt. Es wurden die Unterschiede in den Bereichen Abwesenheit von Störungen, kognitive Akti-vierung und Schüler:innenunterstützung betrachtet.
Im finalen Kapitel der vorliegenden Arbeiten werden die zentralen Befunde der drei Teilstudien zusammengefasst und diskutiert. Die Ergebnisse weisen darauf hin, dass sich traditionell und nicht-traditionell ausgebildete Lehrkräfte nur in wenigen der untersuchten Aspekte signifikant voneinander unterscheiden. Nicht-traditionell ausgebildete Lehrkräfte verfügen über weniger pädagogisches Wissen, haben bessere selbstregulative Fähigkeiten und unterscheiden sich nicht in ihren Berufswahlmotiven, ihrem Wohlbefinden und in der Unterrichtsqualität von traditionell ausgebildeten Lehrkräften. Die Ergebnisse öffnen die Tür für die Diskussion der Relevanz des traditionellen Lehramtsstudiums, bieten eine Grundlage bzgl. der Implikationen für weiterführende Forschungsarbeiten und die Bildungspolitik. Die Arbeiten werden abschließend hinsichtlich ihrer Grenzen bewertet.
Krafttraining ist ein etabliertes Mittel für die Entwicklung körperlicher Fitness und sport-artspezifischer Leistungen in verschiedenen Sportarten. Dabei scheint dem Krafttraining auch im Hinblick auf den langfristigen Leistungsaufbau im Nachwuchsleistungssport Rudern eine besondere Rolle zuzukommen. Die vorliegende Arbeit widmet sich der Optimie-rung der Leistungsdiagnostik sowie der Bewertung der Effektivität von Krafttrainingsmethoden zur Verbesserung der körperlichen Fitness und der sportartspezifischen Leistung im Nachwuchsleistungsrudern.
Die erste Studie im Rahmen dieser kumulativen Arbeit beinhaltet die Analyse eines sport-artspezifischen Anforderungsprofils der Sportart Rudern. Die Studienergebnisse zeigen, dass die Energiebereitstellung im Ruderwettkampf zu einem großen Anteil aus aeroben und zu einem geringen Anteil aus anaeroben Stoffwechselprozessen erfolgt. Während der vier Phasen des rudertechnischen Leitbildes werden nahezu alle großen Muskelgruppen beansprucht. Aufgrund der hohen Trainingsumfänge auf internationalem Leistungsniveau besteht bei Ruderern ein erhöhtes Risiko, Verletzungen im lumbalen Rückensegment, den Knien sowie den Rippen zu erleiden.
Im Rahmen der zweiten Studie wurden die Effekte von Krafttraining auf die körperliche Fitness und die sportartspezifische Leistung von Ruderern unterschiedlichen Expertisen-niveaus untersucht. Die Studienergebnisse zeigen, dass signifikante kleine Effekte des Krafttrainings auf die körperliche Fitness (Maximalkraft der unteren Gliedmaßen) und auf die sportartspezifische Leistung existieren. Subgruppenanalysen für Krafttrainingstyp und Expertisenniveau zeigten nicht signifikante Unterschiede zwischen den jeweiligen Subgruppen der Ruderer.
Die dritte Studie analysierte die Zusammenhänge zwischen der biologischen Reife, der Körperkonstitution und der körperlichen Fitness mit der Leistung auf dem Ruderergometer über 700-m bei weiblichen Nachwuchseliteruderern. Die Analyse zeigte signifikante mittle-re bis hohe Zusammenhänge zwischen der biologischen Reife, Kennwerten der Körperkonstitution, der körperlichen Fitness (z. B. Maximalkraft, Kraftausdauer) und der Leistung auf dem Ruderergometer. Zusätzlich konnte gezeigt werden, dass die Prädiktoren Körperkonstitution (Magermasse) und Kraftausdauer (Bourban-Test) die Leistung des 700-m Ruderergometertest am besten abbilden.
Die vierte Studie untersuchte die Effekte von zwei unterschiedlichen Krafttrainingsmetho-den, die jeweils über neun Wochen durchgeführt wurden, auf die körperliche Fitness und die Leistung auf dem Ruderergometer bei weiblichen Elite-Nachwuchsruderern. Die Stu-dienergebnisse zeigen, dass beide Gruppen signifikante Steigerungen auf ausgewählte Komponenten der körperlichen Fitness (z. B. Maximalkraft, Schnellkraft, anaerobe Aus-dauer und Richtungswechselgeschwindigkeit) und die sportartspezifische Leistung erzielten. Signifikant größere Zuwächse resultierten nach Krafttraining mit höheren Intensitäten [HI] bei gleichem Volumen im Vergleich zu Kraftausdauertraining [KA] in ausgewählten Komponenten der körperlichen Fitness (z. B. Maximalkraft). Im Gegensatz dazu, führte KA bei gleichem Volumen im Vergleich zu HI zu größeren Steigerungen der sportartspezifischen Leistung.
Zusammenfassend zeigen die Ergebnisse, dass Krafttraining ein effektives Mittel zur Steigerung ausgewählter Komponenten der körperlichen Fitness und der sportartspezifischen Leistung in der Sportart Rudern für RuderInnen und im Speziellen für den Nachwuchssport ist. Insbesondere im Nachwuchsleistungsrudern zeigte sich, dass HI zusätzlich zum regulären Rudertraining effektiver zur Verbesserung der körperlichen Fitness (z. B. Maximalkraft) ist als KA. Zur Verbesserung der sportartspezifischen Leistung jedoch, stellte KA im Vergleich zu HI bei weiblichen Elite-Nachwuchsruderern die effektivere Krafttrainings-methode dar. Weiterhin wird Trainern im Nachwuchsrudersport empfohlen, ausgewählte Merkmale der biologischen Reife, Körperkonstitution sowie der körperlichen Fitness (Maximalkraft, Kraftausdauer) für die Talententwicklung zu berücksichtigen.
Die vorgelegte Dissertation befasst sich mit der frühen Wortsegmentierung im monolingualen und bilingualen Spracherwerb. Die Wortsegmentierung stellt eine der wesentlichen Herausforderungen für Säuglinge im Spracherwerb dar, da gesprochene Sprache kontinuierlich ist und Wortgrenzen nicht zuverlässig durch akustische Pausen markiert werden. Zahlreiche Studien konnten für mehrere Sprachen zeigen, dass sich Segmentierungsfähigkeiten von monolingualen Säuglingen zwischen dem 6. und 12. Lebensmonat herausbilden (z. B. Englisch: Jusczyk, Houston & Newsome, 1999; Französisch: Nazzi, Mersad, Sundara, Iakimova & Polka, 2014; Deutsch: Höhle & Weissenborn, 2003; Bartels, Darcy & Höhle, 2009). Frühe Wortsegmentierungsfähigkeiten sind sprachspezifisch (Polka & Sundara, 2012). Crosslinguistische Studien zeigten, dass eine sprachübergreifende Segmentierung für einsprachig aufwachsende Säuglinge nur erfolgreich bewältigt wird, wenn die nicht-native Sprache rhythmische Eigenschaften mit ihrer Muttersprache teilt (Houston, Jusczyk, Kuijpers, Coolen & Cutler, 2000; Höhle, 2002; Polka & Sundara, 2012).
In vier Studien dieser Dissertation wurden mit behavioralen (Headturn Preference Paradigma) und elektrophysiologischen Untersuchungen (Elektroenzephalografie) monolingual Deutsch aufwachsende und bilingual Deutsch-Französisch aufwachsende Säuglinge im Alter von 9 Monaten untersucht. Dabei wurde der Frage nachgegangen, ob monolingual Deutsch aufwachsende Säuglinge im Alter von 9 Monaten in der Lage sind, ihre Muttersprache Deutsch und die rhythmisch unähnliche Sprache Französisch zu segmentieren. Mit anderen Worten: Können monolinguale Säuglinge im Alter von 9 Monaten ihre Segmentierungsprozeduren modifizieren bzw. von ihrer bevorzugten Segmentierung abweichen, um auch nicht-muttersprachlichen Input erfolgreich zu segmentieren?
Bezogen auf die bilingualen Sprachlerner wurde der Frage nachgegangen, ob zweisprachig aufwachsende Säuglinge vergleichbare Segmentierungsfähigkeiten wie monolingual aufwachsende Säuglinge aufweisen und ob sich zudem ein Einfluss der Sprachdominanz auf die Entwicklung der Wortsegmentierungsfähigkeiten in einer bilingualen Population zeigt.
Durch die gewählten Methoden konnten sowohl Verhaltenskorrelate als auch elektrophysiologische Korrelate zur Beantwortung der Fragestellungen herangezogen werden. Darüber hinaus ermöglichte das EEG durch ereigniskorrelierte Potenziale (EKPs) einen Einblick in Lern- und Verarbeitungsprozesse, die mit Verhaltensmethoden nicht erfassbar waren.
Die Ergebnisse zeigen, dass monolingual Deutsch aufwachsende Säuglinge im Alter von 9 Monaten sowohl ihre Muttersprache als auch die nicht-native Sprache Französisch erfolgreich segmentieren. Die Fähigkeit zur Segmentierung der nicht-nativen Sprache Französisch wird jedoch beeinflusst von der Muttersprache: monolinguale Säuglinge, die mit Französisch zuerst getestet wurden, segmentierten sowohl das Französische als auch das im Anschluss präsentierte deutsche Sprachmaterial. Monolinguale Säuglinge die zuerst mit Deutsch und anschließend mit Französisch getestet wurden, segmentierten die deutschen Stimuli, jedoch nicht das französische Sprachmaterial.
Bilingual Deutsch-Französisch aufwachsende Säuglinge segmentieren im Alter von 9 Monaten beide Muttersprachen erfolgreich. Die Ergebnisse deuten zudem auf einen Einfluss der Sprachdominanz auf die Wortsegmentierungsfähigkeiten von zweisprachig aufwachsenden Säuglingen. Die balancierten Bilingualen segmentieren beide Muttersprachen erfolgreich, die unbalancierten Bilingualen zeigen nur für die jeweils dominante Sprache eine erfolgreiche Segmentierung.
Zusammenfassend liefert diese Arbeit erstmals Evidenz für eine erfolgreiche sprachübergreifende Segmentierung in prosodisch differenten Sprachen unterschiedlicher Rhythmusklassen in einer monolingualen Population. Darüber hinaus liefern die Studien dieser Arbeit Evidenz dafür, dass bilingual aufwachsende Säuglinge bezogen auf die Wortsegmentierungsfähigkeiten eine vergleichbare Entwicklung wie einsprachig aufwachsende Sprachlerner zeigen. Dieses Ergebnis erweitert die Datenlage bisheriger Studien, die für verschiedene Entwicklungsschritte im Spracherwerb keine Verzögerung, sondern eine zu monolingual aufwachsenden Säuglingen vergleichbare Entwicklung innerhalb einer bilingualen Population nachweisen konnten (Sprachdiskrimination: Byers-Heinlein, Burns & Werker, 2010; Bosch & Sebastian-Galles, 1997; Phonemdiskrimination: Albareda-Castellot, Pons & Sebastián-Gallés, 2011; Wahrnehmung rhythmischer Eigenschaften: Bijeljac-Babic, Höhle & Nazzi, 2016).
Das Eigene und das Fremde
(2023)
Die vorliegende Arbeit stellt eine Untersuchung des Fremdverstehens von Lehrkräften im Mathematikunterricht dar. Mit ‚Fremdverstehen‘ soll dabei – in Anlehnung an den Soziologen Alfred Schütz – der Prozess bezeichnet werden, in welchem eine Lehrkraft versucht, das Verhalten einer Schülerin oder eines Schülers zu verstehen, indem sie dieses Verhalten auf ein Erleben zurückführt, das ihm zugrunde gelegen haben könnte. Als ein wesentliches Merkmal des Prozesses stellt Schütz in seiner Theorie des Fremdverstehens heraus, dass das Fremdverstehen eines Menschen immer auch auf seinen eigenen Erlebnissen basiert. Aus diesem Grund wird in der Arbeit ein methodischer Zweischritt vorgenommen: Es werden zunächst die mathematikbezogenen Erlebnisse zweier Lehrkräfte nachgezeichnet, bevor dann ihr Fremdverstehen in konkreten Situationen im Mathematikunterricht rekonstruiert wird. In der ersten Teiluntersuchung (= der Rekonstruktion eigener Erlebnisse der untersuchten Lehrkräfte) erfolgt die Datenerhebung mit Hilfe biographisch-narrativer Interviews, in denen die untersuchten Lehrkräfte angeregt werden, ihre mathematikbezogene Lebensgeschichte zu erzählen. Die Analyse dieser Interviews wird im Sinne der rekonstruktiven Fallanalyse vorgenommen. Insgesamt führt die erste Teiluntersuchung zu textlichen Darstellungen der rekonstruierten mathematikbezogenen Lebensgeschichte der untersuchten Mathematiklehrkräfte. In der zweiten Teiluntersuchung (= der Rekonstruktion des Fremdverstehens der untersuchten Lehrkräfte) werden dann narrative Interviews geführt, in denen die untersuchten Lehrkräfte von ihrem Fremdverstehen in konkreten Situationen im Mathematikunterricht erzählen. Die Analyse dieser Interviews erfolgt mit Hilfe eines dreischrittigen Analyseverfahrens, welches die Autorin eigens zum Zweck der Rekonstruktion von Fremdverstehen entwickelte. Am Ende dieser zweiten Teiluntersuchung werden sowohl das rekonstruierte Fremdverstehen der Lehrkräfte in verschiedenen Unterrichtssituationen dargestellt als auch Strukturen, die sich in ihrem Fremdverstehen abzeichnen. Mit Hilfe einer theoretischen Verallgemeinerung werden schließlich – auf Basis der Ergebnisse der zweiten Teiluntersuchung – Aussagen über fünf Merkmale des Fremdverstehens von Lehrkräften im Mathematikunterricht im Allgemeinen gewonnen. Mit diesen Aussagen vermag die Arbeit eine erste Beschreibung davon hervorzubringen, wie sich das Phänomen des Fremdverstehens von Lehrkräften im Mathematikunterricht ausgestalten kann.
Von Ulfila bis Rekkared
(2014)
Für etwa 200 Jahre, vom Ende des 4. Jahrhunderts bis 589 n. Chr., gehören die Westgoten einem von der Orthodoxie der Reichskirche abweichenden christlichen Bekenntnis an. Auf dem 3. Konzil von Toledo beendet König Rekkared diesen Zustand religiöser Alterität durch die Konversion zum Katholizismus. Die antiken Berichte zeichnen nur vordergründig ein kohärentes Bild des Christentums der Goten. Dagegen weist Eike Faber Widersprüche und Fehler in der Überlieferung nach und bietet eine Reihe neuer Interpretationen an. Die genauere Betrachtung vermag dabei sowohl den dogmatischen Gehalt des Christentums der Goten schärfer zu konturieren als auch die Beweggründe für die Annahme des neuen Glaubens herauszustellen und die traditionelle Datierung dieses Vorgangs zu widerlegen. Schließlich wird deutlich, welche Funktion das fortgesetzte Festhalten an einer demonstrativ anderen religiösen Überzeugung für die Goten hatte. Prägnante Wegmarken der gotischen Geschichte, wie die Bibelübersetzung Ulfilas, die Eroberung und Plünderung Roms 410 n. Chr. oder die demonstrative Aufgabe der religiösen Differenz durch König Rekkared, werden erst durch diesen neuen, umfassenden Kontext verständlich.
Das menschenrechtliche Prinzip des Non-Refoulement vor den Vertragsorganen der Vereinten Nationen
(2023)
Die Vertragsorgane der Vereinten Nationen können durch die Abstimmung ihrer Praxis Rechtssicherheit schaffen, und zwar sowohl für Betroffene als auch für die Vertragsstaaten. Durch den ständigen Dialog mit den Vertragsstaaten, die Beeinflussung der Vertragsorgane untereinander und das Aufgreifen der Praxis durch andere internationale Akteure lässt sich Gewohnheitsrecht identifizieren. -- Dabei ist das menschenrechtliche Prinzip des Non-Refoulement besonders geeignet, dieses Potenzial der Vertragsorgane zu veranschaulichen. Hierbei handelt es sich um ein Rechtsprinzip, das zwar dem Grunde nach allgemein anerkannt ist, dessen Reichweite im Detail jedoch kontinuierlich umstritten ist. Erstmals wird ein umfassender Überblick über die gesamte Praxis der Vertragsorgane zum Prinzip des Non-Refoulement gegeben. Es wird gezeigt, wie sich die Vertragsorgane sowohl auf prozessualer Ebene als auch bei der Bestimmung des materiellen Schutzbereichs von Refoulementverboten einander annähern.
In jüngerer Vergangenheit häuften sich Fälle, in denen die Verwaltung Entscheidungen von Verwaltungsgerichten bewusst nicht umsetzte. Der Autor nimmt diese Entwicklung zum Anlass und befasst sich mit der Frage, welchen Anteil die Vollstreckungsregeln der Verwaltungsgerichtsordnung an dieser Entwicklung haben. Dabei erfasst er sowohl die staatsrechtliche als auch die grundrechtliche Perspektive. Er überprüft insbesondere, ob die Vorschriften, die die Vollstreckung aus verwaltungsgerichtlichen Entscheidungen gegen den Staat regeln, verfassungsgemäß sind. Nach ausführlicher Diskussion denkbarer Lösungsansätze kommt der Autor zu dem Ergebnis, dass eine Änderung der Vollstreckungsvorschriften dringend geboten ist.
Beinahe 30 Jahre lang glänzte die »Völkerfreundschaft« zwischen Kuba und der DDR im öffentlichen Diskurs der SED als Musterbeispiel ihres proletarischen Internationalismus. Doch die Rhetorik täuscht: Besonders in den Anfangsjahren der bilateralen Beziehungen nahmen die deutschen Kader ihre kubanischen »Genossen« in der Karibik als notorische Querschläger wahr, die mit ihrem Aufbegehren gegen den ideologischen Suprematieanspruch des Kremls die Stabilität des Ostblocks gefährdeten.
Anhand bislang unveröffentlichten Quellenmaterials aus deutschen und kubanischen Archiven veranschaulicht Antonia Bihlmayer die Bemühungen der Regierung Walter Ulbrichts, die widerspenstigen Sozialisten in der Karibik auf Moskau auszurichten. Auf politisch-ideologischer, wirtschaftlicher und kulturpolitischer Ebene analysiert ihre Studie zum einen die Charakteristika dieser sozialistischen Zivilisierungsmission. Zum anderen nimmt sie diejenigen Faktoren in den Blick, die dafür ausschlaggebend waren, dass sich diese beiden sozialistischen Enklaven ab Mitte der 1970er Jahre schließlich zu gleichwertigen »Juniorpartnern« der Sowjetunion entwickelten.
Digitale und gesellschaftliche Entwicklungen fordern kontinuierliche Weiterbildung für Mitarbeiter im Vertrieb. Es halten sich in dieser Berufssparte aber immer noch einige Mythen zum Training von Vertriebsmitarbeitern. Unter anderem deshalb wurde in der Vergangenheit der Trainingsbedarf im Vertrieb stark vernachlässigt. Die Arbeit befasst sich deshalb zunächst mit der Frage, wie der Vertrieb in Deutschland aktuell geschult wird (unter Einbezug der Corona-Pandemie) und ob sich aus den Trainingsgewohnheiten erste Hinweise zur Erlangung eines strategischen Wettbewerbsvorteils ergeben könnten.
Dabei greift die Arbeit auf, dass Investitionen in das Training von Vertriebsmitarbeitern eine Anlage in die Wettbewerbsfähigkeit des Unternehmens sein könnten. Automatisierte Trainings, beispielsweise basierend auf Virtual Reality (VR) und Künstlicher Intelligenz (KI), könnten in der Aus- und Weiterbildung des Vertriebs einen effizienten Beitrag in der Sicherstellung eines strategischen Wettbewerbsvorteils leisten. Durch weitere Forschungsfragen befasst sich die Arbeit anschließend damit, wie ein automatisiertes Vertriebstraining mit KI- und VR-Inhalten unter Einbeziehung der Nutzer gestaltet werden muss, um Vertriebsmitarbeiter in einem dafür ausgewählten Verhandlungskontext zu trainieren. Dazu wird eine Anwendung mit Hilfe von Virtual Reality und Künstlicher Intelligenz in einem Verhandlungsdialog entwickelt, getestet und evaluiert.
Die vorliegende Arbeit liefert eine Basis für die Automatisierung von Vertriebstrainings und im erweiterten Sinne für Trainings im Allgemeinen.
Für die Sondernutzung des gemeindlichen Verkehrsraumes durch die Verlegung und den Betrieb von Leitungen kann die Gemeinde vom Wasserversorger eine Konzessionsabgabe erheben. Gleichwohl kleine Regie- und Eigenbetriebe den größten Teil der Wasserversorger ausmachen, ein Großteil der Abnehmerbeziehungen über Gebühren ausgestaltet ist, und Konzessionsabgaben einen beachtlichen Faktor in den kommunalen Haushalten darstellen, ist die Frage, ob von einem Eigenbetrieb gezahlte Konzessionsabgaben in die Gebührenkalkulation eingestellt werden können, umstritten. Mehrere Oberverwaltungsgerichte verneinen dies. Die Verfasserin untersucht die zugrundeliegende Thematik aus zahlreichen rechtlichen Perspektiven und widerspricht der Rechtsprechung.
The Media Privilege under Data Protection Law: Journalism and data protection are fundamentally at odds with each other. In view of current developments, the need for a functioning regulatory concept for both legal positions is probably more important than ever. This conceptual balance is provided by the journalistic exemption in data protection law. The thesis focuses on the scope of the exception. It also identifies existing coherence problems between European and national law.
Die aktuelle COVID-19-Pandemie zeigt deutlich, wie sich Infektionskrankheiten weltweit verbreiten können. Neben Viruserkrankungen breiten sich auch multiresistente bakterielle Erreger weltweit aus. Dementsprechend besteht ein hoher Bedarf, durch frühzeitige Erkennung Erkrankte zu finden und Infektionswege zu unterbrechen.
Herkömmliche kulturelle Verfahren benötigen minimalinvasive bzw. invasive Proben und dauern für Screeningmaßnahmen zu lange. Deshalb werden schnelle, nichtinvasive Verfahren benötigt.
Im klassischen Griechenland verließen sich die Ärzte unter anderem auf ihren Geruchssinn, um Infektionen und andere Krankheiten zu differenzieren. Diese charakteristischen Gerüche sind flüchtige organische Substanzen (VOC), die im Rahmen des Metabolismus eines Organismus entstehen. Tiere, die einen besseren Geruchssinn haben, werden trainiert, bestimmte Krankheitserreger am Geruch zu unterscheiden. Allerdings ist der Einsatz von Tieren im klinischen Alltag nicht praktikabel. Es bietet sich an, auf technischem Weg diese VOCs zu analysieren.
Ein technisches Verfahren, diese VOCs zu unterscheiden, ist die Ionenmobilitätsspektrometrie gekoppelt mit einer multikapillaren Gaschromatographiesäule (MCC-IMS). Hier zeigte sich, dass es sich bei dem Verfahren um eine schnelle, sensitive und verlässliche Methode handelt.
Es ist bekannt, dass verschiedene Bakterien aufgrund des Metabolismus unterschiedliche VOCs und damit eigene spezifische Gerüche produzieren. Im ersten Schritt dieser Arbeit konnte gezeigt werden, dass die verschiedenen Bakterien in-vitro nach einer kurzen Inkubationszeitzeit von 90 Minuten anhand der VOCs differenziert werden können. Hier konnte analog zur Diagnose in biochemischen Testreihen eine hierarchische Klassifikation der Bakterien erfolgen.
Im Gegensatz zu Bakterien haben Viren keinen eigenen Stoffwechsel. Ob virusinfizierte Zellen andere VOCs als nicht-infizierte Zellen freisetzen, wurde an Zellkulturen überprüft. Hier konnte gezeigt werden, dass sich die Fingerprints der VOCs in Zellkulturen infizierter Zellen mit Respiratorischen Synzytial-Viren (RSV) von nicht-infizierten Zellen unterscheiden.
Virusinfektionen im intakten Organismus unterscheiden sich von den Zellkulturen dadurch, dass hier neben Veränderungen im Zellstoffwechsel auch durch Abwehrmechanismen VOCs freigesetzt werden können.
Zur Überprüfung, inwiefern sich Infektionen im intakten Organismus ebenfalls anhand VOCs unterscheiden lassen, wurde bei Patienten mit und ohne Nachweis einer Influenza A Infektion als auch bei Patienten mit Verdacht auf SARS-CoV-2 (Schweres-akutes-Atemwegssyndrom-Coronavirus Typ 2) Infektion die Atemluft untersucht. Sowohl Influenza-infizierte als auch SARS-CoV-2 infizierte Patienten konnten untereinander und von nicht-infizierten Patienten mittels MCC-IMS Analyse der Atemluft unterschieden werden.
Zusammenfassend erbringt die MCC-IMS ermutigende Resultate in der schnellen nichtinvasiven Erkennung von Infektionen sowohl in vitro als auch in vivo.
Abzug unter Beobachtung
(2022)
Mehr als vier Jahrzehnte lang beobachteten die Streitkräfte und Militärnachrichtendienste der NATO-Staaten die sowjetischen Truppen in der DDR. Hierfür übernahm in der Bundesrepublik Deutschland der Bundesnachrichtendienst (BND) die militärische Auslandsaufklärung unter Anwendung nachrichtendienstlicher Mittel und Methoden. Die Bundeswehr betrieb dagegen taktische Fernmelde- und elektronische Aufklärung und hörte vor allem den Funkverkehr der „Gruppe der sowjetischen Streitkräfte in Deutschland“ (GSSD) ab. Mit der Aufstellung einer zentralen Dienststelle für das militärische Nachrichtenwesen, dem Amt für Nachrichtenwesen der Bundeswehr, bündelte und erweiterte zugleich das Bundesministerium für Verteidigung in den 1980er Jahren seine analytischen Kapazitäten. Das Monopol des BND in der militärischen Auslandsaufklärung wurde von der Bundeswehr dadurch zunehmend infrage gestellt.
Nach der deutschen Wiedervereinigung am 3. Oktober 1990 befanden sich immer noch mehr als 300.000 sowjetische Soldaten auf deutschem Territorium. Die 1989 in Westgruppe der Truppen (WGT) umbenannte GSSD sollte – so der Zwei-plus-Vier-Vertrag – bis 1994 vollständig abziehen. Der Vertrag verbot auch den drei Westmächten, in den neuen Bundesländern militärisch tätig zu sein. Die für die Militäraufklärung bis dahin unverzichtbaren Militärverbindungsmissionen der Westmächte mussten ihre Dienste einstellen. Doch was geschah mit diesem „alliierten Erbe“? Wer übernahm auf deutscher Seite die Aufklärung der sowjetischen Truppen und wer kontrollierte den Truppenabzug?
Die Studie untersucht die Rolle von Bundeswehr und BND beim Abzug der WGT zwischen 1990 und 1994 und fragt dabei nach Kooperation und Konkurrenz zwischen Streitkräften und Nachrichtendiensten. Welche militärischen und nachrichtendienstlichen Mittel und Fähigkeiten stellte die Bundesregierung zur Bewältigung des Truppenabzugs zur Verfügung, nachdem die westlichen Militärverbindungsmissionen aufgelöst wurden? Wie veränderten sich die Anforderungen an die militärische Auslandsaufklärung des BND? Inwieweit setzten sich Konkurrenz und Kooperation von Bundeswehr und BNDbeim Truppenabzug fort? Welche Rolle spielten dabei die einstigen Westmächte? Die Arbeit versteht sich nicht nur als Beitrag zur Militärgeschichte, sondern auch zur deutschen Nachrichtendienstgeschichte.
Investment control has experienced a considerable increase in importance in M&A transactions, as it has been constantly adapted to real economic conditions and successively tightened. The result is a partially inconsistent review regime that contains value contradictions and creates legal uncertainties. In a comprehensive approach, this doctoral thesis analyzes the problems of the current investment control regime and states concrete reform proposals.
In der vorliegenden Arbeit liegt der Fokus auf jungen russischsprachigen Jüdinnen und Juden, deren Eltern in den 90er Jahren des 20 Jahrhunderts nach Deutschland eingewandert sind. Im Rahmen dieser Studie wird der Bildungsweg dieser MigrantInnengruppe und deren Erfahrungen in Deutschland aus der biographischen Perspektive nachvollzogen. Der Fokus wird insbesondere auf die biographischen Lebenserfahrungen gelegt, d.h. die allgemeinen Lebensumstände, Hürden und Schwierigkeiten, die die jungen russischsprachigen Jüdinnen und Juden in Deutschland überwinden mussten, um auf ihrem Bildungsweg an ihr Ziel zu kommen. Des Weiteren werden die Rolle des sozialen Umfelds auf die Auswahl ihres Bildungsweges sowie ihre Zugehörigkeit und ihr Beitrag zur deutschen Gesellschaft beleuchtet. Ein weiteres Hauptaugenmerk dieser Arbeit liegt auf den gesellschaftlichen, politischen und familiären Rahmenbedingungen, die den BiographInnen den Zugang zum Bildungsweg ermöglichten.
Die in der Arbeit formulierten Forschungsfragen wurden mithilfe der interpretativen Sozialforschung, genauer, der fallrekonstruktiven Auswertung nach Gabriele Rosenthal beantwortet.
Über den biographischen Verlauf der Lebensgeschichte der jungen russischsprachigen Jüdinnen und Juden wurde deutlich, dass die BiographInnen in die säkulare Gesellschaft gehen müssen, um ihren Bildungsweg erfolgreich zu gestalten. Dort erfahren sie einen sehr starken Antisemitismus und sind diesem schutzlos ausgeliefert. Bei allen drei Interviewten wurde diese Erfahrung in der Schule gemacht, an einem Ort, an dem sie Schutz erfahren sollten. Diesen Anfeindungen begegneten sie auf unterschiedliche Weise und sie entwickelten verschiedene Handlungsstrategien. Einige BiographInnen setzen sich auf der intellektuellen Ebene bewusst damit auseinander, andere wiederum versuchen, nicht hinzuschauen und es zu ignorieren.
Des Weiteren wurde als Resultat der Untersuchung in einigen Fällen ein übereinstimmendes, in anderen ein nicht übereinstimmendes Passungsverhältnis zwischen elterlichen Vorstellungen und den Bildungswegen der jungen russischsprachigen Jüdinnen und Juden gefunden.
Ein schonender Umgang mit den Ressourcen und der Umwelt ist wesentlicher Bestandteil des modernen Bergbaus sowie der zukünftigen Versorgung unserer Gesellschaft mit essentiellen Rohstoffen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung analytischer Strategien, die durch eine exakte und schnelle Vor-Ort-Analyse den technisch-praktischen Anforderungen des Bergbauprozesses gerecht werden und somit zu einer gezielten und nachhaltigen Nutzung von Rohstofflagerstätten beitragen. Die Analysen basieren auf den spektroskopischen Daten, die mittels der laserinduzierten Breakdownspektroskopie (LIBS) erhalten und mittels multivariater Datenanalyse ausgewertet werden. Die LIB-Spektroskopie ist eine vielversprechende Technik für diese Aufgabe. Ihre Attraktivität machen insbesondere die Möglichkeiten aus, Feldproben vor Ort ohne Probennahme oder ‑vorbereitung messen zu können, aber auch die Detektierbarkeit sämtlicher Elemente des Periodensystems und die Unabhängigkeit vom Aggregatzustand. In Kombination mit multivariater Datenanalyse kann eine schnelle Datenverarbeitung erfolgen, die Aussagen zur qualitativen Elementzusammensetzung der untersuchten Proben erlaubt. Mit dem Ziel die Verteilung der Elementgehalte in einer Lagerstätte zu ermitteln, werden in dieser Arbeit Kalibrierungs- und Quantifizierungsstrategien evaluiert. Für die Charakterisierung von Matrixeffekten und zur Klassifizierung von Mineralen werden explorative Datenanalysemethoden angewendet. Die spektroskopischen Untersuchungen erfolgen an Böden und Gesteinen sowie an Mineralen, die Kupfer oder Seltene Erdelemente beinhalten und aus verschiedenen Lagerstätten bzw. von unterschiedlichen Agrarflächen stammen.
Für die Entwicklung einer Kalibrierungsstrategie wurden sowohl synthetische als auch Feldproben von zwei verschiedenen Agrarflächen mittels LIBS analysiert. Anhand der Beispielanalyten Calcium, Eisen und Magnesium erfolgte die auf uni- und multivariaten Methoden beruhende Evaluierung verschiedener Kalibrierungsmethoden. Grundlagen der Quantifizierungsstrategien sind die multivariaten Analysemethoden der partiellen Regression der kleinsten Quadrate (PLSR, von engl.: partial least squares regression) und der Intervall PLSR (iPLSR, von engl.: interval PLSR), die das gesamte detektierte Spektrum oder Teilspektren in der Analyse berücksichtigen. Der Untersuchung liegen synthetische sowie Feldproben von Kupfermineralen zugrunde als auch solche die Seltene Erdelemente beinhalten. Die Proben stammen aus verschiedenen Lagerstätten und weisen unterschiedliche Begleitmatrices auf. Mittels der explorativen Datenanalyse erfolgte die Charakterisierung dieser Begleitmatrices. Die dafür angewendete Hauptkomponentenanalyse gruppiert Daten anhand von Unterschieden und Regelmäßigkeiten. Dies erlaubt Aussagen über Gemeinsamkeiten und Unterschiede der untersuchten Proben im Bezug auf ihre Herkunft, chemische Zusammensetzung oder lokal bedingte Ausprägungen. Abschließend erfolgte die Klassifizierung kupferhaltiger Minerale auf Basis der nicht-negativen Tensorfaktorisierung. Diese Methode wurde mit dem Ziel verwendet, unbekannte Proben aufgrund ihrer Eigenschaften in Klassen einzuteilen.
Die Verknüpfung von LIBS und multivariater Datenanalyse bietet die Möglichkeit durch eine Analyse vor Ort auf eine Probennahme und die entsprechende Laboranalytik weitestgehend zu verzichten und kann somit zum Umweltschutz sowie einer Schonung der natürlichen Ressourcen bei der Prospektion und Exploration von neuen Erzgängen und Lagerstätten beitragen. Die Verteilung von Elementgehalten der untersuchten Gebiete ermöglicht zudem einen gezielten Abbau und damit eine effiziente Nutzung der mineralischen Rohstoffe.
Das kolonisierte Heiligtum
(2022)
Während der Zeit des historischen Kolonialismus wurden in Völkerkundemuseen komplexe Formen rassistischer und religiöser Diskriminierung institutionalisiert, z.B. in den dort gültigen Ästhetik- und Kunstbegriffen. Viele der heutigen Museumsangestellten erklären sich deswegen zu Reformen bereit. Doch können sie sich tatsächlich vom Kolonialismus trennen? Ist eine Dekolonisation ethnologischer Museen mit kolonialer Beute je abschließend möglich? Am Beispiel umstrittener Heiligtümer lebender Kulturen untersucht Christoph Balzar das Verfahren der Musealisierung durch die Linse der Diskriminierungskritik. Im Fokus stehen dabei die Sammlungen der »Staatlichen Museen zu Berlin«.
Zu Seiner Majestät allerhöchstem Interesse als titelgebendem Zitat bekannten sich die zeitgenössischen Amtsträger in ihrer Beeidigung als grundlegende Maxime des durch den König verkörperten werdenden preussischen Staates.Die Domänenpolitik Friedrich Wilhelms I., dem zweiten preussischen König, war die wesentliche Voraussetzung für die folgende Entwicklung Preussens von einer Regionalmacht im Heiligen Römischen Reich zu einer europäischen Grossmacht. Ohne nennenswerte Rohstoffe und handwerkliche Traditionen, agrarisch geprägt und ganz dem merkantilistischen Wirtschaftsmodell und seiner kameralistischen Methodik verhaftet, war der Ausbau und die Intensivierung der landesherrlichen Gutswirtschaft der für Preussen verheissungsvollste Weg zur Erwirtschaftung der Mittel, die es zum Schuldenabbau, dem Aufbau einer starken Militärmacht und Anhäufung eines Staatsschatzes befähigte. Erreicht wurde dies durch konsequente Einnahmen- und Ausgabenkontrolle und die Schaffung eines effizienten Verwaltungsapparates mit detaillierten Vorschriften, was knapp einhundert Jahre Bestand behalten sollte und bis zu nahezu 50 Prozent der Staatseinnahmen hervorbrachte. Das friderizianische Preussen wäre ohne die Leistungen Friedrich Wilhelms I. nicht möglich gewesen.Der vorliegende Band stellt diese Entwicklung mit einer Fülle von Quellenmaterial und dessen Auswertungen sowie einem umfangreichen Anhang unter Beweis. Der allein 22seitige Personenindex mit über 1.300 Verweisen und 103 Kurzbiogra-fien der kurmärkischen Kammerräte machen deutlich, wer hinter den Leistungen dieser Epoche stand.
Der Jüdische Friedhof in Potsdam am Pfingstberg wurde 1743 angelegt und kontinuierlich bis in die NS-Zeit belegt. Bis Anfang des 21. Jahrhunderts gab es vereinzelte Begräbnisse mit Bezug zur alten Jüdischen Gemeinde Potsdams; mehrere Gedenkanlagen wurden errichtet. Mit mehr als 500 historischen Grabanlagen, seinem Ensemble aus Friedhofsbauten sowie aufgrund seiner Landschaftsarchitektur gehört dieser Ort heute zum UNESCO-Welterbe.
Teil 1 von Anke Geißler-Grünbergs Studie ist der Geschichte des Friedhofs gewidmet. Nach einem Blick auf die Rolle der Jüdischen Gemeinde Potsdams als Eigentümerin des Friedhofs erfolgt unter Auswertung von umfangreichem Archivmaterial eine detaillierte Darstellung der Geschichte des „Guten Ortes“. Eine Untersuchung sämtlicher Grabmale auf unterschiedliche Gestaltungsmerkmale visualisiert und rekonstruiert die Veränderungen in der erhaltenen Sepulkralkultur. Abschließend richtet sich der Fokus auf den Umgang mit dem Friedhof als Ort der Erinnerung.
Teil 2 bietet die Dokumentation von 370 Grabanlagen. Um den Friedhof in seiner Gesamtheit abzubilden, wurde die 1992 erfolgte Teildokumentation der 158 Grabsteine des gesamten ältesten Begräbnisfeldes ergänzend hinzugenommen. Mit mehr als 1.000 Fotos wird hier ein einmaliges Zeugnis der Brandenburger Juden dokumentiert.
Der Jüdische Friedhof in Potsdam am Pfingstberg wurde 1743 angelegt und kontinuierlich bis in die NS-Zeit belegt. Bis Anfang des 21. Jahrhunderts gab es vereinzelte Begräbnisse mit Bezug zur alten Jüdischen Gemeinde Potsdams; mehrere Gedenkanlagen wurden errichtet. Mit mehr als 500 historischen Grabanlagen, seinem Ensemble aus Friedhofsbauten sowie aufgrund seiner Landschaftsarchitektur gehört dieser Ort heute zum UNESCO-Welterbe.
Teil 1 von Anke Geißler-Grünbergs Studie ist der Geschichte des Friedhofs gewidmet. Nach einem Blick auf die Rolle der Jüdischen Gemeinde Potsdams als Eigentümerin des Friedhofs erfolgt unter Auswertung von umfangreichem Archivmaterial eine detaillierte Darstellung der Geschichte des „Guten Ortes“. Eine Untersuchung sämtlicher Grabmale auf unterschiedliche Gestaltungsmerkmale visualisiert und rekonstruiert die Veränderungen in der erhaltenen Sepulkralkultur. Abschließend richtet sich der Fokus auf den Umgang mit dem Friedhof als Ort der Erinnerung.
Teil 2 bietet die Dokumentation von 370 Grabanlagen. Um den Friedhof in seiner Gesamtheit abzubilden, wurde die 1992 erfolgte Teildokumentation der 158 Grabsteine des gesamten ältesten Begräbnisfeldes ergänzend hinzugenommen. Mit mehr als 1.000 Fotos wird hier ein einmaliges Zeugnis der Brandenburger Juden dokumentiert.
Die betriebliche oder „arbeitsplatzorientierte Grundbildung (AoG)“ ist ein noch junges Forschungsgebiet der wissenschaftlichen Erwachsenenbildung. Neuerdings wenden sich auch betriebliche Kursangebote an die „Bildungsverlierer“ unseres Schulsystems, die mit z.T. massiven Problemen die Haupt- oder Sonderschule verlassen. Diese qualitative Studie ist dem Bereich der subjektwissenschaftlichen Lernforschung zuzuordnen. Sie rekonstruiert die subjektiven Lernbegründungen der formal gering literalisierten Beschäftigten, wenn sie an Grundbildungskursen am Arbeitsplatz teilnehmen. Die Studie zeigt auf, dass erhebliche lernbiografisch begründete Widerstände überwunden werden müssen, um – eingebettet in Anerkennungsverhältnisse im Kurs – zu persönlich bedeutsamem produktivem Lernen vorzudringen. Zunächst sind Freiwilligkeit und Teilnehmendenorientierung in Kursen häufig in Frage gestellt. Mehr oder weniger reflektierte Lernwiderstände mit defensiven Lerngründen werden insofern vom Autor als subjektiv sinnvolle Handlungsstrategien verstanden. Als lebenslang tätiger Praktiker erläutert der Autor, wie die Resultate der Studie für eine gute Praxis betrieblicher Grundbildung genutzt werden können.
Queer Curating
(2022)
Dieses Buch ist für alle, die mutig genug sind, sich selbst und das Zeigen von Kunst zu stören. Beatrice Miersch entwirft radikal-relationale Alternativen zu zeitgenössischen Ausstellungspraktiken. Um sich der gesellschaftlichen Verantwortung im Rahmen des Ausstellens von Kunst zu stellen, erprobt sie queer-feministische, kulturwissenschaftliche und selbstreflektierende Methoden in der Praxis und Theorie des Kuratierens. Momente kuratorischer Störung werden zu produktiv-schöpferischen Momenten der Unterbrechung, mit denen sie reflektierte, offene, engagierte und vulnerable Perspektiven auf das Ausstellen eröffnet und tradierte Strukturen durchbricht.
Selbstwirksamkeitserwartungen von Lehramtsstudierenden im Kontext von schulpraktischen Erfahrungen
(2022)
Selbstwirksamkeitserwartungen spielen eine wichtige Rolle für das professionelle Verhalten von Lehrkräften im Unterricht (Tschannen-Moran et al., 1998) sowie für die Leistungen und das Verhalten der Schülerinnen und Schüler (Mojavezi & Tamiz, 2012). Selbstwirksamkeitserwartungen von Lehrkräften sind definiert als die Überzeugung von Lehrkräften, dass sie in der Lage sind, bestimmte Ziele in einer spezifischen Situation zu erreichen (Dellinger et al., 2008; Tschannen-Moran & Hoy, 2001). Aufgrund der bedeutenden Rolle der Lehrkräfte im Bildungssystem und in der Gesellschaft ist es wichtig, das Wohlbefinden, die Produktivität und die Wirksamkeit von Lehrkräften zu fördern (Kasalak & Dagyar, 2020). Empirische Befunde unterstreichen die positiven Effekte von Selbstwirksamkeitserwartungen bei Lehrkräften auf ihr Wohlbefinden (Perera & John, 2020) und auf das Lernen sowie die Leistungen der Schülerinnen und Schüler (Zee & Koomen, 2016). Dabei mangelt es jedoch an empirischer Forschung, die die Bedeutung von Selbstwirksamkeitserwartungen bei Lehramtsstudierende in der Lehrkräftebildung untersucht (Yurekli et al., 2020), insbesondere während schulpraktischen Ausbildungsphasen. Ausgehend von der Bedeutung eigener Unterrichtserfahrungen, die als mastery experience, d.h. als stärkste Quelle von Selbstwirksamkeit für Lehramtsstudierende, beschrieben wurden (Pfitzner-Eden, 2016b), werden in dieser Dissertation Praxiserfahrungen als Quelle von Selbstwirksamkeit von Lehramtsstudierenden und die Veränderung der Selbstwirksamkeit von Lehramtsstudierenden während der Lehrkräfteausbildung untersucht. Studie 1 konzentriert sich daher auf die Veränderung der Selbstwirksamkeit von Lehramtsstudierenden während kurzer praktischer Unterrichtserfahrungen im Vergleich zur Online-Lehre ohne Unterrichtserfahrung. Aufgrund inkonsistenter Befunde zu den wechselseitigen Beziehungen zwischen den Selbstwirksamkeitserwartungen von Lehrkräften und ihrem Unterrichtsverhalten (Holzberger et al., 2013; Lazarides et al., 2022) wurde in Studie 2 der Zusammenhang zwischen der Selbstwirksamkeit von Lehramtsstudierenden und ihrem Unterrichtsverhalten während des Lehramtsstudiums untersucht. Da Feedback als verbale Überzeugung (verbal persuasion) dienen kann und somit eine wichtige Quelle für Selbstwirksamkeitserwartungen ist, die das Gefühl der Kompetenz stärkt (Pfitzner-Eden, 2016b), fokussiert Studie 2 den Zusammenhang zwischen der Veränderung der Selbstwirksamkeit von Lehramtsstudierenden und der wahrgenommenen Qualität des Peer-Feedbacks im Kontext kurzer schulpraktischer Erfahrungen während des Lehramtsstudiums. Darüber hinaus ist es für die Untersuchung der Veränderung von Selbstwirksamkeit bei Lehramtsstudierenden wichtig, individuelle Persönlichkeitsaspekte und spezifische Bedingungen der Lernumgebung in der Lehrkräftebildung zu untersuchen (Bach, 2022). Ausgehend von der Annahme, dass die Unterstützung von Reflexionsprozessen in der Lehrkräftebildung (Menon & Azam, 2021) und der Einsatz innovativer Lernsettings wie VR-Videos (Nissim & Weissblueth, 2017) die Entwicklung von Selbstwirksamkeitserwartungen von Lehramtsstudierenden fördern, werden in Studie 3 und Studie 4 Reflexionsprozesse bei Lehramtsstudierenden in Bezug auf ihre eigenen Unterrichtserfahrungen bzw. stellvertretenden Unterrichtserfahrungen anderer untersucht. Vor dem Hintergrund inkonsistenter Befunde und fehlender empirischer Forschung zu den Zusammenhängen zwischen Selbstwirksamkeit von Lehramtsstudierenden und verschiedenen Faktoren, die das Lernumfeld oder persönliche Merkmale betreffen, sind weitere empirische Studien erforderlich, die verschiedene Quellen und Zusammenhänge der Selbstwirksamkeitserwartungen von Lehramtsstudierenden während des Lehramtsstudiums untersuchen. In diesem Zusammenhang wird in der vorliegenden Dissertation der Frage nachgegangen, welche individuellen Merkmale und Lernumgebungen die Selbstwirksamkeit von Lehramtsstudierenden – insbesondere während kurzer schulpraktischer Phasen im Lehramtsstudium fördern können. Darüber hinaus schließt die Dissertation mit der Diskussion der Ergebnisse aus den vier Teilstudien ab, indem Stärken und Schwächen jeder Studie gesamtheitlich in den Blick genommen werden. Abschließend werden Limitationen und Implikationen für die weitere Forschung und die Praxis diskutiert.
Die Conversos
(2022)
Das 15. Jahrhundert ist das Zeitalter der letzten Massenkonversionen zum Christentum auf der Iberischen Halbinsel. Unter starkem Druck und zum Teil mit Gewalt wurde die zuvor große jüdische Bevölkerung gedrängt, sich taufen zu lassen. Gleichwohl akzeptierten große Teile der christlichen Mehrheit die Neubekehrten nicht als gleichwertig und bezweifelten ihre Rechtgläubigkeit. Gegen diese Diskriminierung wandten sich immer wieder Geistliche und Gelehrte mit Predigten, Briefen und Denkschriften. Die vorliegende Studie zeichnet erstmals detailliert die wesentlichen Inhalte ihrer Theologie nach, ihre spezielle Auslegung der Bibel und deren Wurzeln in Recht und Tradition der lateinischen Kirche.
Die Arbeit ist ein Beitrag zu einer grundlegenden Diskussion der Kapitalmarktforschung, dem messbaren Erfolg „aktiver vs. passiver“ Investmentstrategien. Der Autor setzt sich kritisch mit den wesentlichen Anlagestrategien und Modellen für Indexprodukte auseinander und beleuchtet zugleich Closet Indexing bei aktiv gemanagten Investmentfonds. Das Ergebnis zeigt, dass Closet Indexing nicht nur sporadisch auftritt, sondern eine weit verbreitete Anlagestrategie in vielen vermeintlich aktiv gemanagten Aktieninvestmentfonds ist.
Die Arbeit gibt einen Einblick in die Verständigungspraxen bei Stadtführungen mit (ehemaligen) Obdachlosen, die in ihrem Selbstverständnis auf die Herstellung von Verständnis, Toleranz und Anerkennung für von Obdachlosigkeit betroffene Personen zielen. Zunächst wird in den Diskurs des Slumtourismus eingeführt und, angesichts der Vielfalt der damit verbundenen Erscheinungsformen, Slumming als organisierte Begegnung mit sozialer Ungleichheit definiert. Die zentralen Diskurslinien und die darin eingewobenen moralischen Positionen werden nachvollzogen und im Rahmen der eigenommenen wissenssoziologischen Perspektive als Ausdruck einer per se polykontexturalen Praxis re-interpretiert. Slumming erscheint dann als eine organisierte Begegnung von Lebensformen, die sich in einer Weise fremd sind, als dass ein unmittelbares Verstehen unwahrscheinlich erscheint und genau aus diesem Grund auf der Basis von gängigen Interpretationen des Common Sense ausgehandelt werden muss. Vor diesem Hintergrund untersucht die vorliegende Arbeit, wie sich Teilnehmer und Stadtführer über die Erfahrung der Obdachlosigkeit praktisch verständigen und welcher Art das hierüber erzeugte Verständnis für die im öffentlichen Diskurs mit vielfältigen stigmatisierenden Zuschreibungen versehenen Obdachlosen ist. Dabei interessiert besonders, in Bezug auf welche Aspekte der Erfahrung von Obdachlosigkeit ein gemeinsames Verständnis möglich wird und an welchen Stellen dieses an Grenzen gerät. Dazu wurden die Gesprächsverläufe auf neun Stadtführungen mit (ehemaligen) obdachlosen Stadtführern unterschiedlicher Anbieter im deutschsprachigen Raum verschriftlicht und mit dem Verfahren der Dokumentarischen Methode ausgewertet. Die vergleichende Betrachtung der Verständigungspraxen eröffnet nicht zuletzt eine differenzierte Perspektive auf die in den Prozessen der Verständigung immer schon eingewobenen Anerkennungspraktiken. Mit Blick auf die moralische Debatte um organisierte Begegnungen mit sozialer Ungleichheit wird dadurch eine ethische Perspektive angeregt, in deren Zentrum Fragen zur Vermittlungsarbeit stehen.
Lehrkräftefortbildungen bieten in Deutschland im Rahmen der dritten Phase der Lehrkräftebildung eine zentrale Lerngelegenheit für die Kompetenzentwicklung der Lehr-kräfte (Avalos, 2011; Guskey & Yoon, 2009). In dieser Phase können Lehrkräfte aus einem Angebot an berufsbegleitenden Lerngelegenheiten wählen, die auf die Anpassung und Weiterentwicklung ihrer professionellen Kompetenzen abzielen. Im Rahmen dieser Professionalisierungsmaßnahmen haben Lehrkräfte Gelegenheit zur Reflexion und Weiterentwicklung ihrer Unterrichtspraxis. Deshalb sind Lehrkräftefortbildungen auch für die Entwicklung von Unterrichtsqualität und das Lernen der Schüler:innen bedeutsam (Lipowsky, 2014).
Ergebnisse der Nutzungsforschung zeigen jedoch, dass das Fortbildungsangebot nicht von allen Lehrkräften im vollen Umfang genutzt wird und sich Lehrkräfte in dem Nutzungsumfang dieser beruflichen Lerngelegenheiten unterscheiden (Hoffmann & Richter, 2016). Das hat zur Folge, dass das Wirkpotenzial des Fortbildungsangebots nicht voll ausgeschöpft werden kann. Um die Nutzung von Lehrkräftefortbildungen zu fördern, werden auf unterschiedlichen Ebenen verschiedene Steuerungsinstrumente von Akteuren eingesetzt. Die Frage nach der Steuerungsmöglichkeit im Rahmen der dritten Phase der Lehrkräftebildung ist bislang jedoch weitestgehend unbearbeitet geblieben.
Die vorliegende Arbeit knüpft an die bestehende Forschung zur Lehrkräftefortbildung an und nutzt die theoretische Perspektive der Educational Governance, um im Rahmen von vier Teilstudien der Frage nachzugehen, welche Instrumente und Potenziale der Steue-rung auf den unterschiedlichen Ebenen des Lehrkräftefortbildungssystems bestehen und wie diese durch die verschiedenen politischen und schulischen Akteure umgesetzt werden. Außerdem soll der Frage nachgegangen werden, wie wirksam die genutzten Steuerungsinstrumente im Hinblick auf die Nutzung von Lehrkräftefortbildungen sind. Die übergeordnete Fragestellung wird vor dem Hintergrund eines für das Lehrkräftefortbildungssystem abgelei-teten theoretischen Rahmenmodells in Form eines Mehrebenenmodells bearbeitet, welches als Grundlage für die theoretische Verortung der nachfolgenden empirischen Untersuchungen zur Fortbildungsnutzung und der Wirksamkeit verschiedener Steuerungsinstrumente dient.
Studie I nimmt vor diesem Hintergrund die Ebene der politischen Akteure in den Blick und geht der Frage nach, wie bedeutsam die gesetzliche Fortbildungspflicht für die Fortbildungsbeteiligung von Lehrkräften ist. Hierzu wurde untersucht, inwiefern Zusammenhänge zwischen der Fortbildungsteilnahme von Lehrkräften und der Zugehörigkeit zu Bundesländern mit und ohne konkreter Fortbildungsverpflichtung sowie zu Bundesländern mit und ohne Nachweispflicht absolvierter Fortbildungen bestehen. Dazu wurden Daten aus dem IQB-Ländervergleich 2011 und 2012 sowie dem IQB-Bildungstrend 2015 mittels logistischer und linearer Regressionsmodelle analysiert.
Studie II und Studie III widmen sich den Rahmenbedingungen für schulinterne Fortbildungen. Studie II befasst sich zunächst mit schulformspezifischen Unterschieden bei der Wahl der Fortbildungsthemen. Studie III untersucht das schulinterne Fortbildungsangebot hinsichtlich des Nutzungsumfangs und des Zusammenhangs zwischen Schulmerkmalen und der Nutzung unterschiedlicher Fortbildungsthemen. Darüber hinaus wird ein Vergleich zwi-schen den beiden Angebotsformaten hinsichtlich des jeweiligen Anteils an thematischen Fortbildungsveranstaltungen vorgenommen. Hierzu wurden Daten der Fortbildungsdatenbank des Landes Brandenburg ausgewertet.
Neben der Untersuchung der Fortbildungsteilnahme im Zusammenhang mit administrativen Vorgaben und der Nutzung des schulinternen Fortbildungsangebots auf Schulebene wurde zur Bearbeitung der übergeordneten Forschungsfrage der vorliegenden Arbeit in der Studie IV darüber hinaus eine Untersuchung des Einsatzes von Professionalisierungsmaßnahmen im Rahmen schulischer Personalentwicklung durchgeführt. Durch die qualitative Studie IV wurde ein vertiefender Einblick in die schulische Praxis ermöglicht, um die Kenntnisse aus den quantitativen Studien I bis III zu ergänzen. Im Rahmen einer qualitati-ven Interviewstudie wurde der Frage nachgegangen werden, wie Schulleitungen ausgezeichneter Schulen Personalentwicklung auffassen, welche Informationsquellen sie hierbei mit einbeziehen und welche Maßnahmen sie nutzen und in diesem Sinne Personalentwicklung als ein Instrument für Organisationsentwicklung einsetzen.
Im abschließenden Kapitel der vorliegenden Arbeit werden die zentralen Ergebnisse der durchgeführten Studien zusammenfassend diskutiert. Die Ergebnisse der Arbeit deuten insgesamt darauf hin, dass Akteure auf den jeweiligen Ebenen direkte und indirekete Steuerungsinstrumente mit dem Ziel einsetzen, die Nutzung des zur Verfügung stehenden Angebots zu erhöhen, allerdings erzielen sie mit den genutzten Instrumenten nicht die gewünschte Steuerungswirkung. Da sie weder mit beruflichen Sanktionen noch mit Anreizen verknüpft sind, fehlt es den bestehenden Steuerungsinstrumenten an Durchsetzungsmacht. Außerdem wird das Repertoire an möglichen Steuerungsinstrumenten von den beteiligten Akteuren nicht ausgeschöpft. Die Ergebnisse dieser Arbeit bieten somit die Grundlage für anknüpfende Forschungsarbeiten und geben Anreize für mögliche Implikationen in der Praxis des Fortbildungssystems und der Bildungspolitik.
Respiratorische Erkrankungen stellen zunehmend eine relevante globale Problematik dar. Die Erweiterung bzw. Modifizierung von Applikationswegen möglicher Arzneimittel für gezielte topische Anwendungen ist dabei von größter Bedeutung. Die Variation eines bekannten Applikationsweges durch unterschiedliche technologische Umsetzungen kann die Vielfalt der Anwendungsmöglichkeiten, aber auch die Patienten-Compliance erhöhen. Die einfache und flexible Verfahrensweise durch schnelle Verfügbarkeit und eine handliche Technologie sind heutzutage wichtige Eigenschaften im Entwicklungsprozess eines Produktes. Eine direkte topische Behandlung von Atemwegserkrankungen am Wirkort in Form einer inhalativen Applikation bietet dabei viele Vorteile gegenüber einer systemischen Therapie. Die medizinische Inhalation von Wirkstoffen über die Lunge ist jedoch eine komplexe Herausforderung. Inhalatoren gehören zu den erklärungsbedürftigen Applikationsformen, die zur Erhöhung der konsequenten Einhaltung der Verordnung so einfach, wie möglich gestaltet werden müssen. Parallel besitzen und nutzen weltweit annähernd 68 Millionen Menschen die Technologie eines inhalativen Applikators zur bewussten Schädigung ihrer Gesundheit in Form einer elektronischen Zigarette. Diese bekannte Anwendung bietet die potentielle Möglichkeit einer verfügbaren, kostengünstigen und qualitätsgeprüften Gesundheitsmaßnahme zur Kontrolle, Prävention und Heilung von Atemwegserkrankungen. Sie erzeugt ein Aerosol durch elektrothermische Erwärmung eines sogenannten Liquids, das durch Kapillarkräfte eines Trägermaterials an ein Heizelement gelangt und verdampft. Ihr Bekanntheitsgrad zeigt, dass eine beabsichtigte Wirkung in den Atemwegen eintritt. Diese Wirkung könnte jedoch auch auf potentielle pharmazeutische Einsatzgebiete übertragbar sein. Die Vorteile der pulmonalen Verabreichung sind dabei vielfältig. Im Vergleich zur peroralen Applikation gelangt der Wirkstoff gezielt zum Wirkort. Wenn eine systemische Applikation zu Arzneimittelkonzentrationen unterhalb der therapeutischen Wirksamkeit in der Lunge führt, könnte eine inhalative Darreichung bereits bei niedriger Dosierung die gewünschten höheren Konzentrationen am Wirkort hervorrufen. Aufgrund der großen Resorptionsfläche der Lunge sind eine höhere Bioverfügbarkeit und ein schnellerer Wirkungseintritt infolge des fehlenden First-Pass-Effektes möglich. Es kommt ebenfalls zu minimalen systemischen Nebenwirkungen. Die elektronische Zigarette erzeugt wie die medizinischen Inhalatoren lungengängige Partikel. Die atemzuggesteuerte Technik ermöglicht eine unkomplizierte und intuitive Anwendung. Der prinzipielle Aufbau besteht aus einer elektrisch beheizten Wendel und einem Akku. Die Heizwendel ist von einem sogenannten Liquid in einem Tank umgeben und erzeugt das Aerosol. Das Liquid beinhaltet eine Basismischung bestehend aus Propylenglycol, Glycerin und reinem Wasser in unterschiedlichen prozentualen Anteilen. Es besteht die Annahme, dass das Basisliquid auch mit pharmazeutischen Wirkstoffen für die pulmonale Applikation beladen werden kann. Aufgrund der thermischen Belastung durch die e-Zigarette müssen potentielle Wirkstoffe sowie das Vehikel eine thermische Stabilität aufweisen.
Die potentielle medizinische Anwendung der Technologie einer handelsüblichen e-Zigarette wurde anhand von drei Schwerpunkten an vier Wirkstoffen untersucht. Die drei ätherischen Öle Eucalyptusöl, Minzöl und Nelkenöl wurden aufgrund ihrer leichten Flüchtigkeit und der historischen pharmazeutischen Anwendung anhand von Inhalationen bei Erkältungssymptomen bzw. im zahnmedizinischen Bereich gewählt. Das eingesetzte Cannabinoid Cannabidiol (CBD) hat einen aktuellen Bezug zu dem pharmazeutischen Markt Deutschlands zur Legalisierung von cannabishaltigen Produkten und der medizinischen Forschung zum inhalativen Konsum. Es wurden relevante wirkstoffhaltige Flüssigformulierungen entwickelt und hinsichtlich ihrer Verdampfbarkeit zu Aerosolen bewertet. In den quantitativen und qualitativen chromatographischen Untersuchungen konnten spezifische Verdampfungsprofile der Wirkstoffe erfasst und bewertet werden. Dabei stieg die verdampfte Masse der Leitsubstanzen 1,8-Cineol (Eucalyptusöl), Menthol (Minzöl) und Eugenol (Nelkenöl) zwischen 33,6 µg und 156,2 µg pro Zug proportional zur Konzentration im Liquid im Bereich zwischen 0,5% und 1,5% bei einer Leistung von 20 Watt. Die Freisetzungsrate von Cannabidiol hingegen schien unabhängig von der Konzentration im Liquid im Mittelwert bei 13,3 µg pro Zug zu liegen. Dieses konnte an fünf CBD-haltigen Liquids im Konzentrationsbereich zwischen 31 µg/g und 5120 µg/g Liquid gezeigt werden. Außerdem konnte eine Steigerung der verdampften Massen mit Zunahme der Leistung der e-Zigarette festgestellt werden. Die Interaktion der Liquids bzw. Aerosole mit den Bestandteilen des Speichels sowie weiterer gastrointestinaler Flüssigkeiten wurde über die Anwendung von zugehörigen in vitro Modellen und Einsatz von Enzymaktivitäts-Assays geprüft. In den Untersuchungen wurden Änderungen von Enzymaktivitäten anhand des oralen Schlüsselenzyms α-Amylase sowie von Proteasen ermittelt. Damit sollte exemplarisch ein möglicher Einfluss auf physiologische bzw. metabolische Prozesse im humanen Organismus geprüft werden. Das Bedampfen von biologischen Suspensionen führte bei niedriger Leistung der e-Zigarette (20 Watt) zu keiner bzw. einer leichten Änderung der Enzymaktivität. Die Anwendung einer hohen Leistung (80 Watt) bewirkte tendenziell das Herabsetzen der Enzymaktivitäten. Die Erhöhung der Enzymaktivitäten könnte zu einem enzymatischen Abbau von Schleimstoffen wie Mucinen führen, was wiederum die effektive, mechanische Abwehr gegenüber bakteriellen Infektionen zur Folge hätte. Da eine Anwendung der Applikation insbesondere bei bakteriellen Atemwegserkrankungen denkbar wäre, folgten abschließend Untersuchungen der antibakteriellen Eigenschaften der Liquids bzw. Aerosole in vitro. Es wurden sechs klinisch relevante bakterielle Krankheitserreger ausgewählt, die nach zwei Charakteristika gruppiert werden können. Die drei multiresistenten Bakterien Pseudomonas aeruginosa, Klebsiella pneumoniae und Methicillin-resistenter Staphylococcus aureus können mithilfe von üblichen Therapien mit Antibiotika nicht abgetötet werden und haben vor allem eine nosokomiale Relevanz. Die zweite Gruppe weist Eigenschaften auf, die vordergründig assoziiert sind mit respiratorischen Erkrankungen. Die Bakterien Streptococcus pneumoniae, Moraxella catarrhalis und Haemophilus influenzae sind repräsentativ beteiligt an Atemwegserkrankungen mit diverser Symptomatik. Die Bakterienarten wurden mit den jeweiligen Liquids behandelt bzw. bedampft und deren grundlegende Dosis-Wirkungsbeziehung charakterisiert. Dabei konnte eine antibakterielle Aktivität der Formulierungen ermittelt werden, die durch Zugabe eines Wirkstoffes die bereits antibakterielle Wirkung der Bestandteile Glycerin und Propylenglycol verstärkte. Die hygroskopischen Eigenschaften dieser Substanzen sind vermutlich für eine Wirkung in aerosolierter Form verantwortlich. Sie entziehen die Feuchtigkeit aus der Luft und haben einen austrocknenden Effekt auf die Bakterien. Das Bedampfen der Bakterienarten Streptococcus pneumoniae, Moraxella catarrhalis und Haemophilus influenzae hatte einen antibakteriellen Effekt, der zeitlich abhängig von der Leistung der e-Zigarette war.
Die Ergebnisse der Untersuchungen führen zu dem Schluss, dass jeder Wirkstoff bzw. jede Substanzklasse individuell zu bewerten ist und somit Inhalator und Formulierung aufeinander abgestimmt werden müssen. Der Einsatz der e-Zigarette als Medizinprodukt zur Applikation von Arzneimitteln setzt stets Prüfungen nach Europäischem Arzneibuch voraus. Durch Modifizierungen könnte eine Dosierung gut kontrollierbar gemacht werden, aber auch die Partikelgrößenverteilung kann insoweit reguliert werden, dass die Wirkstoffe je nach Partikelgröße zu einem geeigneten Applikationsort wie Mund, Rachen oder Bronchien transportiert werden. Der Vergleich mit den Eigenschaften anderer medizinischer Inhalatoren führt zu dem Schluss, dass die Technologie der e-Zigarette durchaus eine gleichartige oder bessere Performance für thermisch stabile Wirkstoffe bieten könnte. Dieses fiktive Medizinprodukt könnte aus einer hersteller-unspezifisch produzierten, wieder aufladbaren Energiequelle mit Universalgewinde zum mehrfachen Gebrauch und einer hersteller- und wirkstoffspezifisch produzierten Einheit aus Verdampfer und Arzneimittel bestehen. Das Arzneimittel, ein medizinisches Liquid (Vehikel und Wirkstoff) kann in dem Tank des Verdampfers mit konstanten, nicht variablen Parametern patientenindividuell produziert werden. Inhalative Anwendungen werden perspektivisch wohl nicht zuletzt aufgrund der aktuellen COVID-19-Pandemie eine zunehmende Rolle spielen. Der Bedarf nach alternativen Therapieoptionen wird weiter ansteigen. Diese Arbeit liefert einen Beitrag zum Einsatz der Technologie der elektronischen Zigarette als electronic nicotin delivery system (ENDS) nach Modifizierung zu einem potentiellen pulmonalen Applikationssystem als electronic drug delivery system (EDDS) von inhalativen, thermisch stabilen Arzneimitteln in Form eines Medizinproduktes.
Das Totenfürsorgerecht
(2022)
Die vorliegende Untersuchung befasst sich mit den allgegenwärtigen Fragen, welches rechtliche Schicksal der menschliche Körper nach dem Tod nimmt, ob der Leichnam vererbt wird und wer in welchem Umfang über ihn bestimmen darf. Die Autorin gelangt zu dem Ergebnis, dass das Totenfürsorgerecht als wesentlicher Bestandteil des - im Grundgesetz als Staatszielbestimmung zu verankernden - sog. postmortalen Persönlichkeitsschutzes auf die Wahrung der Pietät ziele und zuvörderst dem Willen des Verstorbenen verpflichtet sei. Bei unbekanntem Verstorbenenwillen dürfe der Totenfürsorgeberechtigte aber in einigen wenigen Bereichen auch eigene Entscheidungen über den ihm anvertrauten Leichnam treffen. Der Umgang mit dem Leichnam lasse sich bislang keinem bekannten Rechtsinstitut zuordnen und stelle Gewohnheitsrecht dar. Gegenwärtig herrsche Rechtsunsicherheit. Zur Behebung des gesetzgeberischen Defizits schlägt die Autorin ein Bundesgesetz vor und unterbreitet hierfür einen Gesetzesvorschlag.
Die allergische Kontaktdermatitis ist eine immunologisch bedingte Hauterkrankung mit insbesondere in den westlichen Industrienationen hoher und weiter ansteigender Prävalenz. Es handelt sich hierbei um eine Hypersensitivitätsreaktion vom Typ IV, die sich nach Allergenkontakt durch Juckreiz, Rötung, Bläschenbildung und Abschälung der Haut äußert. Zahlreiche Xenobiotika besitzen das Potenzial, Kontaktallergien auszulösen, darunter Konservierungsstoffe, Medikamente, Duftstoffe und Chemikalien. Die wirksamste Maßnahme zur Eindämmung der Erkrankung ist die Expositionsprophylaxe, also die Vermeidung des Kontakts mit den entsprechenden Substanzen. Dies wiederum setzt die Kenntnis des jeweiligen sensibilisierenden Potenzials einer Substanz voraus, dessen Bestimmung aus diesem Grund eine hohe toxikologische Relevanz besitzt. Zu diesem Zweck existieren von der OECD veröffentlichte Testleitlinien, welche auf entsprechend validierten Testmethoden basieren. Goldstandard bei der Prüfung auf hautsensibilisierendes Potenzial war über lange Zeit der murine Lokale Lymphknotentest. Seit der 7. Änderung der EU-Kosmetikrichtlinie, welche Tierversuche für Kosmetika und deren Inhaltsstoffe untersagt, wurden vermehrt Alternativmethoden in die OECD-Testleitlinien implementiert.. Die bestehenden in vitro Methoden sind jedoch alleinstehend nur begrenzt aussagekräftig, da sie lediglich singuläre Mechanismen bei der Entstehung einer Kontaktallergie abbilden. Die Entwicklung von Testmethoden, welche mehrere dieser Schlüsselereignisse berücksichtigen, erscheint daher richtungsweisend. Einen vielversprechenden Ansatz liefert hierbei der Loose-fit coculture-based sensitisation assay (LCSA), welcher eine Kokultur aus primären Keratinozyten und PBMC darstellt. Bei der Kokultivierung von Immunzellen mit anderen Zelltypen stellt sich allerdings die Frage, inwiefern die Nutzung von Zellen derselben Spender*innen (autologe Kokultur) bzw. verschiedener Spender*innen (allogene Kokultur) einen Einfluss nimmt. Zu diesem Zweck wurden im Rahmen dieser Arbeit Hautzellen spenderspezifisch aus gezupften Haarfollikeln isoliert und der LCSA mit den generierten HFDK in autologen und allogenen Ansätzen verglichen. Zusätzlich wurde auch ein Vergleich zwischen der Nutzung von HFDK und NHK, welche aus humaner Vorhaut isoliert wurden, im LCSA durchgeführt. Dabei ergaben sich keine signifikanten Unterschiede zwischen autologen und allogenen Kokulturen bzw. zwischen der Verwendung von HFDK und NHK. Die Verwendung allogener Zellen aus anonymem Spendermaterial sowie die Nutzung von Keratinozyten aus unterschiedlichen Quellen scheint im Rahmen des LCSA problemlos möglich. Einige der getesteten Kontaktallergene, darunter DNCB und NiCl2, erwiesen sich im LCSA jedoch als problematisch und konnten nicht zufriedenstellend als sensibilisierend detektiert werden. Daher wurde eine Optimierung der Kokultur durch Verwendung ex vivo differenzierter Langerhans Zellen (MoLC) angestrebt, welche ein besseres Modell primärer epidermaler Langerhans Zellen darstellen als die dendritischen Zellen aus dem LCSA. Zusätzlich wurden weitere, den Erfolg der Kokultur beeinflussende Faktoren, wie die Art und Zusammensetzung des Mediums und die Kokultivierungsdauer, untersucht und angepasst. Das schlussendlich etablierte Kokultivierungsprotokoll führte zu einer maßgeblich verstärkten Expression von CD207 (Langerin) auf den MoLC, was auf eine wirkungsvolle Interaktion zwischen Haut- und Immunzellen in der Kokultur hindeutete. Des Weiteren konnten DNCB und NiCl2 im Gegensatz zum LCSA durch Verwendung des kostimulatorischen Moleküls CD86 sowie des Reifungsmarkers CD83 als Ausleseparameter eindeutig als Kontaktallergene identifiziert werden. Die Untersuchungen zur Kokultur von MoLC und HFDK wurden jeweils vergleichend in autologen und allogenen Ansätzen durchgeführt. Ähnlich wie beim LCSA kam es aber auch hier zu keinen signifikanten Unterschieden, weder hinsichtlich der Expression von Charakterisierungs- und Aktivierungsmarkern auf MoLC noch hinsichtlich der Zytokinsekretion in den Zellkulturüberstand. Die Hinweise aus zahlreichen Studien im Mausmodell, dass Zellen des angeborenen Immunsystems zur Erkennung von und Aktivierung durch allogene Zellen bzw. Gewebe in der Lage sind, bestätigten sich im Rahmen dieser Arbeit dementsprechend nicht. Aus diesem Grund wurden abschließend CD4+ T-Lymphozyten, die Effektorzellen des adaptiven Immunsystems, in die Kokultur aus MoLC und autologen bzw. allogenen HFDK integriert. Überraschenderweise traten auch hier keine verstärkten Aktivierungen in allogener Kokultur im Vergleich zur autologen Kokultur auf. Die Nutzung autologer Primärzellen scheint im Rahmen der hier getesteten Methoden nicht notwendig zu sein, was die Validierung von Kokulturen und deren Implementierung in die OECD-Testleitlinien erleichtern dürfte. Zuletzt wurde eine Kokultivierung primärer Haut- und Immunzellen auch im 3D-Vollhautmodell durchgeführt, wobei autologe MoLC in die Epidermisäquivalente entsprechender Modelle integriert werden sollten. Obwohl die erstellten Hautmodelle unter Verwendung autologer Haarfollikel-generierter Keratinozyten und Fibroblasten eine zufriedenstellende Differenzierung und Stratifizierung aufwiesen, gestaltete sich die Inkorporation der MoLC als problematisch und konnte im Rahmen dieser Arbeit nicht erreicht werden.