Refine
Has Fulltext
- yes (104) (remove)
Year of publication
- 2021 (104) (remove)
Document Type
- Doctoral Thesis (39)
- Article (13)
- Master's Thesis (13)
- Part of Periodical (11)
- Bachelor Thesis (7)
- Report (7)
- Monograph/Edited Volume (5)
- Postprint (4)
- Course Material (1)
- Habilitation Thesis (1)
Language
- German (104) (remove)
Is part of the Bibliography
- yes (104) (remove)
Keywords
- Digitalisierung (3)
- Bildung (2)
- Bildungstechnologien (2)
- Corona (2)
- DDR (2)
- Educational Technologies (2)
- Fachwissen (2)
- Forschungsdaten (2)
- GDR (2)
- Gamification (2)
Institute
- Institut für Romanistik (8)
- Institut für Chemie (7)
- MenschenRechtsZentrum (7)
- Fachgruppe Politik- & Verwaltungswissenschaft (6)
- Institut für Informatik und Computational Science (6)
- Historisches Institut (5)
- Institut für Umweltwissenschaften und Geographie (5)
- Referat für Presse- und Öffentlichkeitsarbeit (5)
- Wirtschaftswissenschaften (5)
- Department Erziehungswissenschaft (4)
Das Angebot digitaler Plattformen ist mittlerweile auch im Maschinen- und Anlagenbau weit verbreitet. Dabei konnte in den letzten Jahren der Trend verzeichnet werden, dass die Herstellerunternehmen von Maschinen und Anlagen nicht mehr ausschließlich physische Produkte veräußern, sondern zusätzliche auf das Produkt abgestimmte Dienstleistungen, wie bspw. digitale Services. Dieser Wandel kann einen großen Einfluss auf die Veränderung des Geschäftsmodells haben und je nach Komplexität der digitalen Plattformen unterschiedliche Ausmaße annehmen, die auch strategische Entscheidungen bestimmen können. In diesem Beitrag wird eine Klassifizierung der digitalen Plattformen im deutschen Maschinen- und Anlagenbau vorgenommen, mithilfe derer unterschiedliche Plattformtypen auf Grundlage ihrer Funktionszusammensetzung identifiziert werden. Demnach können bspw. Plattformen, über die lediglich grundlegende Funktionen wie die Verwaltung von Maschinen angeboten werden, von umfangreicheren Plattformen unterschieden werden, die eine höhere Komplexität aufweisen und somit einen größeren Einfluss auf die Veränderung des Geschäftsmodells haben. Diese Einteilung unterschiedlicher Plattformtypen kann Unternehmen im Maschinen- und Anlagenbau dabei unterstützen, strategische Entscheidungen bezüglich der Entwicklung und des Angebots digitaler Plattformen zu treffen und eine Einordnung ihrer digitalen Plattform im Wettbewerb vorzunehmen.
Die Geschichtsschreibung terminiert das Ende des deutschen Zionismus bisher mit dem NS-Verbot der Zionistischen Vereinigung für Deutschland im Zuge des Novemberpogroms 1938. Zu diesem Zeitpunkt hatte er aber von seinem geographischen Kontext entgrenzt, in Erez Israel bereits neue Wurzeln geschlagen. Zionisten aus Deutschland schickten sich nun an, mit ihrem spezifischen Erfahrungshorizont und Wertemaßstab und mitgebrachtem ideologischen Rüstzeug die Entwicklung des jüdischen Nationalheims mitzugestalten und einer umfassenden ökonomischen, kulturellen und politischen Akkulturation der deutschen Alijah den Weg zu bahnen. Entgegen aller zionistischen Theorie gründeten sie auf landsmannschaftlicher Basis im Jahr 1932 die Selbsthilfeorganisation Hitachduth Olej Germania und während des Weltkrieges die Partei Alija Chadascha.
Die Dissertation beinhaltet die Gesamtschau des deutschen Zionismus in seiner letzten Phase in den Jahren 1932 bis 1948; zugleich beleuchtet sie die Geschichte der etwa 60.000 in Palästina eingewanderten Juden aus Deutschland in der für diese Abhandlung relevanten Zeitperiode. Im ersten Teil wird in chronologischer Folge die 1932 beginnende letztmalige Sammlung und Neuformierung des deutschen Zionismus in seiner neu-alten Heimat dargestellt. Wenn man so will, die formativen Jahre im personellen, organisatorischen und ideologisch-politischen Sinne, die schließlich nach dem fast gänzlichen Scheitern der politischen Integration der deutschen Alijah mit der – in der Rückschau – fast zwangsläufig erscheinenden Begründung der Alija Chadascha ihren Abschluss fanden. Im zweiten Teil werden die Positionen der deutschen Zionisten zu den existenziellen Fragen der jüdischen Gemeinschaft in Palästina, hebräisch Jischuw genannt, in der im Fokus stehenden Zeitperiode dargestellt. Im Einzelnen handelt es sich erstens um die Einwanderungsfrage, die untrennbar verbunden war mit der in der zionistischen Theorie unabdingbaren Forderung nach der Erlangung einer jüdischen Majorität in Palästina; zweitens um die der staatlichen Ausgestaltung des zukünftigen jüdischen Gemeinwesens und drittens um die Frage der adäquaten Reaktion des Jischuw auf die Schoah. In diese jeweils in separaten Kapiteln behandelten Themenkomplexe wird die Frage nach dem anzustrebenden Verhältnis zur britischen Mandatsmacht mit einfließen. Hieran mussten die deutschen Zionisten ihr mitgebrachtes geistig-ideologisches Rüstzeug einem Praxistest unterziehen und nach realpolitischen Antworten suchen.
Dem kometenhaften Aufstieg der weiterhin landsmannschaftlich geprägten Alija Chadascha folgte dann in den ersten Nachkriegsjahren ein ebenso rapider Zerfall. Einige Monate nach der Staatsgründung Israels löste sie sich dann sang- und klanglos auf und das Gros ihrer Aktivisten integrierte sich in das Parteiengefüge des neuen Staates. Der deutsche Zionismus als politische Bewegung kam nun wirklich an sein Ende. Diese Abhandlung wird somit zum einen den Kampf der deutschen Alijah um gesellschaftliche Anerkennung und politische Partizipation im Jischuw nachzeichnen und zum anderen eine geistig-ideologische Verortung des deutschen Zionismus in seiner letzten Phase vollziehen und Tendenzen der ideologischen Neuausrichtung offenlegen. Darüber hinaus werden in der Historiographie vorhandene Allgemeinplätze wie die fast allseits anerkannte These vom Scheitern der deutschen Zionisten in der neuen Heimat einer Überprüfung unterzogen. Die letzte vorhandene Leerstelle im wissenschaftlichen Kanon zur mehr als 50-jährigen Geschichte des deutschen Zionismus wird somit geschlossen.
Es ist meist ein homogenes Verständnis vom Schulwesen, das in den Köpfen vieler Pädagog*innen, Lehrer*innen, Eltern und Bildungspolitiker*innen scheinbar zu Erfolg von Schule und Bildung führt und noch tief sitzt. Dass real existierende Heterogenität, die sich alltäglich Lehrer*innen und Pädagog*innen zeigt, als problematisch und konfliktreich gesehen wird, ist durch meine zahlreichen persönlichen und fachlichen Erlebnisse im Austausch in Lehrerfortbildungen sowie im Rahmen von Elternarbeit und schulischen Gremien eine häufige Erfahrung. Wo Diversität und Unterschiede gesehen und empfunden werden, wird Diskriminierung nicht ausgeschlossen.
Doch was erklärt diese negativ behaftete Haltung und den Umgang mit Vielfalt? Welche Problemfelder sind in der Auseinandersetzung mit Diversität an Schulen in Berlin zu verorten? Können Diversitäts- und Antidiskriminierungskonzepte etwas Positives im professionellen Umgang mit Vielfalt an Schulen bewirken? Wo liegen Chancen in der Umsetzung solcher Konzepte? Welche Hindernisse stehen dem im Weg? Kann Diversität als Markenzeichen einer Schule gesehen werden?
Als Forscherin ist es essenziell, in Bezug auf die problemorientierte Sicht auf Diversität an Schulen den für mich offenen Fragen nachzugehen und ebenso die vielfältigen Perspektiven von Expert*innen auf diese Thematik im Rahmen dieser Arbeit aufzuzeigen, um Chancen und Herausforderungen zu den genannten Fragen im schulischen Kontext zu ergründen. Mit dieser Masterarbeit können zudem Impulse für eine Reformierung der Schulentwicklungsarbeit sowie Anstöße für weitere Forschungsarbeiten im Bereich der Diversitätsprozesse an unseren Schulen gegeben werden. Im kommenden Kapitel gehe ich auf einige wesentliche Anhaltspunkte ein, die dieser Forschung Relevanz verleihen.
Das Hauptziel der Bachelorarbeit stellt eine theoretische Auseinandersetzung mit dem Thema Wassergewöhnung im eigenen Zuhause dar. Ausgehend von dieser Ausführung erstellt die Autorin als Theorie-Praxis-Transfer eine Handreichung für Erziehungsberechtigte mit den relevantesten Informationen ihrer Qualifikationsarbeit in komprimierter Form. Damit die Erziehungsberechtigten ihren Kindern proaktiv zur Seite stehen können, soll die Handreichung adressat*innengerecht und prägnant sein, ohne den Erziehungsberechtigten essenzielle Details vorzuenthalten. Die Erziehungsberechtigten erhalten eine Handreichung, welche die bedeutendsten Informationen rund um die Wassergewöhnung zu Hause enthält. Sie erfahren unter anderem etwas über die höchstmögliche Aufenthaltsdauer der Kinder im Wasser und die optimale Temperatur des Badewassers. Außerdem erhalten sie wichtige Informationen rund um die Körperreaktionen, welche durch oder im Wasser auftreten können. Das sind bspw. der Lidschlussreflex oder der Kältereiz. Sie werden über essenzielle Sicherheitsaspekte informiert und erhalten eine kompakte Darstellung über Verhaltensregeln, den sogenannten do’s and dont‘s. Die Übungen/Spiele werden nach den aktuellen Vorgaben der DGUV (2019) für die Inhalte der Wassergewöhnung ausgewählt und nach den heimischen Voraussetzungen strukturiert sein. In der Handreichung werden zudem auch Übungen/Spiele zu finden sein, bei welchen keine Eigenschaften oder Wirkungen des Wassers kennengelernt werden. Atem- und Tauchübungen werden in der Handreichung ebenso beschrieben. Die Angst vor dem Wasser stellt, sobald sie sich manifestiert, bekanntlich das größte Hindernis der Nichtschwimmer*innen dar (DGUV, 2019). Darum möchte die Autorin mit der Aufklärung über diese Angst in ihrer Qualifikationsarbeit und der Handreichung bewirken, dass die Erziehungsberechtigten in der Lage sind, den Kindern das Angstgefühl gegenüber dem Wasser zu nehmen oder ihre Angstfreiheit beizubehalten und um daran anschließend den Kindern Freude an der Bewegung im Wasser zu ermöglichen. „Je mehr Freude die Kinder im Kleinkindalter am Baden haben, je weniger Angst sie mit dem Medium verbinden, umso schneller erlernen sie später das Schwimmen“ (DGUV, 2016, S. 6).
Die theoretischen Grundlagen der Handreichungen stellen die zentralen Aspekte und Ziele der Wassergewöhnung dar. Diese werden der, im Rahmen Schule, bedeutsamen Publikation der Deutschen Gesetzlichen Unfallversicherung aus dem Jahr 2019 entnommen. Hierbei handelt es sich um die Wahrnehmung der spezifischen Voraussetzungen des Wassers sowie deren Annäherung und Gewöhnung. Die Kinder erfahren die Eigenschaften Dichte, Druck und Temperatur des Elements und den Einfluss des Wassers auf den Körper. Das sind Wasserwiderstand, Auftrieb und die Wasserkraft. So werden die Übungen, in denen die Kinder das Wasser kennenlernen, beziehungsweise zum ersten Mal intensiv in Berührung mit diesem kommen, zu Beginn erwähnt. Anschließend folgen Übungen, überwiegend in Spielformen, bei denen die Freude geweckt werden soll. Als letzte Phase folgen Übungen, bei welchen der spezifische Umgang mit dem Wassers vonnöten ist. Diese Struktur ist an den ersten drei Phasen nach Baumeisters (1984) Methodik zur Wassergewöhnung orientiert. So wird zudem das methodische Prinzip vom Einfachen zum Komplexen als theoretische Grundlage verwendet. Legahn (2007) beschreibt einige Lernmodelle, die je nach Alter und Entwicklungsstand bei der Wassergewöhnung angewendet werden können. In der Handreichung wird die Autorin auf diese zurückgreifen und passende Lerntechniken ausführen. Beispiele hierfür sind unter anderem das Lernen am Modell (Nachahmung von Personen, Tieren oder Puppen) oder das Aktive Lernen (ein spielerischer Bewegungsaufbau verbessert die Fertigkeiten). Die benötigten Materialien werden in der Handreichung unter der Überschrift der Übungen/Spiele ausgeführt und dienen als erste Information. Neben der Überschrift werden die möglichen Eigenschaften und Wirkungen des Wassers, welche in dieser spezifischen Übung kennengelernt werden, benannt. Das sind beispielsweise Druck und Auftrieb für Wasserdruck und Wasserauftrieb. Darunter wird die jeweilige Übung beschrieben. Als Visualisierung erstellt die Autorin selbstständig gezeichnete Bilder. Unterhalb dieser Bilder befindet sich oft auch eine passende Spielvariante, um mit dieser Übung noch zusätzlich Freude zu wecken. Ebenso werden auch mehrmals passende Übungsformen oder Tipps erwähnt.
Soziale Medien sind ein wesentlicher Bestandteil des Alltags von Schüler*innen und gleichzeitig zunehmend wichtig in Wirtschaft, Politik und Wissenschaft. Am Beispiel von Twitter zeigt dieser Beitrag, dass soziale Medien im Unterricht auch für die Beantwortung geographischer Fragestellungen verwendet werden können. Hierfür eignen sich Twitter-Daten aufgrund ihrer Georeferenzierung und weiterer interessanter Inhalte besonders. Der Beitrag gibt einen Überblick über die Verwendung von Twitter für sozialwissenschaftliche und humangeographische Fragestellungen und reflektiert die Nutzung von Twitter im Unterricht. Für die Unterrichtspraxis werden Beispiele zu den Themen Braunkohle, Flutereignisse und Raumwahrnehmungen sowie Anleitungen zur Auswertung, Anwendung und Reflexion von Twitter-Analysen vorgestellt.
Durch den demographischen Wandel wird das Erwerbspersonenpotential und damit die Anzahl erwerbstätiger Personen, insbesondere die Zahl der Fachkräfte in den kommen-den Jahren in Deutschland zurückgehen. Aufgrund dessen wird es für Arbeitgeber zukünftig schwieriger werden, qualifizierten Nachwuchs zu finden. Aufgrund seiner Alterstruktur und der zunehmenden Arbeitsverdichtung ist der öffentliche Dienst, sowie der Teilbereich der öffentlichen Verwaltung, stärker als andere Arbeitgeber mit der Notwendigkeit konfrontiert, mittelfristig externes Personal zu rekrutieren. In Anbetracht dessen ging die Arbeit der Frage nach, inwieweit die öffentliche Verwaltung das hierfür geeignete, innovative Instrument des Social - Media - Personalmarketings bereits imple-mentiert hat und wie sich das ermittelte Ergebnis erklären lässt. Hinsichtlich der aktuellen Anwendung konnte festgestellt werden, dass Social - Media - Personalmarketing erst vor Kurzem in der öffentlichen Verwaltung implementiert wurde und aufgrund dessen gegenwärtig primär zur operativen Personalgewinnung genutzt wird. Als erklärende Einflussfaktoren konnten im Rahmen einer empirischen Untersuchung die mangelnde Relevanz des Personalmarketings als Aufgabe der öffentlichen Verwaltung, der aktuelle Per-sonalbestand und dessen digitale Kompetenzen, sowie die hierarchisch geprägten Kommunikationswege innerhalb der öffentlichen Verwaltung ermittelt werden. Mit Ausnahme der Kommunikationswege decken die Faktoren sich mit denen der Privatwirtschaft. Die öffentliche Verwaltung ist dazu angehalten, den aktuellen Ausprägungsgrad der Amtshierarchie kritisch zu hinterfragen, um das volle Potential des Social - Media - Personalmarketings zukünftig zu heben.
Das Therapiemanagement bei Lipödem stellt auf Grund unzureichenden Wissensstandes in entscheidenden Aspekten eine besondere Herausforderung dar. Da die Pathogenese der Erkrankung nicht hinreichend geklärt ist und bislang kein pathognomonisches Diagnostikkriterium definiert wurde, beklagen viele Betroffene einen langjährigen Leidensweg bis zur Einleitung von Therapiemaßnahmen. Durch Steigerung der Awareness der Erkrankung in den letzten Jahren konnten die Intervalle bis zur korrekten Diagnose erfreulicherweise erheblich verkürzt werden. Obwohl die Zuordnung der Beschwerden zu einer klar definierten Erkrankung für viele Patientinnen eine Erleichterung ist, stellt die Erkenntnis über begrenzte Therapiemöglichkeiten häufig eine neuerliche Belastung dar.
Als Konsequenz der ungeklärten Pathogenese konnte bis dato keine kausale Therapie für das Lipödem definiert werden. Zu Beginn waren die Möglichkeiten konservativer Behandlungsstrategien nur eingeschränkt in den Rahmen eines allgemeingültigen Konzeptes involviert und insbesondere Limitationen nicht klar definiert. Obwohl in diversen Bereichen der Therapie weiterhin keine ausreichende Evidenz besteht, konnten durch eine systematische Aufarbeitung die grundsätzlichen Behandlungsoptionen in Relation zueinander gesetzt werden. Betroffene Patientinnen, sowie die verschiedenen in die Behandlung integrierte medizinische Disziplinen verfügen somit über einen grundsätzlichen Handlungsalgorithmus, deren Empfehlungen über einfache Rezeptierung von Lymphdrainage und Kompressionsbekleidung hinausgehen. Durch kritische Reflexion der geltenden Dogmata wurde ein interdisziplinärer Leitfaden vorgeschlagen, der auf nachvollziehbare Weise im Sinne eines Stufenschemas alle wesentlichen Therapiesäulen in einen allgemeingültigen Behandlungsplan einbindet.
Im vielschichten Management der Erkrankung verbleibt die operative Behandlung, die Liposuktion, allerdings häufig als „ultima ratio“ nach ausbleibender Linderung unter konservativen Therapiemaßnahmen. Die wesentliche Zielstellung der vorliegenden Arbeit konzentriert sich demnach auf die Optimierung des operativen Vorgehens in der Durchführung von Liposuktionen bei Patientinnen mit Lipödem und zeigt sowohl Grenzen der Indikationsstellung, als auch Potenzial des Behandlungserfolges im Langzeitverlauf auf. Langzeitergebnisse zeigen, dass die Liposuktion als sicherer Eingriff mit dem Potenzial einer nachhaltigen Symptomreduktion für Lipödem-Patientinnen angesehen werden kann. Betont werden soll zudem die Notwendigkeit der Verzahnung operativer Maßnahmen mit konservativen Therapien und somit die Integration der Liposuktion als sinnvolle Behandlungsalternative in ein klar umrissenes Therapiekonzept.
Methodisch greift die Arbeit auf insgesamt 10 Publikationen zurück. Die hier postulierte mehrzeitige Megaliposuktion zur Therapie des Lipödems, mit summierten Gesamtaspirationsvolumina über alle Eingriffe von bis zu 66.000 ml, konnte als evidenzbasiertes Therapieverfahren bestätigt und validiert werden. Die beschriebenen niedrigen Komplikationsraten sind unter Anderem Resultat einer differenzierten, individualisierten perioperativen Strategie. Neben der Berücksichtigung grundsätzlicher methodischer Prinzipien existieren allerdings vielfältige Variationen, deren Implikationen auf Komplikationsraten jeweils differenziert zu betrachten sind. Es existiert zwar kein Konsensus für ein allgemeingültiges Standardverfahren der Liposuktion, allerdings konnten zahlreiche Elemente im perioperativen Management definiert werden, die unabhängig von der verwendeten Operationstechnik einen potenziellen positiven Einfluss auf das Outcome haben. Obwohl die Liposuktion bei Lipödem somit zusammenfassend mittlerweile als sicheres Verfahren gelten kann, sind einige Aspekte weiterhin nicht abschließend geklärt. Hierbei stehen vor allem das Volumenmanagement und die standardisierte Festlegung des maximalen Aspirationsvolumens im Fokus.
Die Analyse verschiedener Kovariablen auf die Linderung Lipödem-assoziierter Symptome nach Liposuktion zeigt, dass Alter, Body-Mass-Index (BMI) und präoperatives Stadium der Erkrankung einen signifikanten Einfluss auf das postoperative Ergebnis haben und in der Planung des mehrzeitigen operativen Vorgehens berücksichtigt werden müssen. BMI- oder körpergewichtsabhängige Zielgrößen der Absaugvolumina waren als Prognosefaktor für das postoperative Outcome dagegen nicht relevant. Inwieweit dies möglicherweise an der Überschreitung des „notwendigen“ Volumengrenzwerts für adäquate Symptomlinderung durch reguläre Durchführung von Megaliposuktionen liegen könnte, oder ob dieser Parameter tatsächlich keinen Einfluss auf das Ergebnis nach Operation besitzt, konnte nicht abschließend geklärt werden.
Weiterhin konnte ein positiver Nutzen auf assoziierte Begleiterkrankungen bei Lipödem nachgewiesen werden. Das Spektrum der Behandlungsmethoden kann durch reguläre Integration der Liposuktion in das Therapieschema somit um eine nachhaltige Alternative sinnvoll ergänzt werden. Im Unterschied zur alleinigen konservativen Therapie kann hierdurch ein wesentlicher Schritt weg von der alleinigen symptomatischen Therapie gemacht werden. Zudem die vielfältige Symptomatik der diversen assoziierten Komorbiditäten zu berücksichtigen. Als Konsequenz und für die Notwendigkeit eines ganzheitlichen, interdisziplinären Therapieansatzes wäre der Terminus „Lipödem-Syndrom“ möglicherweise treffender und wird zur Diskussion gestellt.
Für ein gesondertes Patientenklientel wurden zudem basale Grundsätze im perioperativen Vorgehen differenziert aufgearbeitet. Lipödem-Patientinnen mit begleitendem von-Willebrand-Syndrom stellen im Hinblick auf Blutungskomplikationen eine außerordentliche Herausforderung dar. Die vorliegenden evidenzbasierten Empfehlungen zum Therapiemanagement dieser Patientinnen bei Eingriffen ähnlicher Risikoklassifizierung wurden systematisch aufgearbeitet und in Bezug zu den speziellen Anforderungen bei Megaliposuktionen gebracht. Das dabei erarbeitete Therapieschema wird die präoperative Detektion von Koagulopathien im Allgemeinen, sowie die perioperative Komplikationsrate bei von-Willebrand-Patientinnen im Speziellen zukünftig erheblich verbessern.
Zusammenfassend konnte somit ein allgemeingültiger Algorithmus für die moderne und langfristig erfolgreiche Therapie von Lipödem-Patientinnen mit besonderem Fokus auf die Megaliposuktion erarbeitet werden. Bei adäquatem perioperativem Management und Berücksichtigung der großen Volumenverschiebungen kann der Eingriff komplikationsarm und sicher durchgeführt werden. Nicht abschließend geklärt ist derzeit die Pathophysiologie der Erkrankung wobei eine immunologische Genese sowie die primäre Pathologie des Lymphgefäßsystems bzw. der Fett(vorläufer)zellen als Erklärungmodelle favorisiert werden. Die Entwicklung diagnostischer Biomarker sollte dabei verfolgt werden.
Innerhalb dieser Arbeit erfolgte die erstmalige systematische Untersuchung von Vinylsulfonsäureethylester (1a), Phenylvinylsulfon (1b), N-Benzyl-N-methylethensulfonamid (1c) in der FUJIWARA-MORITANI Reaktion (alternativ als DHR bezeichnet). Bei dieser übergangsmetallkatalysierten Reaktion erfolgt der Aufbau einer neuen C-C-Bindung unter der doppelten Aktivierung einer C-H-Bindung. Somit kann ein atomökonomischer Aufbau von Molekülen realisiert werden, da keine Beiprodukte in Form von Salzen entstehen. Als aromatischer Reaktant wurden Acetanilide (2) verwendet, damit eine regiospezifische Kupplung durch die katalysatordirigierende Acetamid-Gruppe (CDG) erfolgt. Für die Pd-katalysierte DHR wurde eine umfangreiche Optimierung durchgeführt und anschließend konnten neun verschieden, substituierte 2 mit 1a und sieben verschieden, substituierte 2 mit 1b funktionalisiert werden. Da eine Reaktion mit 1c ausblieb, erfolgte ein Wechsel auf eine Ru-katalysierte Methode für die DHR. Mit dieser Methode konnte 1c mit Acetaniliden funktionalisiert werden und das Spektrum der verwendeten 2, in Form von deaktivierenden Substituenten erweitert werden.
Im Anschluss wurden die sulfalkenylierten Acetanilide in weiterführenden Reaktionen untersucht. Hierfür wurde eine Reaktionssequenz bestehend aus einer DeacetylierungDiazotierung-Kupplungsreaktion verwendet, um die Acetamid-Gruppe in eine Abgangsgruppe zu überführen und danach in einer MATSUDA-HECK Reaktion zu kuppeln. Mit dieser Methode konnten mehrere 1,2-Dialkenylbenzole erhalten werden und die CDG ein weiteres Mal genutzt werden. Neben der Überführung der CDG in eine Abgangsgruppe konnte diese auch in die Synthese verschiedener Heterozyklen integriert werden. Dafür erfolgte zunächst eine 1,3-Zykloaddition durch deprotonierten Tosylmethylisocanid an der elektronenarmen Sulfalkenylgruppe zur Synthese von Pyrrolen. Anschließend erfolgte eine Kupplung der PyrrolFunktion und der CDG durch Zyklokondensation, wodurch Quinoline dargestellt wurden. Durch diese Synthesen konnten Schwefelanaloga des Naturstoffes Marinoquionolin A erhalten werden.
Ein weitere übergangsmetallkatalysierte C-H-Aktivierungsreaktion, die MATSUDA-HECK Reaktion, wurde genutzt, um 1b zu mit verschieden, subtituierten Diazoniumsalzen zu arylieren. Hier konnten zahlreichen Styrenylsulfone erhalten werden. Der erfolgreiche Einsatz der Vinylsulfonylverbindungen in der Kreuzmetathese konnte innerhalb dieser Arbeit nicht erreicht werden. Daher erfolgte die Synthese verschiedener dialkenylierter Sulfonamide. Hierfür wurde die Kettenlänge der Alkenyl-Gruppe am Schwefel zwischen 2-3 und am Stickstoff zwischen 3-4 variiert. Der Einsatz der dialkenylierten Sulfonamide erfolgte in den zuvor untersuchten C-H-Aktivierungsmethoden.
N-Allyl-N-phenylethensulfonamid (3) konnte erfolgreich in der DHR und HECK Reaktion funktionalisiert werden. Hierbei erfolgte eine methodenspezifische Kupplung in Abhängigkeit von der Elektronendichte der entsprechenden Alkenyl-Gruppe. Die DHR führte zur selektiven Arylierung der Vinyl-Gruppe und die HECK Reaktion zur Arylierung an der Allyl-Gruppe. Gemischte Produkte wurden nicht erhalten. Für die weiteren Diolefine wurde komplexe Produktgemische erhalten. Des Weiteren wurden die Diolefine in der Ringschlussmetathese untersucht und die entsprechenden Sultame in sehr guten Ausbeuten erhalten. Die Verwendung der Sultame in der C-H-Aktivierung war erfolglos. Es wird vermutet, dass für diese zweifachsubstituierten Sulfonamide die vorhandenen Reaktionsbedingungen optimiert werden müssen.
Abschließend wurden verschiedene, enantiomerenreine Olefine ausgehend von Levoglucosenon dargestellt. Hierfür wurde Levoglucosenon zunächst mit einem Allyl- und 3-Butenylgrignard Reagenz umgesetzt. Die entsprechenden Produkte wurden in moderaten Ausbeuten erhalten. Eine weitere Methode begann mit der Reduktion von Levoglucosenon zum Levoglucosenol. Dieser Alkohol wurde mit Allylbromid erfolgreich verethert. Neben der Untersuchungen zur Ethersynthese, erfolgte die Veresterung von Levoglucosenol mit verschiedenen Sulfonylchloriden zu den entsprechenden Sulfonsäureestern. Diese Olefine wurden in einer Dominometathesereaktion untersucht. Ausgehend vom Allyllevoglucosenylether erfolgte die Darstellung eines Dihydrofurans.
Das Professionswissen von Lehrkräften gehört zu den bedeutendsten Stellschrauben der Bildung an den Schulen. Seine Kernbereiche sind fachwissenschaftliches Wissen und fachdidaktisches Wissen, welche hauptsächlich in der universitären Ausbildung erworben werden.
Die vorliegende Arbeit verfolgt das Ziel, einen Beitrag zur stetigen Verbesserung und Sicherung der Qualität der Lehrerausbildung an der Universität Potsdam zu leisten, und stellt die Frage: Über welches fachwissenschaftliche und fachdidaktische Wissen verfügen die Lehramtsstudierenden im Fach Mathematik nach Besuch der Lehrveranstaltung Arithmetik und ihre Didaktik I und II? Untersucht wurde exemplarisch das Wissen der Lehramtsstudierenden im Bereich der rationalen Zahlen mit dem Fokus auf dem Verständnis der Dichte von Bruchzahlen. Die Dichte stellt eines der am schwierigsten zu erwerbenden Konzepte im Bruchzahlerwerb dar und fordert ein konzeptionelles Umdenken sowie die Reorganisation bereits erworbener Vorstellungen. Um die Forschungsfrage zu beantworten, wurden in einer qualitativen Studie 112 Lehramtsstudierende hinsichtlich ihres Wissens zu dem Thema Dichte von rationalen Zahlen schriftlich getestet. Um Denkprozesse der Studierenden zu verstehen und Denkhürden zu identifizieren, wurden zusätzlich qualitative Interviews in Form von Gruppendiskussionen geführt. Die Daten wurden mithilfe der Qualitativen Inhaltsanalyse computergestützt ausgewertet.
Es zeigte sich eine große Bandbreite verschiedener Wissensbestände. Die Ergebnisse im fachdidaktischen Wissen blieben hinter den Ergebnissen im fachwissenschaftlichen Wissen zurück. Am schwierigsten fiel den Studierenden die Gegenüberstellung von wesentlichen Eigenschaften der rationalen und natürlichen Zahlen auf der metakognitiven Ebene. Neben positiven Ergebnissen, welche für die Effektivität der Konzeption der Lehrveranstaltung sprechen, zeigten sich diverse Denkhürden. Defizite im Fachwissen wie ein mangelndes Verständnis von äquivalenten Brüchen oder Fehler im Erweitern von Brüchen enthüllen unzulänglich ausgebildete Grundvorstellungen im Bereich der rationalen Zahlen seitens der Studierenden. Schwierigkeiten in den fachdidaktischen Aufgaben wie die Formulierung einer kindgerechten Erklärung oder die anschauliche Darstellung des mathematischen Inhalts auf bildlicher Ebene lassen sich ursächlich auf die Defizite im Fachwissen zurückführen. Zusätzlich stellten sich Einschränkungen seitens der Studierenden in der Motivation und Relevanzzuschreibung heraus.
Die Ergebnisse führen zu gezielten Änderungsvorschlägen bezüglich der Konzeption der Lehrveranstaltung. Es wird empfohlen, verschiedene Lernangebote wie Hausaufgaben und wöchentliche Selbsttests zur individuellen Lernzielkontrolle für alle Teilnehmenden der Lehrveranstaltung verpflichtend zu gestalten und motivationale Aspekte verstärkt aufzugreifen. Zusätzlich wird der Ausbau von konkreten Übungen auf der enaktiven Ebene empfohlen, um den Aufbau von notwendigen Grundvorstellungen im Bereich der rationalen Zahlen zu fördern und somit Denkhürden gezielt zu begegnen.
Aufgrund der Bedeutung von Experimenten im physikalischen Erkenntnisprozess, sind diese ein wesentlicher Bestandteil des Physikunterrichts. Um den Einsatz von Experimenten im Physikunterricht zu fördern, sind kompetenzorientiertes Experimentieren und die Reflexion des Einsatzes von Experimenten wichtige Ziele in Lehrkräftebildungsprogrammen. Ablaufmodelle für kompetenzorientiertes Experimentieren unterscheiden typischerweise Phasen der Fragen- und Hypothesenentwicklung, der Planung, der Erforschung und der Schlussfolgerungen. Es ist allerdings unklar, auf welche Weise angehende Physiklehrkräfte Aspekte des kompetenzorientierten Experimentierens in ihrem Unterricht in schulpraktischen Ausbildungsphasen einsetzen, auf welche Weise sie solche Unterrichtsversuche mit Experimentierbezug reflektieren und wie strukturiert (im Sinne der Ablaufmodelle) sie dabei vorgehen.
In der vorliegenden Studie wurde deshalb untersucht, auf welche Weise Praxissemesterstudierende Experimentierprozesse in ihren Unterrichtsversuchen reflektieren. Hierfür wurde betrachtet, zu welchen Anteilen die Experimentierphasen in den Reflexionen adressiert werden. Um weiterhin herauszufinden, mit welcher Qualität die Experimentplanung reflektiert wird und inwiefern sich Vorstrukturierung für die Planungsphase zeigt, wurde diese differenzierter betrachtet. Auf Basis empirischer Vorarbeiten wurde vermutet, dass Fragenentwicklung, Hypothesenbildung und Experimentplanung seltener thematisiert werden als die anderen Teilkompetenzen und dass die Planungsphase hauptsächlich stark vorstrukturierte Elemente enthält, statt den Lernenden Freiräume für selbstständige Planungen zu lassen.
Zur Untersuchung der Fragestellung wurden Kodiermanuale zur Erfassung experimentierbezogener Kompetenzen in schriftlichen Reflexionen entwickelt und validiert. Analysiert wurden 40 Reflexionstexte von 14 Studierenden des Physik-Lehramts im Praxissemester an der Universität Potsdam. Als Untersuchungsmethode wurde die qualitative Inhaltsanalyse genutzt. Die Texte wurden bezüglich der Umsetzung eines Reflexionsmodells und auf das Vorkommen der Teilkompetenzen des Experimentierzyklus untersucht.
Die Ergebnisse bestätigten das geringe Vorkommen der Fragenentwicklung und Hypothesenbildung sowie die tendenziell geschlossenen Planungsinhalte. Zudem konnte festgestellt werden, dass die Planungsphase eher oberflächlich reflektiert und vor allem Arbeitsaufträge wiedergegeben wurden. Allgemein zeigten sich hauptsächlich beschreibende Tendenzen in den Reflexionen und eher wenige Alternativen und Konsequenzen. Aus den Ergebnissen werden Implikationen für die Lehrkräftebildung im Fach Physik abgeleitet. Um die Reflexionskompetenz der angehenden Lehrkräfte zu fördern, sind Hilfestellungen während des Reflexionsprozesses und eine inhaltliche Rückmeldung notwendig. Des Weiteren sollten die angehenden Lehrkräfte für eine ausgewogenere Förderung der Teilkompetenzen in ihrem Unterricht sensibilisiert werden.
Bezug nehmend auf Rainer E. Zimmermanns Buch "Metaphysik als Grundlegung von Naturdialektik. Zum Sagbaren und Unsagbaren im spekulativen Denken" wird der von Zimmermann entwickelte Ansatz eines transzendentalen Materialismus in der Traditionslinie Schellingscher Dialektik einerseits und dem Spin-Schaum-Ansatz der Quantengravitationstheorie andererseits erörtert. Die Rückführung von Wirklichkeitsstrukturen auf mathematische Strukturen - auf das Prozessieren von Zahlen - wird problematisiert.
Portal Transfer
(2021)
Von einem „Kulturwandel“ spricht die neue Bundesregierung und will für einen „echten Innovationsschub“ Ausgründungen aus Hochschulen vorantreiben. Eine Deutsche Agentur für Transfer und Innovation soll die anwendungsorientierte Forschung stärken und mit der Wirtschaft zusammenbringen. Außerdem wünscht sie sich mehr gesellschaftliche Perspektiven in der Wissenschaft durch bürgerschaftliches Engagement.
Für die Universität Potsdam bedeutet all dies keinen Aufbruch ins Unbekannte. Im Gegenteil. Sie gehört zu den transferstärksten Hochschulen Deutschlands und belegt im nationalen Gründerradar seit Jahren vordere Plätze. Die wendebedingten Strukturprobleme in Brandenburg vor Augen, hat sie bereits in den 1990er Jahren nach Wegen und Werkzeugen gesucht, um neues Wissen und technologische Entwicklungen aus der Forschung in die Praxis überführen zu können.
Eine Erfolgsgeschichte, die sich in vielen einzelnen Erfolgsgeschichten erzählen lässt. Einige davon haben wir in diesem Magazin aufgeschrieben. So berichten wir von einem „universalen Problemlöser“, der als „KI made in Potsdam“ seinen Siegeszug um die Welt antritt. Oder von dem sehr jungen Start-up Koppla, das mit digitalem Werkzeug den Bau revolutioniert und dafür 2021 den Innovationspreis Berlin-Brandenburg erhielt. Dass nicht immer eine Firma gegründet werden muss, um Erfindungen zu verwerten, zeigt das Beispiel eines in Potsdamer Labors entwickelten Tests zur Früherkennung von Darmkrebs, der patentiert und als Lizenz an ein Unternehmen vergeben wurde.
Aber nicht nur der Transfer in die Wirtschaft zählt, sondern auch der des Wissens in die Gesellschaft. Der Gewinner des diesjährigen Better World Awards, Julian Risch, hat in seiner Doktorarbeit ein Tool entwickelt, mit dem sich Hasskommentare auf Online-Plattformen automatisch identifizieren lassen. Erste Redaktionen arbeiten damit. Wenn sich so der öffentliche Diskurs im Internet schützen und erhalten lässt, hat der junge Forscher tatsächlich dazu beigetragen, die Welt ein wenig besser zu machen.
So wie er sind viele, die in unserer zweiten Ausgabe der „Portal Transfer“ zu Wort kommen, Absolventinnen und Absolventen unserer Alma Mater. Alumni-Referentin Juliane Seip will enger als bisher mit ihnen in Kontakt bleiben und ein belastbares Netzwerk knüpfen, das gemeinsame Förderprojekte tragen kann. Gleich am Beginn dieses Magazins stellen wir sie und ihre Pläne näher vor. Zu den Ehemaligen zählt sie übrigens auch diejenigen, die zeitweise oder viele Jahre an der Universität geforscht haben, so wie der Politologe Heinz Kleger, der sich für das Neue Potsdamer Toleranzedikt engagiert hat. Oder der Wirtschaftswissenschaftler Dieter Wagner, der die Transfereinrichtungen an der Hochschule mit aufgebaut hat und heute der Universitätsgesellschaft Potsdam e.V. vorsteht. Die Vereinigung der Freunde und Förderer ist in den vergangenen Jahren auf ein Maß angewachsen, dass sie mittlerweile einzelne Fachkapitel bilden kann. Das jüngste widmet sich dem Sport, angeführt von der ehemaligen Chefin des Hochschulsports, Petra Bischoff-Krenzien. Die Entwicklung junger Athletinnen und Athleten im Studium liegt ihr besonders am Herzen.
Es gibt bestimmt viele Gründe, sich für diese Universität stark zu machen. Der wichtigste ist jedoch, dass die Allgemeinheit dabei nur gewinnen kann: durch Erfindungen und Innovationen genauso wie mithilfe kluger Ideen und neuer Erkenntnisse.
Die stetige Weiterentwicklung von VR-Systemen bietet neue Möglichkeiten der Interaktion mit virtuellen Objekten im dreidimensionalen Raum, stellt Entwickelnde von VRAnwendungen aber auch vor neue Herausforderungen. Selektions- und Manipulationstechniken müssen unter Berücksichtigung des Anwendungsszenarios, der Zielgruppe und der zur Verfügung stehenden Ein- und Ausgabegeräte ausgewählt werden. Diese Arbeit leistet einen Beitrag dazu, die Auswahl von passenden Interaktionstechniken zu unterstützen. Hierfür wurde eine repräsentative Menge von Selektions- und Manipulationstechniken untersucht und, unter Berücksichtigung existierender Klassifikationssysteme, eine Taxonomie entwickelt, die die Analyse der Techniken hinsichtlich interaktionsrelevanter Eigenschaften ermöglicht. Auf Basis dieser Taxonomie wurden Techniken ausgewählt, die in einer explorativen Studie verglichen wurden, um Rückschlüsse auf die Dimensionen der Taxonomie zu ziehen und neue Indizien für Vor- und Nachteile der Techniken in spezifischen Anwendungsszenarien zu generieren. Die Ergebnisse der Arbeit münden in eine Webanwendung, die Entwickelnde von VR-Anwendungen gezielt dabei unterstützt, passende Selektions- und Manipulationstechniken für ein Anwendungsszenario auszuwählen, indem Techniken auf Basis der Taxonomie gefiltert und unter Verwendung der Resultate aus der Studie sortiert werden können.
In der vorliegenden Arbeit wird die Herstellung und Charakterisierung von Mixed-Matrix-Membranen (MMM) für die Gastrennung thematisiert. Dazu wurden verschiedene Füllstoffe genutzt, um in Verbindung mit dem Membranmaterial Polysulfon MMMs herzustellen. Als Füllstoffe wurden 3 aktive und 2 passive Füllstoffe verwendet. Die aktiven Füllstoffe besaßen Porenöffnungen, die in der Lage sind Gase in Abhängigkeit der Molekülgröße zu trennen. Daraus folgt ein höherer idealer Trennfaktor für bestimmte Gaspaare als in Polysulfon selbst. Aufgrund der durch die Poren gebildeten permanenten Kanäle in den aktiven Füllstoffen ergibt sich ein schnellerer Gastransport (Permeabilität) als in Polysulfon. Es handelte sich bei den aktiven Füllstoffen um den Zeolith SAPO-34 und 2 Chargen eines Zeolitic Imidazolate Framework (ZIF) ZIF-8. Die beiden Chargen ZIF-8 unterschieden sich in ihrer spezifischen Oberfläche, was diesen Einfluss speziell in die Untersuchungen zum Gastransport einbeziehen sollte. Bei den passiven Füllstoffen handelte es sich um ein aminofunktionalisiertes Kieselgel und unporöse (dichte) Glaskügelchen. Das Kieselgel besaß Poren, die zu groß waren, um Gase effektiv zu trennen. Die Glaskügelchen konnten keine Gastrennung ermöglichen, da sie keine Poren besaßen.
Aus der Literatur ist bekannt, dass die Einbettung von Füllstoffen oft zu Defekten in MMMs führt. Ein Ziel dieser Arbeit war es daher die Einbettung zu optimieren. Weiterhin sollte der Gastransport in MMMs dieser Arbeit mit dem in einer unbeladenen Polysulfonmembran verglichen werden. Aufgrund des selektiveren Trennverhaltens der aktiven Füllstoffe im Vergleich zum Membranmaterial, sollte mit der Einbettung aktiver Füllstoffe die Trennleistung der MMMs mit steigender Füllstoffbeladung immer weiter verbessert werden.
Um die Eigenschaften der MMMs zu untersuchen, wurden diese mittels Rasterelektronenmikroskop (REM), Gaspermeationsmessungen (GP) und Thermogravimetrischer Analyse gekoppelt mit Massenspektrometrie (TGA-MS) charakterisiert.
Untersuchungen am REM konnten eine Verbesserung der Einbettung zeigen, wenn ein polymerer Haftvermittler verwendet wurde. Verglichen wurde die optimierte Einbettung mit der Einbettung ohne Haftvermittler und Ergebnissen aus der Literatur, in der die Verwendung verschiedener Silane als Haftvermittler beschrieben wurde. Trotz der verbesserten Einbettung konnte lediglich bei geringen Beladungen an Füllstoff (10 und 20 Ma-% bezogen auf das Membranmaterial) eine geringe Steigerung des idealen Trennfaktors in den MMMs gegenüber der unbeladenen Polysulfonmembranen beobachtet werden. Bei höheren Füllstoffbeladungen (30, 40 und 50 Ma-%) war ein deutlicher Anstieg der Permeabilität bei stark sinkendem idealen Trennfaktor zu beobachten. Mit Hilfe von TGA-MS Messungen konnte darüber hinaus festgestellt werden, dass der verwendete Zeolith SAPO-34 durch Wassermoleküle blockierte Porenöffnungen besaß. Das verhinderte den Gastransport im Füllstoff, wodurch die Trennleistung des Füllstoffes nicht ausgenutzt werden konnte. Die Füllstoffe ZIF-8 (chargenunabhängig) und aminofunktionalisiertes Kieselgel wiesen keine blockierten Poren auf. Dennoch zeigte sich in diesen MMMs keine Verbesserung der Gastrenn- oder Gastransporteigenschaften. MMMs mit dichten Glaskügelchen als Füllstoff zeigten dasselbe Gastrenn- und Gastransportverhalten, wie alle MMMs mit den zuvor genannten Füllstoffen.
In dieser Arbeit konnte, trotz optimierter Einbettung anorganischer Füllstoffe, für MMMs keine Verbesserung der Gastrenn- oder Gastransporteigenschaften nachgewiesen werden. Vielmehr wurde ein Einfluss der Füllstoffmenge auf die Gastransporteigenschaften in MMMs festgestellt. Die Änderungen der MMMs gegenüber Polysulfon stammen von den Folgen der Einbettung von Füllstoffen in das Matrixpolymer. Durch die Einbettung werden die Eigenschaften des Matrixpolymers ändern, sodass auch der Gastransport beeinflusst wird. Des Weiteren wurde dokumentiert, dass in Abhängigkeit der Füllstoffbeladung die entstehende Membranstruktur beeinflusst wird. Die Beeinflussung war dabei unabhängig von der Füllstoffart. Es wurde eine Korrelation zwischen Füllstoffmenge und veränderter Membranstruktur gefunden.
Zentrales Element dieser Arbeit ist die Synthese und Charakterisierung praktisch nutzbarer Ionogele. Die Basis der Polymerionogele bildet das Modellpolymer Polymethylmethacrylat. Als Additive kommen ionische Flüssigkeiten zum Einsatz, deren Grundlage Derivate des vielfach verwendeten Imidazoliumkations sind. Die Eigenschaften der eingebetteten ionischen Flüssigkeiten sind für die Ionogele funktionsgebend. Die Funktionalität der jeweiligen Gele und damit der Transfer der Eigenschaften von ionischen Flüssigkeiten auf die Ionogele wurde in der vorliegenden Arbeit mittels zahlreicher Charakterisierungstechniken überprüft und bestätigt. In dieser Arbeit wurden durch Ionogelbildung makroskopische Ionogelobjekte in Form von Folien und Vliesen erzeugt. Dabei kamen das Filmgießen und das Elektrospinnen als Methoden zur Erzeugung dieser Folien und Vliese zum Einsatz, woraus jeweils ein Modellsystem resultiert. Dadurch wird die vorliegende Arbeit in die Themenkomplexe „elektrisch halbleitende Ionogelfolien“ und „antimikrobiell aktive Ionogelvliese“ gegliedert. Der Einsatz von triiodidhaltigen ionischen Flüssigkeiten und einer Polymermatrix in einem diskontinuierlichen Gießprozess resultiert in elektrisch halbleitenden Ionogelfolien. Die flexiblen und transparenten Folien können Mittelpunkt zahlreicher neuer Anwendungsfelder im Bereich flexibler Elektronik sein. Das Elektrospinnen von Polymethylmethacrylat mit einer ionischen Flüssigkeit führte zu einem homogen Ionogelvlies, welches ein Modell für die Übertragung antimikrobiell aktiver Eigenschaften ionischer Flüssigkeiten auf poröse Strukturen zur Filtration darstellt. Gleichzeitig ist es das erste Beispiel für ein kupferchloridhaltiges Ionogel. Ionogele sind attraktive Materialien mit zahlreichen Anwendungsmöglichkeiten. Mit der vorliegenden Arbeit wird das Spektrum der Ionogele um ein elektrisch halbleitendes und ein antimikrobiell aktives Ionogel erweitert. Gleichzeitig wurden durch diese Arbeit der Gruppe der ionischen Flüssigkeiten drei Beispiele für elektrisch halbleitende ionische Flüssigkeiten sowie zahlreiche kupfer(II)chloridbasierte ionische Flüssigkeiten hinzugefügt.
Monoklonale Antikörper sind essenzielle Werkzeuge in der modernen Laboranalytik sowie in der medizinischen Therapie und Diagnostik. Die Herstellung monoklonaler Antikörper ist ein zeit- und arbeitsintensiver Prozess. Herkömmliche Methoden beruhen auf der Immunisierung von Labortieren, die mitunter mehrere Monate in Anspruch nimmt. Anschließend werden die Antikörper-produzierenden B-Lymphozyten bzw. deren Antikörpergene isoliert und in Screening-Verfahren untersucht, um geeignete Binder zu identifizieren.
Der Transfer der humoralen Immunantwort in eine in vitro Umgebung erlaubt eine Verkürzung des Prozesses und umgeht die Notwendigkeit der in vivo Immunisierung. Das komplexe Zusammenspiel aller involvierten Immunzellen in vitro abzubilden, stellt sich allerdings als schwierig dar. Der Schwerpunkt dieser Arbeit war deshalb die Realisierung einer vereinfachten In vitro Immunisierung, die sich auf die Protagonisten der Antikörper-Produktion konzentriert: die B-Lymphozyten. Darüber hinaus sollte eine permanente Zelllinie etabliert werden, die zur Antikörper-Herstellung eingesetzt werden und die Verwendung von Primärzellen ersetzen würde.
Im ersten Teil der Arbeit wurde ein Protokoll zur In vitro Immunisierung muriner BLymphozyten etabliert. In Vorversuchen wurden die optimalen Konditionen für die Antigenspezifische Aktivierung gereinigter Milz-B-Lymphozyten aus nicht-immunisierten Mäusen
determiniert. Dazu wurde der Einfluss verschiedener Stimuli auf die Produktion unspezifischer und spezifischer Antikörper untersucht. Eine Kombination aus dem Modellantigen VP1 (Hamster Polyomavirus Hüllprotein 1), einem Anti-CD40-Antikörper, Interleukin 4 (IL 4) und Lipopolysaccharid (LPS) oder IL 7 induzierte nachweislich eine Antigen-spezifische Antikörper-Antwort in vitro. Als Indikatoren einer erfolgreichen Aktivierung der B-Lymphozyten infolge der in vitro Stimulation wurden die rapide Proliferation und die Expression charakteristischer Aktivierungsmarker auf der Zelloberfläche nachgewiesen. In einer Zeitreihe über zehn Tage wurde am zehnten Tag der In vitro Immunisierung die verhältnismäßig höchste Konzentration Antigen-spezifischer IgG-Antikörper im Kulturüberstand der stimulierten Zellen nachgewiesen.
Als nächster Schritt sollte eine permanente Zelllinie hergestellt werden, die statt primärer BLymphozyten für die zuvor etablierte In vitro Immunisierung eingesetzt werden könnte. Zu diesem Zweck wurden retrovirale Vektoren hergestellt, die durch den Transfer verschiedener Onkogene in murine B-Lymphozyten bzw. deren Vorläuferzellen das Proliferationsverhalten der Zellen manipulieren sollen. Es wurden Retroviren mit Doxycyclin-induzierbaren Expressionskassetten mit den Onkogenen cmyc, Bcl2, BclxL und dem Fusionsgen NUP98HOXB4 generiert. Eine Testzelllinie wurde erfolgreich mit den hergestellten Retroviren transduziert und die Funktionalität der hergestellten Viren anhand verschiedener Assays belegt. Die transferierten Gene konnten in der Testzelllinie auf DNAEbene nachgewiesen oder die Überexpression der entsprechenden Proteine im Western Blot detektiert werden. Es wurden schließlich B-Lymphozyten bzw. unreife Vorläuferzellen derselben mit den generierten Retroviren transduziert und mit Knochenmark-ähnlichen Stromazellen co-kultiviert. Aus keinem der transduzierten Ansätze konnte bisher eine Zelllinie oder eine Langzeit-Kultur etabliert werden.
Im letzten Teil der Arbeit wurde die Effektivität und Übertragbarkeit des zuvor etablierten Protokolls zur In vitro Immunisierung muriner B-Lymphozyten anhand verschiedener Antigene gezeigt. Es konnten in vitro spezifische IgG-Antworten gegen VP1, Legionella pneumophila und das Protein Mip, von dem ein Peptid in das zur Immunisierung eingesetzte VP1 integriert wurde, induziert werden. Die stimulierten B-Lymphozyten wurden durch Fusion mit Myelomzellen in permanente Antikörper-produzierende Zelllinien transformiert.
Dabei konnten mehrere Hybridomzelllinien generiert werden, die spezifische IgGAntikörper gegen VP1 oder Mip produzieren. Die generierten Antikörper konnten sowohl im Western Blot als auch im ELISA (Enzyme-Linked Immunosorbent Assay) das entsprechende Antigen spezifisch binden.
Die hier etablierte In vitro Immunisierung bietet eine effektive Alternative zu bisherigen Verfahren zur Herstellung spezifischer Antikörper. Sie ersetzt die Immunisierung von Versuchstieren und reduziert den Zeitaufwand erheblich. In Kombination mit der Hybridomtechnologie können die in vitro immunisierten Zellen, wie hier demonstriert, zur Generation von Hybridomzelllinien und zur Herstellung monoklonaler Antikörper genutzt werden. Um die Verwendung von Versuchstieren in dieser Methode durch eine adäquate permanente Zelllinie zu ersetzen, muss die genetische Veränderung von B-Lymphozyten und unreifen hämatopoetischen Zellen optimiert werden. Die Ergebnisse bieten eine Basis für eine universelle, Spezies-unabhängige Methodik zur Antikörperherstellung und für die
Etablierung einer idealen, tierfreien In vitro Immunisierung.
Das Gewichtsstigma und insbesondere das internalisierte Gewichtsstigma sind bei Kindern und Jugendlichen mit negativen Folgen für die physische und psychische Gesundheit assoziiert. Da die Befundlage in diesem Altersbereich jedoch noch unzureichend ist, war es das Ziel der Dissertation, begünstigende Faktoren und Folgen von gewichtsbezogener Stigmatisierung und internalisiertem Gewichtsstigma bei Kindern und Jugendlichen zu untersuchen. Die Analysen basierten auf zwei großen Stichproben, die im Rahmen der prospektiven PIER-Studie an Schulen rekrutiert wurden. Die erste Publikation bezieht sich auf eine Stichprobe mit Kindern und Jugendlichen im Alter zwischen 9 und 19 Jahren (49.2 % weiblich) und untersuchte den prospektiven bidirektionalen Zusammenhang zwischen erlebter Gewichtsstigmatisierung und Gewichtsstatus anhand eines latenten Strukturgleichungsmodells über drei Messzeitpunkte hinweg. Die anderen beiden Publikationen beziehen sich auf eine Stichprobe mit Kindern und Jugendlichen im Alter zwischen 6 und 11 Jahren (51.1 % weiblich). Die zweite Publikation analysierte anhand einer hierarchischen Regression, welche intrapersonalen Risikofaktoren das internalisierte Gewichtsstigma prospektiv prädizieren. Die dritte Publikation untersuchte anhand von ROC-Kurven, ab welchem Ausmaß das internalisierte Gewichtsstigma mit einem erhöhten Risiko für psychosoziale Auffälligkeit und gestörtes Essverhalten einhergeht. Im Rahmen der ersten Publikation zeigte sich, dass ein höherer Gewichtsstatus mit einer höheren späteren Gewichtsstigmatisierung einhergeht und umgekehrt die Gewichtsstigmatisierung auch den späteren Gewichtsstatus prädiziert. Die zweite Publikation identifizierte Gewichtsstatus, gewichtsbezogene Hänseleien, depressive Symptome, Körperunzufriedenheit, Relevanz der eigenen Figur sowie das weibliche Geschlecht und einen niedrigeren Bildungsabschluss der Eltern als Prädiktoren des internalisierten Gewichtsstigmas. Die dritte Publikation verdeutlichte, dass das internalisierte Gewichtsstigma bereits ab einem geringen Ausmaß mit einem erhöhten Risiko für gestörtes Essverhalten einhergeht und mit weiteren psychosozialen Problemen assoziiert ist. Insgesamt zeigte sich, dass sowohl das erlebte als auch das internalisierte Gewichtsstigma bei Kindern und Jugendlichen über alle Gewichtsgruppen hinweg relevante Konstrukte sind, die im Entwicklungsverlauf ein komplexes Gefüge bilden. Es wurde deutlich, dass es essentiell ist, bidirektionale Wirkmechanismen einzubeziehen. Die vorliegende Dissertation liefert erste Ansatzpunkte für die Gestaltung von Präventions- und Interventionsmaßnahmen, um ungünstige Entwicklungsverläufe in Folge von Gewichtsstigmatisierung und internalisiertem Gewichtsstigma zu verhindern.
Der Beitrag widmet sich zunächst den Kompetenzanforderungen an Schüler*innen und der geringen Präsenz des Computerspiels in Schule und Unterricht. Auch mit hinreichenden Anknüpfungspunkten in Rahmenlehrplänen oder Strategiepapieren wird das Computerspiel nur dann eine stärkere Wahrnehmung erreichen, wenn die Lehrkräfte hierzu qualifiziert sind. Der Beitrag stellt daher exemplarisch vor, welcher Systematik die Lehrer*innenbildung an der Universität Potsdam folgt und welche Herausforderungen damit verbunden sind. Beispiele aus der Praxis der 1. Phase der Lehrerbildung nehmen ausgewählte Aspekte der Einbindung des Computerspiels in den Blick.
In diesem Beitrag schlagen wir am Beispiel des Computerspiels Brothers vor, wie narrative und Gameplay-Leerstellen in Sprachlern-Settings genutzt werden können. Wir stellen die Funktion von Leerstellen beim Lesen (Iser), bei Computerspielen (Aarseth und Pias) und in der Sprachdidaktik vor und machen im Anschluss konkrete Vorschläge, wie das Spiel in Sprachlern-Settings eingesetzt werden kann.
Nicht nur der Lauf der Geschichte verändert sich, sondern auch Geschichtswissenschaft und -unterricht. An die Stelle des Auswendiglernens vorgegebener historischer Erzählungen trat im Laufe der Zeit zunehmend die Befähigung zu deren Dekonstruktion. Dafür müssen allerdings die Entstehungsbedingungen (geschichts-)wissenschaftlicher Erkenntnisse nachvollzogen werden können. Eine Möglichkeit, dies auf spielerische Art und Weise, aber auch auf Augenhöhe mit Lehrkräften und Historiker*innen zu tun, bieten Open-World- Spiele wie HORIZON ZERO DAWN (2017).
Computerspiele sind wichtige und zugleich besondere geschichtskulturelle Quellen. Sie prägen in zunehmendem Maße die Vorstellungen, die wir uns von historischen Gesellschaften und Ereignissen machen. Der Geschichtsunterricht, der sich auch die Befähigung zu einem kritischen Umgang mit geschichtskulturellen Angeboten zum Ziel setzt, muss sich entsprechend mit diesen auseinandersetzen. Eine Möglichkeit, wie dies im Rahmen formaler Unterrichtsprozesse und unter Berücksichtigung der Besonderheiten dieses Mediums geschehen kann, ist Thema des folgenden Beitrags.
Das computergestützte Training sozialer Kognition zeigt bei Menschen mit Autismus kurzfristig gute Lernerfolge. Jedoch werden immer wieder Trainingsabbrüche durch eine zu geringe Motivation beobachtet, die eine langfristige Wirkung im Alltag beeinträchtigen. Hier können sowohl spielerische als auch adaptive Ansätze helfen. Der Beitrag zeigt anhand von ausgewählten Beispielen, wie für das Themenfeld der Emotionserkennung und für die besondere Zielgruppe der Menschen mit Autismus derartige Trainingssysteme gestaltet werden können. Abschließend werden die in den Konstruktions- und Nutzungsprozessen dieser Systeme gesammelten Erfahrungen reflektiert.
Die Nutzung von Computerspielen im Musik- und Instrumentalunterricht wird nicht nur in den Erziehungswissenschaften oder der Medienpädagogik, sondern auch in jenem Teilgebiet der Game Studies verhandelt, welches sich auf die Erforschung von Computerspielen und Musik spezialisiert hat: der Ludomusicology. Im vorliegenden Beitrag wird aus ludomusikologischer Perspektive anhand einiger Beispiele aus dem kommerziellen Musikspielbereich überlegt, inwieweit sich diese für den Instrumental-, Musik- und Sportunterricht eignen könnten.
Im Mittelpunkt dieser Dissertation steht die Wiederentdeckung, Analyse und bildungshistorische Einordnung des reformpädagogischen Schulprojekts von Eugenie SCHWARZWALD (1872-1940) in Wien im ersten Drittel des 20. Jahrhunderts. Die Genese der Schulentwicklung offenbart die reformpädagogischen Verflechtungen eines überregional bedeutsamen Schulprojekts, die maßgeblich das Profil, die inhaltliche sowie didaktisch-methodische Ausgestaltung von Schule, Schulleben und Unterricht geprägt haben. In der Einleitung (Kap. 1) werden das Erkenntnisinteresse, die zentralen Fragestellungen, die ausgewerteten Quellenbestände und die methodische Vorgehensweise der Arbeit als historisch kritische Analyse der herangezogenen Quellen aufgezeigt. Die systematische Entfaltung des Themas erfolgt entlang von drei zentralen Kapiteln. Dabei rücken die gesellschaftliche und bildungshistorische Einordnung des Schulprojekts in die Ideenwelt und sozialstrukturelle Wirklichkeit Wiens (Kap. 2), biographische Zugänge der Schulgründerin, die Gründung, Genese, Ausformung sowie Beendigung des Schulprojekts, die strukturellen und pädagogischen Charakteristika, die reformpädagogischen Merkmale im ersten Drittel des 20. Jahrhunderts (Kap. 3) in den Mittelpunkt der Analyse. Zugleich werden exemplarische Verflechtungen zu den zeitgenössischen reformpädagogischen Strömungen ebenso sichtbar gemacht wie die damit verbundene Impulsgebung des SCHWARZWALD-Schulprojekts auf das Schulwesen Wiens und Österreichs. Einen Schwerpunkt der Arbeit bildet die Analyse der mannigfachen Vernetzungen der SCHWARZWALDschule im Hinblick auf die Künstlerische Avantgarde (Kap. 4). In der thesenhaften Zusammenfassung (Kap. 5) werden SCHWARZWALDs Leistungen für das österreichische Schul- und Bildungswesen, u. a. für die höhere Mädchenbildung, gewürdigt. Die Arbeit fragt schließlich nach der Reichweite der mit dem Schulprojekt verbundenen reformpädagogischen Impulse und systematisiert Gelingens- und Nichtgelingens-Bedingungen für den Schulreformprozess. Das macht die Arbeit – mit Blick auf Transferüberlegungen – für aktuelle Fragestellungen der Schulentwicklung anschlussfähig.
-Ingo Schwarz, Vera M. Kutzinski: A Letter from Alexander von Humboldt to Joseph Albert Wright – Archival Traces
-Foni Le Brun-Ricalens, Leonardo López Luján, Claude Wey: Alexander von Humboldts „Aztekische Priesterin“ alias die Chalchiuhtlicue aus der Sammlung Guillermo Dupaix. Historiografischer Essay einer Translokation von Mexico-Stadt nach London
-Eberhard Knobloch: Leibniz und Alexander von Humboldt
-Irene Prüfer Leske: Wie stand es nun wirklich um Bonpland? Kritische Überlegungen zu Frank Holls Untersuchung zu Bonpland, seiner Beziehung zu Alexander von Humboldt und der Darstellung der letzten Tage von Bonpland durch Avé-Lallemant
-Leonhard Salzer, Anna Nöbauer: (Auf) Humboldts Spuren Eine bauforscherische Untersuchung der „Casa Humboldt“ am Antisana in Ecuador
-Renate Sternagel: Alexander von Humboldt, Therese von Bacheracht, und die „verhängnissvolle Prosa des Lebens“
-Ulrich Stottmeister: Der Mineraloge August Schmidt und die Entdeckung der Ural-Diamanten 1829 Teil I: Schmidts Weg in den Ural und die Diamanten-Vorhersage
-Kurt-R. Biermann (1919 – 2002) und Ingo Schwarz: Der polyglotte Alexander von Humboldt (mit einer Vorbemerkung von Jürgen Trabant)
-Tobias Kraft: Filología nómada. Repensar la obra de Alexander von Humboldt con la obra de Ottmar Ette (y viceversa)
Ausgangspunkt der Dissertation ist die Fragestellung, warum es relativ wenige weibliche Wirtschaftsprüfer/innen in Deutschland gibt. Laut Mitgliederstatistik der Wirtschaftsprüferkammer vom 1. Januar 2020 liegt der Frauenanteil im Berufs-stand bei rund 17 %. Einschlägige Literatur zeigt, dass auf Ebene der Berufseinstei-ger/innen im Segment der zehn größten Wirtschaftsprüfungsgesellschaften das Ge-schlechterverhältnis recht ausgewogen ist. Jedoch liegt der Frauenanteil auf der Hierarchieebene „Manager“, für die üblicherweise ein bestandenes Berufsexamen Voraussetzung ist, bereits deutlich niedriger und sinkt mit jeder weiteren Hierar-chiestufe. Die Zielstellung der Dissertation wurde somit dahingehend spezifiziert, diejenigen Faktoren zu analysieren, die dazu beitragen können, dass die relative Repräsentation von Frauen im Segment der zehn größten Wirtschaftsprüfungsge-sellschaften Deutschlands ab der Manager-Ebene (d. h. üblicherweise ab der Schwelle der examinierten Wirtschaftsprüfer/innen) sinkt. Der Fokus der Analyse liegt daher auf Ebene der erfahrenen Prüfungsassistenten und Prüfungsassistentin-nen (Senior), um diese Schwelle unmittelbar vor der Manager-Ebene detailliert zu beleuchten.
Neben der Auswertung von Erkenntnissen aus der internationalen Prüfungsfor-schung wurde eine empirische Studie unter den Senior von sechs der zehn größten Wirtschaftsprüfungsgesellschaften in Deutschland durchgeführt. Die empirischen Ergebnisse wurden mittels deskriptiver Datenanalyse ausgewertet und dahinge-hend analysiert, für welche der zuvor definierten Aspekte signifikante geschlechts-spezifische Unterschiede zu beobachten sind. Für ausgewählte Aspekte wurde zu-dem analysiert, ob es Unterschiede zwischen weiblichen/männlichen Senior mit Kind/ern und ohne Kind/er gibt. Insgesamt wurden für zahlreiche Aspekte ge-schlechtsspezifische Unterschiede und Unterschiede zwischen Senior mit Kind/ern und ohne Kind/er gefunden. Es zeigt sich außerdem, dass neben der beruflichen Situation auch die individuellen Eigenschaften und das private Umfeld von Bedeu-tung sind. Im Rahmen der beruflichen Situation spielen sowohl die Wahrnehmung der aktuellen beruflichen Situation eine Rolle als auch u. a. die Erwartungen der Senior an die mögliche künftige Manager-Position, an das Wirtschaftsprüfungsexa-men und an weitere berufliche Perspektiven.
Rehabilitationspädagogik
(2021)
Die Rehabilitationspädagogik ist eine jüngere eigenständige Hybridwissenschaft im Feld der Humanwissenschaften. Sie setzt theoriebildend im Sinne des Neunten Buchs Sozialgesetzbuch (SGB IX) an den längerfristigen Folgen einer Krankheit oder eines biologischen Mangels an. Dabei orientiert sie sich konzeptionell zum Beispiel an der UN-Behindertenrechtskonvention (UN-BRK) und an der International Classification of Functioning, Disability and Health (ICF). Des Weiteren an den Konzepten der Humanontogenetik von K.-F. Wessel, insbesondere: dem ganzen Menschen, der Hierarchie der Kompetenzen, den sensiblen Phasen und der Souveränität.
Die Rehabilitationspädagogik ist Bestandteil der komplexen gesundheitlichen Rehabilitation und eine Tochterdisziplin der allgemeinen Pädagogik. Bei ihrem rehabilitationspädagogischen Prozess gilt das Richtziel, die umfassende Teilhabe des Menschen an individuellen Lebensbereichen durch rehabilitationspädagogische Mittel, Methoden und Organisationsformen zu unterstützen.
Die Dissertation setzt sich mittels Methoden der Hermeneutik mit der DDR-Rehabilitationspädagogik von K.- P. Becker und Autorenkollektiv kritisch-konstruktiv auseinander. Sie legt eine aktuelle fortführende Theorie der Rehabilitationspädagogik unter der Berücksichtigung der UN-BRK, der ICF und des SGB IX vor und liefert eine neue Sichtweise auf die Rehabilitationspädagogik aus historischer und aktueller Perspektive.
Welche Eigenschaften machen das Computerspiel zum geeigneten Medium, das den pädagogischen Einsatz im Unterricht bereichern kann? Welche Computerspiele bieten welche Möglichkeiten zur Auseinandersetzung mit welchen Themen? Wie kann das Computerspiel auch im schulischen Umfeld den für den Lernprozess so wichtigen Lebensweltbezug herstellen?
Diese und viele weitere Fragen beantworten die Autor*innen des Bandes „Didaktik des digitalen Spielens“. Dafür begeben sie sich in einen Dialog der Wissenschaftsdisziplinen, leiten Möglichkeiten zum Einsatz von Computerspielen ab und werten Erfahrungen mit dem Einsatz von Computerspielen – auch in der Lehrendenbildung – aus. Mit ihren verschiedenen Zugängen zu Fragestellungen rund um eine „Didaktik des digitalen Spielens“ liefern sie einen Beitrag zu einem Diskurs, der besonders in Zeiten von Distanzunterricht notwendig und folgerichtig geführt werden muss. Die im Rahmen der gleichnamigen interdisziplinären Ringvorlesung im Wintersemester 2018/19 an der Universität Potsdam gehaltenen Vorträge sind durch die Diskussionen mit Studierenden geprägt und ausgewertet worden, so dass sie in der nun veröffentlichten Form auf mehreren Ebenen einen mehrperspektivischen Blick auf den Gegenstand „Computerspiel im Unterricht“ legen.
Die vorliegende Publikation der Dissertationsschrift „Nutzungsfokussierte Evaluation in der Lehrkräftefortbildung Belcantare Brandenburg für musikunterrichtende Grundschul-lehrer*innen im ländlichen Raum“ ist eine akteursorientierte, explorativ angelegte Evaluation. Seit 2011 führt in den Regionen des Landes Brandenburg der Landesmusikrat Brandenburg e.V. in Kooperation mit mehreren Institutionen die zweijährige Fortbildung für fachnah sowie ausgebildete Musiklehrkräfte im Kompetenzfeld Singen und Lieddidaktik durch.
Der zugrunde liegende Evaluationsansatz stellt die Interessen der kooperierenden Partner, welche praktische Konsequenzen aus den Ergebnissen der Evaluation zu ziehen beabsichtigen, in den Mittelpunkt der Forschungsarbeit. Es handelt sich somit um eine Auftragsforschung. Der Evaluation kommen die Funktionen zu, die inhaltliche Qualität der Lehrkräftefortbildung zu sichern und zu optimieren, den Erkenntnisgewinn zur Gestaltung eines fachdidaktischen Coachings zu erweitern, die Forschungsergebnisse zur Legitimation und Partizipation sichtbar zu machen sowie analytische Entscheidungshilfe zur Weiterführung Belcantare Brandenburgs nach 2022 bereitzustellen.
Die von den Akteuren an die Autorin herangetragenen Forschungsanliegen wurden zu vier Fragestellungen zusammengefasst:
1. Wie zufrieden sind die Teilnehmenden mit der Veranstaltungsreihe?
2. Welche fachlichen, didaktischen und persönlichen Entwicklungen stellen sich während des Fortbildungszeitraumes aus der Wahrnehmungsperspektive der teilnehmenden Lehrkräfte ein?
3. Wie beurteilen die Coaching-Beteiligten die Chancen und Grenzen des musikdidaktischen Coachings als Fortbildungsform?
4. Welche Schlussfolgerungen lassen sich hinsichtlich professioneller Lehrkräftefortbildung aus der Gegenüberstellung der empirischen Erkenntnisse mit denen der Theorie ziehen?
Diese Forschungsfragen wurden in zwei Forschungsphasen beantwortet:
1. Der empirische Datenkorpus wurde zwischen 2011-2015 gebildet. In dieser Zeit hatten zur projektbegleitenden Qualitätssicherung und -weiterführung der Pilot- und Folgestaffel Belcantare Brandenburgs die Forschungsfragen 1, 2 und 3 besondere Relevanz. Die Evaluationsstudie ist explorativ angelegt: Die Variablen zu den Forschungsfragen 1 und 2 sind durch Dokumentenanalysen sowie Interview-auswertungen mit der Projektleitung und teilnehmenden Lehrkräften sukzessive herausgearbeitet. Ebenso entsprechen die halb-geschlossenen Fragebögen als zentrale Erhebungsinstrumente der Forschungsfragen 1 und 2 dem explorativen Charakter und stellen auf diesem Weg sicher, dass den Teilnehmer*innen (N=40) die Möglichkeit zum Einbringen eigener Perspektiven eingeräumt wurde. Mit der Gesamtnote „sehr gut“ (1,39) seitens der befragten Lehrkräfte gilt die Gestaltung der Veranstaltungsreihe als ein Best-Practice-Beispiel: Für die Lehrkräfte sind das handlungsorientierte Erarbeiten von schülerpassenden und thematisch geeigneten, unmittelbar einsetzbaren oder wiederholt geübten Unterrichtsinhalten, Lerngegenständen und dazu passenden Materialien für den Unterricht die wesentlichen Kriterien zur Nutzung einer solchen Professionalisierungsmaßnahme. Die Lehrkräfteentwicklungen beider beforschter Staffeln zeigen, dass die fachnahen Kräfte bei sich größere Entwicklungszuwächse nach Beendigung des Projektes wahrnehmen als die Fachkräfte. Gleichzeitig liegt die selbsteingeschätzte Fachkompetenz der fachnahen Kräfte zu Fortbildungsende unter denen der Fachkräfte.
Der Forschungsfrage 3 liegt ein ausschließlich qualitatives Design (N=16) zugrunde. Im Ergebnis konnten die Offene Form fachdidaktischen Coachings definiert werden, deren Parameter beschrieben und wesentliche Eigenschaften von Coach-Constellationen für ein binnendifferenziertes Coaching in der Lehrkräftefortbildung benannt werden.
2. Im Mai 2019 bildete sich aufgrund des sich verschärfenden Fachkräftemangels in Brandenburg das Bestreben der Kooperationspartner heraus, die Lehrkräftefortbildung nach 2022 als qualitätssichernde Maßnahme fortführen zu wollen. Diese Situation führte 2019 zur Aufnahme der Forschungsfrage 4, die eine umfassende und aktualisierte Analyse der theoretischen und bildungspolitischen Hintergründe der Intervention implizierte, mit dem Ziel, den Erkenntnisstand der Evaluation für eine erneute Empfehlung zu vertiefen. Das Thematisieren sowie das Gestalten von Selbstlernprozessen in der professionalisierenden Lehrkräftefortbildung stellte sich hierbei als ein zentrales Merkmal innovativer Lernkultur heraus.
Die Publikation gliedert sich in vier Teile: Teil I stellt den Forschungsstand zur professionalisierenden Lehrkräfte¬fortbildung aus bildungswissenschaftlicher und musikpäda-gogischer Perspektive dar. Teil II der Arbeit stellt die komplexen Begründungs-zusammenhänge zum Evaluationsgegenstand her. Im III. Teil der Arbeit ist die Evaluationsstudie zu finden. Deren induktiv erschlossene Erkenntnisse werden in Teil IV der Arbeit dem Forschungsstand zur professionalisierenden Lehrkräftefortbildung gegenübergestellt.
Jahresbericht 2020
(2021)
Im Berichtszeitraum standen nicht so sehr einzelne Menschenrechte im Fokus, sondern die komplexe und sektorübergreifende Verletzung von Menschenrechten durch unternehmerisches Handeln einerseits und durch den menschengemachten Klimawandel andererseits.
In einem Interview vom 4. April 2020 äußerten sich Andreas Zimmermann und Norman Weiß gegenüber der Pressestelle der Universität Potsdam zur Einschränkung von Grund- und Menschenrechten im Rahmen der Pandemiebekämpfung und gelangten dabei zu dem Ergebnis, dass sich die damaligen Maßnahmen verfassungsrechtlich und völkerrechtlich im Rahmen des Zulässigen bewegten. Bei internen Beratungen wurde beschlossen, das Thema fundiert im Jahr 2022 aufzuarbeiten.
Eine Zunahme der allgemeinen Temperatur auf Grund des Klimawandels und die damit einhergehende Zunahme von Hitzewellen führten dazu, dass das Landesamt für Umwelt und Verbraucherschutz Nordrhein-Westfalen (LANUV) einen Leitfaden für den Schutz der positiven Klimafunktion urbaner Böden herausgab. Darauf aufbauend wurde auf regionaler Ebene für die Stadt Düsseldorf die Kühlleistung der urbanen Böden quantifiziert, um besonders schutzwürdige Bereiche zu identifizieren. Im Rahmen des Projektes ExTrass sollte nun die Kühlleistung urbaner Böden innerhalb Remscheids quantifiziert werden, jedoch auf Basis von frei zugänglichen Daten. Eine solche Datengrundlage schließt eine Modellierung des Bodenwasserhaushaltes, welches die Grundlage der Quantifizierung in Düsseldorf war, für Remscheid aus. Jedoch bietet der vorgestellte Ansatz die Möglichkeit, eine solche Untersuchung auch in anderen Gemeinden innerhalb Deutschlands mit relativ wenig Aufwand durchzuführen.
Die Kühlleistung der Böden wurde über die nutzbare Feldkapazität abgeschätzt, welche das Wasserspeichervolumen der obersten durchwurzelten Bodenzone angibt. Es ist der Bodenwasserspeicher, der Wasser für die Evapotranspiration zur Verfügung stellt und damit maßgeblich die Kühlleistung eines Bodens definiert, d.h. durch direkte Evaporation des Bodenwassers sowie durch die Transpiration von Wasser durch Pflanzen. In die Erstellung der Karte sind eingegangen: (a) die Bodenkarte Nordrhein-Westfalens (BK50), um die nutzbare Feldkapazität (nFK) je Fläche zu bestimmen; (b) der Landnutzungsdatensatz UrbanAtlas 2012, in Verbindung mit einer Literaturrecherche, um den Einfluss der Landnutzung auf die Werte der nFK, insbesondere im Hinblick auf Versiegelung und Verdichtung herzuleiten; und (c) OpenStreetMap (OSM), um den Anteil der versiegelten Flächen genauer zu bestimmen, als dies auf Basis des UrbanAtlas möglich gewesen wäre.
Es hat sich gezeigt, dass dieser Ansatz geeignet ist, um die räumliche Verteilung der potenziellen Bodenkühlfunktion innerhalb einer Stadt zu untersuchen. Es ist zu beachten, dass der Einfluss des Grundwassers in Remscheid nicht berücksichtigt werden konnte. Denn es ist damit zu rechnen, dass die Grundwasserverhältnisse aufgrund der geologischen und topographischen Situation in Remscheid kleinräumig Variationen unterliegen und es somit
keinen durchgängigen und kartierten Aquifer gibt.
Kleingartenanlagen, Parks und Friedhöhe im innerstädtischen Bereich und allgemein die Landnutzungsklassen Wald und Grünland wurden als Flächen mit einem besonders hohem potenziellen Bodenkühlpotenzial identifiziert. Solche Flächen sind besonders schützenswert. Die Analyse der Speicherfüllstände der oberen Bodenzone, basierend auf der erstellten Karte der potenziellen Bodenkühlfunktion und der klimatischen Wasserbilanz, ergab, dass besonders innerstädtische Flächen, die einen kleinen Bodenwasserspeicher haben, in einem trockenen Jahr bereits früh im Sommer ihre Kühlfunktion verlieren und bei Hitzewellen somit eine verringerte positive Klimafunktion haben. Gestützt wird diese Aussage durch eine Auswertung des normalisierten differenzierten Vegetationsindex (NDVI), der genutzt wurde, um die Veränderung der Pflanzenvitalität vor und nach einer Hitzeperiode im Juni/Juli 2018 zu untersuchen.
Messungen mit Meteobikes, einer Vorrichtung, die dazu geeignet ist, während einer Radfahrt kontinuierlich die Temperatur zu messen, stützen die Erkenntnis, dass innerstädtische Grünflächen wie Parks eine positive Wirkung auf das urbane Mikroklima haben. Weiterhin zeigen diese Messungen, dass die Topographie innerhalb des Untersuchungsgebietes die Aufheizung einzelner Flächen und die Temperaturverteilung vermutlich mitbestimmt. Die hier vorgestellte Karte der potenziellen Kühlfunktion für Remscheid sollte als Ergänzung in die Klimafunktionskarte für Remscheid eingehen und den bestehenden Layer „flächenhafte Klimafunktion“, der nur die Landnutzung berücksichtigt, ersetzen.
Fördermittelfinanzierte Gründungsunterstützungsangebote waren in den EU-Förderperioden 2007-2013 und 2014-2020 ein wichtiges Element der Hochschulgründungsförderung im Land Brandenburg. Aufgrund der positiven wirtschaftlichen Entwicklung des Landes, reduzierte sich das Fördervolumen in der gleichen Zeit jedoch stetig. Für die EU-Förderperiode 2021-2027 steht eine weitere Reduzierung der Fördermittel bereits fest. In der Folge wird es, ohne Anpassungen der etablierten Förderstrukturen, zur weiteren Reduzierung oder Erosion der Gründungsunterstützungsangebote an Brandenburger Hochschulen kommen. Die vorliegende Arbeit befasst sich daher u.a. mit der Frage, wie ein theoretisches Referenzmodell zur fördermittelfinanzierten Hochschulgründungsberatung gestaltet sein kann, um den reduzierten Fördersätzen bei gleichzeitiger Aufrechterhaltung der Angebotsvielfalt gerecht zu werden.
Zur Beantwortung dieser Frage wird als Untersuchungsobjekt das Förderprojekt BIEM Startup Navigator herangezogen. Das Gründungsberatungsprojekt BIEM Startup Navigator wurde von 2010 bis 2014 an sechs Brandenburger Hochschulen durchgeführt. Mit Hilfe der Modelle und Prämissen der Prinzipal-Agent-Theorie wird zunächst ein theoretischer Rahmen aufgespannt, auf dessen Grundlage die empirische Untersuchung erfolgt. Anhand der Prinzipal-Agent-Theorie werden die beteiligten Organisationen, Individuen und Institutionen aufgezeigt. Weiterhin werden die wesentlichen Problemfelder und Lösungsansätze der Prinzipal-Agent-Theorie für die Untersuchung des BIEM Startup Navigators diskutiert.
Im Untersuchungsverlauf werden u.a. die Konzepte zur Durchführung des Förderprojekts an sechs Hochschulstandorten, die Daten von 610 Teilnehmenden und 288 Gründungen analysiert, um so sachlogische Zusammenhänge und Wechselwirkungen identifizieren und beschreiben zu können. Es werden unterschiedliche theoretische Annahmen zu den Bereichen Projekteffektivität bzw. Projekteffizienz, Kostenverteilung und zur konzeptionellen Ausgestaltung in Form von 24 Arbeitshypothesen formuliert und auf die Untersuchung übertragen. Die Verifizierung bzw. Falsifizierung der Hypothesen erfolgt auf Grundlage der kombinierten Erkenntnisse aus Literaturrecherchen und den Ergebnissen der empirischen Untersuchung.
Im Verlauf der Arbeit gelingt es, die in der Prinzipal-Agent-Theorie auftretenden Agencykosten auch am Beispiel des BIEM Startup Navigators zu beschreiben und ex post Ineffizienzen in den durchgeführten Screening- und Signalingprozessen aufzuzeigen.
Mit Hilfe des im Verlauf der Arbeit entwickelten theoretischen Referenzmodells zur fördermittelfinanzierten Gründungsberatung an Brandenburger Hochschulen soll es gelingen, den sinkenden EU-Fördermitteln, ohne eine gleichzeitige Reduzierung der Gründungsunterstützungsangebote an den Hochschulen, gerecht zu werden. Hierfür zeigt das theoretische Referenzmodell wie die Ergebnisse der empirischen Untersuchung genutzt werden können, um die Agencykosten der fördermittelfinanzierten Gründungsberatung zu reduzieren.
Was ist HipHop?
(2021)
Es handelt sich bei der vorliegenden Dissertation um eine investigative Forschungsarbeit, die sich mit dem dynamisch wandelnden HipHop-Phänomen befasst. Der Autor erläutert hierbei die anhaltende Attraktivität des kulturellen Phänomens HipHop und versucht die Tatsache der stetigen Reproduzierbarkeit des HipHops genauer zu erklären. Daher beginnt er mit einer historischen Diskursanalyse der HipHop-Kultur. Er analysiert hierfür die Formen, die Protagonisten und die Diskurse des HipHops, um diesen besser verstehen zu können. Durch die Herausarbeitung der genuinen Eigenschaft der Mehrfachkodierbarkeit des HipHops werden gängige Erklärungsmuster aus Wissenschaft und Medien relativiert und kritisiert. Der Autor kombiniert in seiner Studie kultur- und erziehungswissenschaftliche Literatur mit diversen aktuellen und historischen Darstellungen und Bildern. Es werden vor allem bildbasierte Selbstinszenierungen von HipHoppern und Selbstzeugnisse aus narrativen Interviews, die er selbst mit verschiedenen HipHoppern in Deutschland geführt hat, ausgewertet. Neben den narrativen Interviews dient vor allem die Bildinterpretation nach Bohnsack als Quelle zur Bildung der These der Mehrfachkodierbarkeit. Hierbei werden zwei Bilder der HipHopper Lady Bitch Ray und Kollegah nach Bohnsack (2014) interpretiert und gezeigt wie HipHop neben der lyrischen und der klanglichen Komponente auch visuell inszeniert und produziert wird. Hieraus wird geschlussfolgert, dass es im HipHop möglich ist konträre Sichtweisen bei gleichzeitiger Anwendung von typischen Kulturpraktiken wie zum Beispiel dem Boasting darzustellen und zu vermitteln. Die stetige Offenheit des HipHops wird durch Praktiken wie dem Sampling oder dem Battle deutlich und der Autor erklärt, dass durch diese Techniken die generative Eigenschaft der Mehrfachkodierbarkeit hergestellt wird. Damit vertritt er eine Art Baukasten-Theorie, die besagt, dass sich prinzipiell jeder aus dem Baukasten HipHop, je nach Vorliebe, Interesse und Affinität, bedienen kann. Durch die Vielfalt an Meinungen zu HipHop, die der Autor durch die Kodierung der geführten narrativen Interviews erhält, wird diese These verdeutlicht und es wird klar, dass es sich bei HipHop um mehr als nur eine Mode handelt. HipHop besitzt die prinzipielle Möglichkeit durch die Offenheit, die er in sich trägt, sich stetig neu zu wandeln und damit an Beliebtheit und Popularität zuzunehmen. Die vorliegende Arbeit erweitert damit die immer größer werdende Forschung in den HipHop-Studies und setzt wichtige Akzente um weiter zu forschen und HipHop besser verständlich zu machen.
Angepasste Pathogene besitzen eine Reihe von Virulenzmechanismen, um pflanzliche Immunantworten unterhalb eines Schwellenwerts der effektiven Resistenz zu unterdrücken. Dadurch sind sie in der Lage sich zu vermehren und Krankheiten auf einem bestimmten Wirt zu verursachen. Eine essentielle Virulenzstrategie Gram-negativer Bakterien ist die Translokation von sogenannten Typ-III Effektorproteinen (T3Es) direkt in die Wirtszelle. Dort stören diese die Immunantwort des Wirts oder fördern die Etablierung einer für das Pathogen günstigen Umgebung. Eine kritische Komponente der Pflanzenimmunität gegen eindringende Pathogene ist die schnelle transkriptionelle Umprogrammierung der angegriffenen Zelle. Viele adaptierte bakterielle Pflanzenpathogene verwenden T3Es, um die Induktion Abwehr-assoziierter Gene zu stören. Die Aufklärung von Effektor-Funktionen, sowie die Identifikation ihrer pflanzlichen Zielproteine sind für das Verständnis der bakteriellen Pathogenese essentiell. Im Rahmen dieser Arbeit sollte das Typ-III Effektorprotein XopS aus Xanthomonas campestris pv. vesicatoria (Xcv) funktionell charakterisiert werden. Zudem lag hier ein besonderer Fokus auf der Untersuchung der Wechselwirkung zwischen XopS und seinem in Vorarbeiten identifizierten pflanzlichen Interaktionspartner WRKY40, einem transkriptionellen Regulator der Abwehr-assoziierten Genexpression. Es konnte gezeigt werden, dass XopS ein essentieller Virulenzfaktor des Phytopathogens Xcv während der präinvasiven Immunantwort ist. So zeigten xopS-defiziente Xcv Bakterien bei einer Inokulation der Blattoberfläche suszeptibler Paprika Pflanzen eine deutlich reduzierte Virulenz im Vergleich zum Xcv Wildtyp. Die Translokation von XopS durch Xcv, sowie die ektopische Expression von XopS in Arabidopsis oder N. benthamiana verhinderte das Schließen von Stomata als Reaktion auf Bakterien bzw. einem Pathogen-assoziierten Stimulus, wobei zudem gezeigt werden konnte, dass dies in einer WRKY40-abhängigen Weise geschieht. Weiter konnte gezeigt werden, dass XopS in der Lage ist, die Expression Abwehr-assoziierter Gene zu manipulieren. Dies deutet darauf hin, dass XopS sowohl in die prä-als auch in die postinvasive, apoplastische Abwehr eingreift. Phytohormon-Signalnetzwerke spielen während des Aufbaus einer effizienten pflanzlichen Immunantwort eine wichtige Rolle. Hier konnte gezeigt werden, dass XopS mit genau diesen Signalnetzwerken zu interferieren scheint. Eine ektopische Expression des Effektors in Arabidopsis führte beispielsweise zu einer signifikanten Induktion des Phytohormons Jasmonsäure (JA), während eine Infektion von suszeptiblen Paprika Pflanzen mit einem xopS-defizienten Xcv Stamm zu einer ebenfalls signifikanten Akkumulation des Salicylsäure (SA)-Gehalts führte.
So kann zu diesem Zeitpunkt vermutet werden, dass XopS die Virulenz von Xcv fördert, indem JA-abhängige Signalwege induziert werden und es gleichzeitig zur Unterdrückung SA-abhängiger Signalwege kommt. Die Virus-induzierte Genstilllegung des XopS Interaktionspartners WRKY40a in Paprika erhöhte die Toleranz der Pflanze gegenüber einer Xcv Infektion, was darauf hindeutet, dass es sich bei diesem Protein um einen transkriptionellen Repressor pflanzlicher Immunantworten handelt. Die Hypothese, dass WRKY40 die Abwehr-assoziierte Genexpression reprimiert, konnte hier über verschiedene experimentelle Ansätze bekräftigt werden. So wurde beispielsweise gezeigt, dass die Expression von verschiedenen Abwehrgenen einschließlich des SA-abhängigen Gens PR1 und die des Negativregulators des JA-Signalwegs JAZ8 von WRKY40 gehemmt wird. Um bei einem Pathogenangriff die Abwehr-assoziierte Genexpression zu gewährleisten, muss WRKY40 als Negativregulator abgebaut werden. Vorarbeiten zeigten, dass WRKY40 über das 26S Proteasom abgebaut wird. In der hier vorliegenden Studie konnte weiter bestätigt, dass der T3E XopS zu einer Stabilisierung des WRKY40 Proteins führt, indem er auf bislang ungeklärte Weise dessen Abbau über das 26S Proteasom verhindert. Die Ergebnisse aus der hier vorliegenden Arbeit lassen die Vermutung zu, dass die Stabilisierung des Negativregulators der Immunantwort WRKY40 seitens XopS dazu führt, dass eine darüber vermittelte Manipulation der Abwehr-assoziierten Genexpression, sowie eine Umsteuerung phytohormoneller Wechselwirkungen die Ausbreitung von Xcv auf suszeptiblen Paprikapflanzen fördert. Ein weiteres Ziel dieser Arbeit war es, weitere potentielle in planta Interaktionspartner von XopS zu identifizieren die für seine Interaktion mit WRKY40 bzw. für die Aufschlüsselung seines Wirkmechanismus relevant sein könnten. So konnte die Deubiquitinase UBP12 als weiterer pflanzlicher Interaktionspartner sowohl von XopS als auch von WRKY40 gefunden werden. Dieses Enzym ist in der Lage, die Ubiquitinierung von Substratproteinen zu modifizieren und seine Funktion könnte somit ein Bindeglied zwischen XopS und dessen Interferenz mit dem proteasomalen Abbau von WRKY40 sein. Während einer kompatiblen Xcv-Wirtsinteraktion führte die Virus-induzierte Genstilllegung von UBP12 zu einer reduzierten Resistenz der Pflanze gegenüber des Pathogens Xcv, was auf dessen positiv-regulatorische Wirkung während der Immunantwort hindeutet. Zudem zeigten Western Blot Analysen, dass das Protein WRKY40 bei einer Herunterregulierung von UBP12 akkumuliert und dass diese Akkumulation von der Anwesenheit des T3Es XopS zusätzlich verstärkt wird. Weiterführende Analysen zur biochemischen Charakterisierung der XopS/WRKY40/UBP12 Interaktion sollten in Zukunft durchgeführt werden, um den genauen Wirkmechanismus des XopS T3Es weiter aufzuschlüsseln.
Das Schulfach Geographie war in der DDR eines der Fächer, das sehr stark mit politischen Themen im Sinne des Marxismus-Leninismus bestückt war. Ein anderer Aspekt sind die sozialistischen Erziehungsziele, die in der Schulbildung der DDR hoch im Kurs standen. Im Fokus stand diesbezüglich die Erziehung der Kinder zu sozialistischen Persönlichkeiten. Die Arbeit versucht einen klaren Blick auf diesen Umstand zu werfen, um zu erfahren, was da von den Lehrkräften gefordert wurde und wie es in der Schule umzusetzen war.
Durch den Fall der Mauer war natürlich auch eine Umstrukturierung des Bildungssystems im Osten unausweichlich. Hier will die Arbeit Einblicke geben, wie die Geographielehrkräfte diese Transformation mitgetragen und umgesetzt haben. Welche Wesenszüge aus der Sozialisierung in der DDR haben sich bei der Gestaltung des Unterrichtes und dessen Ausrichtung auf die neuen Erziehungsziele erhalten?
Hierzu wurden Geographielehrkräfte befragt, die sowohl in der DDR als auch im geeinten Deutschland unterrichtet haben. Die Fragen bezogen sich in erster Linie auf die Art und Weise des Unterrichtens vor, während und nach der Wende und der daraus entstandenen Systemtransformation.
Die Befragungen kommen zu dem Ergebnis, dass sich der Geographieunterricht in der DDR thematisch von dem in der BRD nicht sonderlich unterschied. Von daher bedurfte es keiner umfangreichen inhaltlichen Veränderung des Geographieunterrichts. Schon zu DDR-Zeiten wurden durch die Lehrkräfte offenbar eigenmächtig ideologiefreie physisch-geographische Themen oft ausgedehnt, um die Ideologie des Faches zu reduzieren. So fiel den meisten eine Anpassung ihres Unterrichts an das westdeutsche System relativ leicht. Die humanistisch geprägte Werteerziehung des DDR-Bildungssystems wurde unter Ausklammerung des sozialistischen Aspektes ebenso fortgeführt, da es auch hier viele Parallelen zum westdeutschen System gegeben hat. Deutlich wird eine Charakterisierung des Faches als Naturwissenschaft von Seiten der ostdeutschen Lehrkräfte, obwohl das Fach an den Schulen den Gesellschaftswissenschaften zugeordnet wird und auch in der DDR eine starke wirtschaftsgeographische Ausrichtung hatte.
Von der Verantwortung sozialistische Persönlichkeiten zu erziehen, wurden die Lehrkräfte mit dem Ende der DDR entbunden und die in dieser Arbeit aufgeführten Interviewauszüge lassen keinen Zweifel daran, dass es dem Großteil der Befragten darum nicht leidtat, sie sich aber bis heute an der Werteorientierung aus DDR-Zeiten orientieren.
Aus dem Inhalt:
- Die Rolle Nationaler Menschenrechtsinstitutionen bei der Umsetzung der UN-Leitprinzipien für Wirtschaft
und Menschenrechte: Paradoxien und Potenziale
- Lehrbuchbeispiel des Versagens: Die Schutzverantwortung und die Rohingya in Myanmar
- Rechtsfragen der Umsetzung von Urteilen des Europäischen Gerichtshofs für Menschenrechte
Portal = Familie und Beruf
(2021)
Als ich für die vergangene Ausgabe der Portal an dem Artikel „Mein Arbeitstag im Bermudadreieck – zwischen Homeoffice, Homeschooling und Homekita“ schrieb, diskutierten wir im Redaktionsteam, ob der ungeschönte Bericht eines privaten Alltags überhaupt in ein Universitätsmagazin passt. Ich überlegte zudem, ob eine Publikation mich als Arbeitnehmerin wie Privatperson angreifbar machen würde.
Doch nach dem Erscheinen der Portal 1/2021 erreichten uns in der Pressestelle viele Danksagungen und Ermunterungen aus ganz unterschiedlichen Bereichen der Universität. Das Thema schien einen Nerv getroffen zu haben, was uns veranlasste, eine komplette Ausgabe zu diesem Thema zu produzieren. So halten Sie nun die Portal „Familie und Beruf“ in den Händen!
Familie beschränkt sich im Jahr 2021 dabei nicht auf „Mutter, Vater, Kind“, sondern manifestiert sich vielmehr in großer Diversität. Wir haben mit Menschen gesprochen, die in gleichgeschlechtlichen Partnerschaften leben, die Kinder adoptiert haben oder die ihr Haustier als Familienmitglied lieben; mit Alleinerziehenden genauso wie mit Paaren, die traumatisierte Pflegekinder großziehen. Dieses Heft zeigt eine Vielfalt unserer Kolleginnen und Kollegen, unserer Studierenden und macht deutlich: Familie ist bunt.
Unterm Strich können wir festhalten, dass heute viel Flexibilität von uns verlangt wird – daheim wie im Büro, Hörsaal oder Labor. Die Herausforderung ist und bleibt kontinuierlich: Verschiedene Lebensbereiche müssen in wechselnden Lebensphasen unter einen Hut gebracht werden. Wenn diese Portal vor Ihnen liegt, werde ich aufgrund einer befristeten Anstellung nicht mehr Teil der Uni Potsdam sein. Dafür ist Dr. Jana Scholz aus ihrer Elternzeit zurückgekehrt. Was mich mit ihr – und mutmaßlich auch mit Ihnen als Leserinnen und Leser – doch bleibend verbindet, ist das Bestreben, Familie und Beruf in Einklang zu bringen. Alles Gute! (Sandy Bossier-Steuerwald)
Liebe Leserinnen und Leser, es bleibt nicht viel zu ergänzen. Außer: Falls Sie nach dem Lesen dieser Ausgabe den Eindruck haben sollten, dass Familie vor allem herausfordernd und kräftezehrend ist – dann haben wir uns missverstanden. Dem ist natürlich nicht so! Familie ist auch Nähe, Zusammenhalt, Spaß, Humor und vieles mehr. An den Herausforderungen, die sie an uns und unseren Beruf stellt, können wir wachsen. Und dies gelingt besonders, wenn wir ein Netz von Freunden, Kolleginnen und Vorgesetzen haben, das uns dabei unterstützt.
Wie immer bietet die Portal über den Titel hinaus einen bunten Strauß an Geschichten: von magnetischen Kunstwerken, mit denen Studierende die Stadt verschönern, über eine angehende Rabbinerin, die Feminismus in die Gemeinden bringen will, bis zu den urzeitlichen sizilianischen Zwergelefanten, die über Jahrtausende schrumpften, bis sie vor 19.000 Jahren ganz verschwanden. Ich wünsche Ihnen viel Vergnügen beim Lesen! (Dr. Jana Scholz)
Portal = 30
(2021)
Wie schreibt man ein Editorial zum 30-jährigen Bestehen der Universität Potsdam, wenn man selbst doch erst seit drei Jahren zu ihr gehört? Vielleicht wäre es am einfachsten, die vielen Menschen zu zitieren, die uns für diese Ausgabe ihre interessanten Geschichten erzählt haben. Die die Universität mit zu dem entwickelten, was sie heute auszeichnet, zum Beispiel in der Lehrerbildung. Die uns „als Urgestein der UP“ Rede und Antwort standen und authentisch über die Schwierigkeiten der Anfangszeit berichteten. Oder die Alumni, die vier sehr verschiedene Jahrzehnte Studierendenleben reflektierten. Natürlich ließe sich auch die gastierende Prominenz aufzählen, die die Universität im Laufe der Zeit besucht hat. Oder man vermittelt gleich einen Ausblick auf künftige Projekte, etwa zur Transformation des Potsdamer Hochschulstandortes.
Stattdessen habe ich mich entschieden, Sie, liebe Leserinnen und Leser, hier noch etwas weiter zurück mitzunehmen – in die Vorwendezeit. Als ich in den 1980er Jahren in Westberlin die Schulbank drückte, war die Gegenwart eine kindlich geprägte, eine naiv angenehme – zwar frontal unterrichtet, mit viel Zucker und wenig Bio, dafür aber gepaart mit dem unwiederbringlichen Charme des Prä-digitalen. Ich wuchs unmittelbar angrenzend an Potsdam auf, im südwestlichen Bezirk Zehlendorf, und doch war Potsdam die große Unbekannte hinter dem Kontrollpunkt Dreilinden, jenseits von Havel und Teltowkanal, unerreichbar und versperrt mit Schranken und Panzerkreuzen auf der Glienicker Brücke.
Als Westberlinerin hatte ich die Freie Universität Berlin unweigerlich vor Augen, ihr Name war Programm. Wir waren frei, die da drüben waren es nicht. Während es zur beschaulichen Normalität des Zehlendorfs der 1980er Jahre gehörte, dass westalliierte Panzer die Clayallee entlangrollten, Macht und Freiheit demonstrierend, und der deutschlandweit erste McDonalds Drive-In eröffnete, bildete die DDR im Jenseits, direkt hinter dem Mauerstreifen in Griebnitzsee, ihre Rechts- und Verwaltungseliten aus. In Golm formte die Stasi ihre Juristen, an der Pädagogischen Hochschule studierten Lehrerinnen und Lehrer fürs ganze Land. Ein zwiespältigeres Bild kann man kaum zeichnen, die deutsche Teilung übertraf jeden Roman.
Im Hinblick auf das Aufeinandertreffen zweier Welten durch die Wiedervereinigung erscheinen die darauffolgenden Herausforderungen der 1990er Jahre, die Bildungsinstitutionen in Ostdeutschland wie die Uni Potsdam in ihrer Gründungsphase zu lösen hatten, verständlicher: Unterschiedliche Erwartungen, andere Perspektiven bzw. in den Lebenswelten begründete Erfahrungen mussten jetzt in ein System gegossen werden. Auch können die Transformationen vor dem Hintergrund der einst so gegensätzlichen Ausgangslage von Westund Ostdeutschland anders eingeordnet werden: So mögen 30 Jahre im internationalen Vergleich für eine Universität wenig sein und sie als jung gelten lassen. Andererseits bedeuten sie mit Blick auf die enorme Umwälzung der (ostdeutschen) Lebenswelten einen riesigen Kraftakt mit so vielen Entwicklungen, mit erfüllten wie geplatzten Träumen, dass sie einen staunen lassen, was in dieser Zeit geschafft und geleistet wurde.
Insofern freue ich mich über die Artikel dieser Ausgabe, über alle Erinnerungen, Erkenntnisse und Erzählungen der Menschen aus erster Hand. Es wäre schade gewesen, hätten wir ihre Gedanken und Geschichten nicht aufgeschrieben, denn genau diese haben die Uni Potsdam seit 1991 zu dem gemacht, was sie in 2021 ist.
Die herausragenden mechanischen Eigenschaften natürlicher anorganisch-organischer Kompositmaterialien wie Knochen oder Muschelschalen entspringen ihrer hierarchischen Struktur, die von der nano- bis hinauf zur makroskopischen Ebene reicht, und einer kontrollierten Verbindung entlang der Grenzflächen der anorganischen und organischen Komponenten.
Ausgehend von diesen Schlüsselprinzipien des biologischen Materialdesigns wurden in dieser Arbeit zwei Konzepte für die bioinspirierte Strukturbildung von Kompositen untersucht, die auf dem Verkleben von Nano- oder Mesokristallen mit funktionalisierten Poly(2-oxazolin)-Blockcopolymeren beruhen sowie deren Potenzial zur Herstellung bioinspirierter selbstorganisierter hierarchischer anorganisch-organischer Verbundstrukturen ohne äußere Kräfte beleuchtet. Die Konzepte unterschieden sich in den verwendeten anorganischen Partikeln und in der Art der Strukturbildung.
Über einen modularen Ansatz aus Polymersynthese und polymeranaloger Thiol-En-Funktionalisierung wurde erfolgreich eine Bibliothek von Poly(2-oxazolin)en mit unterschiedlichen Funktionalitäten erstellt. Die Blockcopolymere bestehen aus einem kurzen partikelaffinen "Klebeblock", der aus Thiol-En-funktionalisiertem Poly(2-(3-butenyl)-2-oxazolin) besteht, und einem langen wasserlöslichen, strukturbildenden Block, der aus thermoresponsivem und kristallisierbarem Poly(2-isopropyl-2-oxazolin) besteht und hierarchische Morphologien ausbildet. Verschiedene analytische Untersuchungen wie Turbidimetrie, DLS, DSC, SEM oder XRD machten das thermoresponsive bzw. das Kristallisationsverhalten der Blockcopolymere in Abhängigkeit vom eingeführten Klebeblock zugänglich. Es zeigte sich, dass diese Polymere ein komplexes temperatur- und pH-abhängiges Trübungsverhalten aufweisen. Hinsichtlich der Kristallisation änderte der Klebeblock nicht die nanoskopische Kristallstruktur; er beeinflusste jedoch die Kristallisationszeit, den Kristallisationsgrad und die hierarchische Morphologie. Dieses Ergebnis wurde auf das unterschiedliche Aggregationsverhalten der Polymere in Wasser zurückgeführt.
Für die Herstellung von Kompositen nutzte Konzept 1 mikrometergroße Kupferoxalat-Mesokristalle, die eine innere Nanostruktur aufweisen. Die Strukturbildung über den anorganischen Teil wurde durch das Verkleben und Anordnen dieser Partikel erstrebt. Konzept 1 ermöglichte homogene freistehende stabile Kompositfilme mit einem hohen anorganischen Anteil. Die Partikel-Polymer-Kombination vereinte jedoch ungünstige Eigenschaften in sich, d. h. ihre Längenskalen waren zu unterschiedlich, was die Selbstassemblierung der Partikel verhinderte. Aufgrund des geringen Aspektverhältnisses von Kupferoxalat blieb auch die gegenseitige Ausrichtung durch äußere Kräfte erfolglos. Im Ergebnis eignet sich das Kupferoxalat-Poly(2-oxazolin)-Modellsystem nicht für die Herstellung hierarchischer Kompositstrukturen.
Im Gegensatz dazu verwendet Konzept 2 scheibenförmige Laponit®-Nanopartikel und kristallisierbare Blockcopolymere zur Strukturbildung über die organische Komponente durch polymervermittelte Selbstassemblierung. Komplementäre Analysemethoden (Zeta-Potenzial, DLS, SEM, XRD, DSC, TEM) zeigten sowohl eine kontrollierte Wechselwirkung zwischen den Komponenten in wässriger Umgebung als auch eine kontrollierte Strukturbildung, die in selbstassemblierten Nanokompositen resultiert, deren Struktur sich über mehrere Längenskalen erstreckt. Es wurde gezeigt, dass die negativ geladenen Klebeblöcke spezifisch und selektiv an den positiv geladenen Rändern der Laponit®-Partikel binden und so Polymer-Laponit®-Nanohybridpartikel entstehen, die als Grundbausteine für die Kompositbildung dienen. Die Hybridpartikel sind bei Raumtemperatur elektrosterisch stabilisiert - sterisch durch ihre langen, mit Wasser wechselwirkenden Poly(2-isopropyl-2-oxazolin)-Blöcke und elektrostatisch über die negativ geladenen Laponit®-Flächen. Im Ergebnis ließ sich Konzept 2 und damit die Strukturbildung über die organische Komponente erfolgreich umsetzten. Das Laponit®-Poly(2-oxazolin)-Modellsystem eröffnete den Weg zu selbstassemblierten geschichteten quasi-hierarchischen Nanokompositstrukturen mit hohem anorganischen Anteil. Abhängig von der frei verfügbaren Polymerkonzentration bei der Kompositbildung entstanden zwei unterschiedliche Komposit-Typen. Darüber hinaus entwarf die Arbeit einen Erklärungsansatz für den polymervermittelten Bildungsprozess der Komposit-Strukturen.
Insgesamt legt diese Arbeit Struktur-Prozess-Eigenschafts-Beziehungen offen, um selbstassemblierte bioinspirierte Kompositstrukturen zu bilden und liefert neue Einsichten zu einer geeigneten Kombination an Komponenten und Herstellungsbedingungen, die eine kontrollierte selbstassemblierte Strukturbildung mithilfe funktionalisierter Poly(2-oxazolin)-Blockcopolymere erlauben.
Institutionelle Bildung ist für autistische Lernende mit vielgestaltigen und spezifischen Hindernissen verbunden. Dies gilt insbesondere im Zusammenhang mit Inklusion, deren Relevanz nicht zuletzt durch das Übereinkommen der Vereinten Nationen über die Rechte von Menschen mit Behinderung gegeben ist.
Diese Arbeit diskutiert zahlreiche lernrelevante Besonderheiten im Kontext von Autismus und zeigt Diskrepanzen zu den nicht immer ausreichend angemessenen institutionellen Lehrkonzepten. Eine zentrale These ist hierbei, dass die ungewöhnlich intensive Aufmerksamkeit von Autist*innen für ihre Spezialinteressen dafür genutzt werden kann, das Lernen mit fremdgestellten Inhalten zu erleichtern. Darauf aufbauend werden Lösungsansätze diskutiert, welche in einem neuartigen Konzept für ein digitales mehrgerätebasiertes Lernspiel resultieren.
Eine wesentliche Herausforderung bei der Konzeption spielbasierten Lernens besteht in der adäquaten Einbindung von Lerninhalten in einen fesselnden narrativen Kontext. Am Beispiel von Übungen zur emotionalen Deutung von Mimik, welche für das Lernen von sozioemotionalen Kompetenzen besonders im Rahmen von Therapiekonzepten bei Autismus Verwendung finden, wird eine angemessene Narration vorgestellt, welche die störungsarme Einbindung dieser sehr speziellen Lerninhalte ermöglicht.
Die Effekte der einzelnen Konzeptionselemente werden anhand eines prototypisch entwickelten Lernspiels untersucht. Darauf aufbauend zeigt eine quantitative Studie die gute Akzeptanz und Nutzerfreundlichkeit des Spiels und belegte vor allem die
Verständlichkeit der Narration und der Spielelemente. Ein weiterer Schwerpunkt liegt in der minimalinvasiven Untersuchung möglicher Störungen des Spielerlebnisses durch den Wechsel zwischen verschiedenen Endgeräten, für die ein innovatives Messverfahren entwickelt wurde.
Im Ergebnis beleuchtet diese Arbeit die Bedeutung und die Grenzen von spielbasierten Ansätzen für autistische Lernende. Ein großer Teil der vorgestellten Konzepte lässt sich auf andersartige Lernszenarien übertragen. Das dafür entwickelte technische Framework zur Realisierung narrativer Lernpfade ist ebenfalls darauf vorbereitet, für weitere Lernszenarien, gerade auch im institutionellen Kontext, Verwendung zu finden.
Die Technologie des 3D-Drucks hat sich in den letzten Jahrzehnten rasant entwickelt. Im Industriebereich entstehen immer modernere und spezialisiertere Druckverfahren, im Hobby- und Privatanwenderbereich hingegen werden stetig kostengünstigere und einfacher zu bedienende Geräte zugänglich. Einzig im Bildungsbereich scheint das Themenfeld hingegen erst langsam eine Rolle zu spielen, obwohl sich zahlreiche Bezugspunkte für einen Einsatz in verschiedensten Fächern finden lassen. Insbesondere im Fach Wirtschaft-Arbeit-Technik sind die Schnittstellen zum Rahmenlehrplan Berlin/Brandenburg augenscheinlich, doch es liegen erst vereinzelt konkrete und systematische didaktische Konzepte und Vorschläge zur unterrichtspraktischen Einbettung vor. Die Verfasserin versucht daher in dieser Arbeit die Relevanz des Themas für die technische Bildung deutlich zu machen, eine kurze technische Einführung in das für einen schulischen Einsatz besonders geeignete FDM-Druckverfahren zu geben und daran anknüpfend konkrete Umsetzungsvorschläge aufzuzeigen: einerseits in Form eines allgemeinen Phasenmodells zur Planung von Technikunterricht sowie andererseits in Form eines exemplarischen Unterrichtskonzepts. Am Beispiel eines Schachsets wird verdeutlicht, wie Schülerinnen und Schüler zum Anfertigen der Konstruktionsunterlagen digitale CAD-Programme nutzen und anschließend mit Hilfe eines 3D-Druckers additiv fertigen können.
Die Bienaymé-Galton-Watson Prozesse können für die Untersuchung von speziellen und sich entwickelnden Populationen verwendet werden. Die Populationen umfassen Individuen, welche sich identisch, zufällig, selbstständig und unabhängig voneinander fortpflanzen und die jeweils nur eine Generation existieren. Die n-te Generation ergibt sich als zufällige Summe der Individuen der (n-1)-ten Generation. Die Relevanz dieser Prozesse begründet sich innerhalb der Historie und der inner- und außermathematischen Bedeutung. Die Geschichte der Bienaymé-Galton-Watson-Prozesse wird anhand der Entwicklung des Konzeptes bis heute dargestellt. Dabei werden die Wissenschaftler:innen verschiedener Disziplinen angeführt, die Erkenntnisse zu dem Themengebiet beigetragen und das Konzept in ihren Fachbereichen angeführt haben. Somit ergibt sich die außermathematische Signifikanz. Des Weiteren erhält man die innermathematische Bedeutsamkeit mittels des Konzeptes der Verzweigungsprozesse, welches auf die Bienaymé-Galton-Watson Prozesse zurückzuführen ist. Die Verzweigungsprozesse stellen eines der aussagekräftigsten Modelle für die Beschreibung des Populationswachstums dar. Darüber hinaus besteht die derzeitige Wichtigkeit durch die Anwendungsmöglichkeit der Verzweigungsprozesse und der Bienaymé-Galton-Watson Prozesse innerhalb der Epidemiologie. Es werden die Ebola- und die Corona-Pandemie als Anwendungsfelder angeführt. Die Prozesse dienen als Entscheidungsstütze für die Politik und ermöglichen Aussagen über die Auswirkungen von Maßnahmen bezüglich der Pandemien. Neben den Prozessen werden ebenfalls der bedingte Erwartungswert bezüglich diskreter Zufallsvariablen, die wahrscheinlichkeitserzeugende Funktion und die zufällige Summe eingeführt. Die Konzepte vereinfachen die Beschreibung der Prozesse und bilden somit die Grundlage der Betrachtungen. Außerdem werden die benötigten und weiterführenden Eigenschaften der grundlegenden Themengebiete und der Prozesse aufgeführt und bewiesen. Das Kapitel erreicht seinen Höhepunkt bei dem Beweis des Kritikalitätstheorems, wodurch eine Aussage über das Aussterben des Prozesses in verschiedenen Fällen und somit über die Aussterbewahrscheinlichkeit getätigt werden kann. Die Fälle werden anhand der zu erwartenden Anzahl an Nachkommen eines Individuums unterschieden. Es zeigt sich, dass ein Prozess bei einer zu erwartenden Anzahl kleiner gleich Eins mit Sicherheit ausstirbt und bei einer Anzahl größer als Eins, die Population nicht in jedem Fall aussterben muss. Danach werden einzelne Beispiele, wie der linear fractional case, die Population von Fibroblasten (Bindegewebszellen) von Mäusen und die Entstehungsfragestellung der Prozesse, angeführt. Diese werden mithilfe der erlangten Ergebnisse untersucht und einige ausgewählte zufällige Dynamiken werden im nachfolgenden Kapitel simuliert. Die Simulationen erfolgen durch ein in Python erstelltes Programm und werden mithilfe der Inversionsmethode realisiert. Die Simulationen stellen beispielhaft die Entwicklungen in den verschiedenen Kritikalitätsfällen der Prozesse dar. Zudem werden die Häufigkeiten der einzelnen Populationsgrößen in Form von Histogrammen angebracht. Dabei lässt sich der Unterschied zwischen den einzelnen Fällen bestätigen und es wird die Anwendungsmöglichkeit der Bienaymé-Galton-Watson Prozesse bei komplexeren Problemen deutlich. Histogramme bekräftigen, dass die einzelnen Populationsgrößen nur endlich oft vorkommen. Diese Aussage wurde von Galton aufgeworfen und in der Extinktions-Explosions-Dichotomie verwendet. Die dargestellten Erkenntnisse über das Themengebiet und die Betrachtung des Konzeptes werden mit einer didaktischen Analyse abgeschlossen. Die Untersuchung beinhaltet die Berücksichtigung der Fundamentalen Ideen, der Fundamentalen Ideen der Stochastik und der Leitidee „Daten und Zufall“. Dabei ergibt sich, dass in Abhängigkeit der gewählten Perspektive die Anwendung der Bienaymé-Galton-Watson Prozesse innerhalb der Schule plausibel ist und von Vorteil für die Schüler:innen sein kann. Für die Behandlung wird exemplarisch der Rahmenlehrplan für Berlin und Brandenburg analysiert und mit dem Kernlehrplan Nordrhein-Westfalens verglichen. Die Konzeption des Lehrplans aus Berlin und Brandenburg lässt nicht den Schluss zu, dass die Bienaymé-Galton-Watson Prozesse angewendet werden sollten. Es lässt sich feststellen, dass die zugrunde liegende Leitidee nicht vollumfänglich mit manchen Fundamentalen Ideen der Stochastik vereinbar ist. Somit würde eine Modifikation hinsichtlich einer stärkeren Orientierung des Lehrplans an den Fundamentalen Ideen die Anwendung der Prozesse ermöglichen. Die Aussage wird durch die Betrachtung und Übertragung eines nordrhein-westfälischen Unterrichtsentwurfes für stochastische Prozesse auf die Bienaymé-Galton-Watson Prozesse unterstützt. Darüber hinaus werden eine Concept Map und ein Vernetzungspentagraph nach von der Bank konzipiert um diesen Aspekt hervorzuheben.
Die vorliegende Studie zeigt, dass Daten in der Krise eine herausragende Bedeutung für die wissenschaftliche Politikberatung, administrative Entscheidungsvorbereitung und politische Entscheidungsfindung haben. In der Krise gab es jedoch gravierende Kommunikationsprobleme und Unsicherheiten in der wechselseitigen Erwartungshaltung von wissenschaftlichen Datengebern und politisch-administrativen Datennutzern. Die Wissensakkumulation und Entscheidungsabwägung wurde außerdem durch eine unsichere und volatile Datenlage zum Pandemiegeschehen, verbunden mit einer dynamischen Lageentwicklung, erschwert. Nach wie vor sind das Bewusstsein und wechselseitige Verständnis für die spezifischen Rollenprofile der am wissenschaftlichen Politikberatungsprozess beteiligten Akteure sowie insbesondere deren Abgrenzung als unzureichend einzuschätzen.
Die Studie hat darüber hinaus vielfältige Defizite hinsichtlich der Verfügbarkeit, Qualität, Zugänglichkeit, Teilbarkeit und Nutzbarkeit von Daten identifiziert, die Datenproduzenten und -verwender vor erhebliche Herausforderungen stellen und einen umfangreichen Reformbedarf aufzeigen, da zum einen wichtige Datenbestände für eine krisenbezogene Politikberatung fehlen. Zum anderen sind die Tiefenschärfe und Differenziertheit des verfügbaren Datenbestandes teilweise unzureichend. Dies gilt z.B. für sozialstrukturelle Daten zur Schwere der Pandemiebetroffenheit verschiedener Gruppen oder für kleinräumige Daten über Belastungs- und Kapazitätsparameter, etwa zur Personalabdeckung auf Intensivstationen, in Gesundheitsämtern und Pflegeeinrichtungen. Datendefizite sind ferner im Hinblick auf eine ganzheitliche Pandemiebeurteilung festzustellen, zum Beispiel bezüglich der Gesundheitseffekte im weiteren Sinne, die aufgrund der ergriffenen Maßnahmen entstanden sind (Verschiebung oder Wegfall von Operationen, Behandlungen und Prävention, aber auch häusliche Gewalt und psychische Belastungen). Mangels systematischer Begleitstudien und evaluativer Untersuchungen, u.a. auch zu lokalen Pilotprojekten und Experimenten, bestehen außerdem Datendefizite im Hinblick auf die Wirkungen von Eindämmungsmaßnahmen oder deren Aufhebung auf der gebietskörperschaftlichen Ebene.
Insgesamt belegt die Studie, dass es zur Optimierung der datenbasierten Politikberatung und politischen Entscheidungsfindung in und außerhalb von Krisen nicht nur darum gehen kann, ein „Mehr“ an Daten zu produzieren sowie deren Qualität, Verknüpfung und Teilung zu verbessern. Vielmehr müssen auch die Anreizstrukturen und Interessenlagen in Politik, Verwaltung und Wissenschaft sowie die Kompetenzen, Handlungsorientierungen und kognitiv-kulturellen Prägungen der verschiedenen Akteure in den Blick genommen werden. Es müssten also Anreize gesetzt und Strukturen geschaffen werden, um das Interesse, den Willen und das Können (will and skill) zur Datennutzung auf Seiten politisch-administrativer Entscheider und zur Dateneinspeisung auf Seiten von Wissenschaftlern zu stärken. Neben adressatengerechter Informationsaufbereitung geht es dabei auch um die Gestaltung eines normativen und institutionellen Rahmens, innerhalb dessen die Nutzung von Daten für Entscheidungen effektiver, qualifizierter, aber auch transparenter, nachvollziehbarer und damit demokratisch legitimer erfolgen kann.
Vor dem Hintergrund dieser empirischen Befunde werden acht Cluster von Optimierungsmaßnahmen vorgeschlagen:
(1) Etablierung von Datenstrecken und Datenteams,
(2) Schaffung regionaler Datenkompetenzzentren,
(3) Stärkung von Data Literacy und Beschleunigung des Kulturwandels in der öffentlichen Verwaltung,
(4) Datenstandardisierung, Interoperabilität und Registermodernisierung,
(5) Ausbau von Public Data Pools und Open Data Nutzung,
(6) Effektivere Verbindung von Datenschutz und Datennutzung,
(7) Entwicklung eines hochfrequenten, repräsentativen Datensatzes,
(8) Förderung der europäischen Daten-Zusammenarbeit.
Der vorliegende Band enthält sämtliche Impulsvorträge der Lateintage von 2018 bis 2020. Zum Thema „Im Schatten der Gesellschaft? Roms Umgang mit sozialen Randgruppen“ sprachen 2018 Meike Rühl und Nicola Hömke. Unter der Überschrift „Im Zentrum der Macht: Forum Romanum“ beleuchteten Jon Albers, Filippo Carlà-Uhink und Jan Reimann 2019 jenen wirkmächtigen Ort in seinen verschiedenen Facetten näher. 2020 gab Holger Sonnabend Lateinschülern einen Einblick in das Thema „Nero – Kaiser und Künstler“. Die Vorträge sind in der Reihenfolge abgedruckt, in der sie auf dem jeweiligen Lateintag gehalten wurden.
Das Fachwissen von Lehrkräften weist für die Ausprägung fachdidaktischer Expertise eine hohe Bedeutung auf. Welche Merkmale universitäre Lehrveranstaltungen aufweisen sollten, um Lehramtsstudierenden ein berufsspezifisches Fachwissen zu vermitteln, ist jedoch überwiegend noch unklar.
Innerhalb des Projekts PSI-Potsdam wurde auf theoretischer Grundlage das fachübergreifende Modell des erweiterten Fachwissens für den schulischen Kontext entwickelt. Als Ansatz zur Verbesserung des Biologie-Lehramtsstudiums diente dieses Modell als Konzeptionsgrundlage für eine additive Lehrveranstaltung. Hierbei werden Lerngelegenheiten geboten, um das universitär erworbene Fachwissen über zellbiologische Inhalte auf schulische Kontexte anzuwenden, z.B. durch die Dekonstruktion und anschließende Rekonstruktion von schulischen Lerntexten. Die Wirkung des Seminars wurde in mehreren Zyklen im Forschungsformat der Fachdidaktischen Entwicklungsforschung beforscht. Eine der zentralen Forschungsfragen lautet dabei: Wie kann eine Lerngelegenheit für Lehramtsstudierende der Biologie gestaltet sein, um ein erweitertes Fachwissen für den schulischen Kontext für den zellbiologischen Themenbereich „Struktur und Funktion der Biomembran“ zu fördern?
Anhand fallübergreifender Analysen (n = 29) wird im empirischen Teil aufgezeigt, welche Einstellungen zum Lehramtsstudium in der Stichprobe bestehen. Als ein wichtiges Ergebnis kann hierbei herausgestellt werden, dass sich das Fachinteresse hinsichtlich schulisch und universitär vermittelter Inhalte bei den untersuchten Studierenden auffallend unterscheidet, wobei dem Schulwissen ein deutlich höheres Interesse entgegengebracht wird. Die Berufsrelevanz fachlicher Inhalte wird seitens der Studierenden häufig am Schulwissen festgemacht.
Innerhalb konkreter Einzelfallanalysen (n = 6) wird anhand von Lernpfaden dargestellt, wie sich über mehrere Design-Experimente hinweg fachliche Konzepte entwickelt haben. Bei der Beschreibung wird vor allem auf Schlüsselstellen und Hürden im Lernprozess fokussiert. Aus diesen Ergebnissen folgend werden vorgenommene Iterationen für die einzelnen Zyklen beschrieben, die ebenfalls anhand der iterativen Entwicklung der Design-Prinzipien dargelegt werden.
Es konnte gezeigt werden, dass die Schlüsselstellen sehr individuell aufgrund der subjektiv fokussierten Inhalte zu Tage treten. Meist treten sie jedoch im Zusammenhang mit der Verknüpfung verschiedener fachlicher Konzepte oder durch kooperative Aufschlüsselungen von Konzepten auf. Fachliche Hürden konnten hingegen in Form von fachlich unangemessenen Vorstellungen fallübergreifend identifiziert werden. Dies betrifft unter anderem die Vorstellung der Biomembran als Wand, die mit den Vorstellungen einer Schutzfunktion und einer formgebenden Funktion der Biomembran einhergeht.
Weiterhin wird beleuchtet, wie das erweiterte Fachwissen für den schulischen Kontext zur Bearbeitung der Lernaufgaben angewendet wurde. Es hat sich gezeigt, dass sich bestimmte Lerngelegenheiten eigenen, um bestimmte Facetten des erweiterten Fachwissens zu fördern.
Insgesamt scheint das Modell des erweiterten Fachwissens für den schulischen Kontext äußerst geeignet zu sein, um anhand der Facetten und deren Beschreibungen Lerngelegenheiten oder Gestaltungsprinzipien für diese zu konzipieren. Für das untersuchte Lehr-Lernarrangement haben sich kleinere Adaptationen des Modells als sinnvoll erwiesen. Hinsichtlich der Methodologie konnten Ableitungen für die Anwendung der fachdidaktischen Entwicklungsforschung für additive fachliche Lehrveranstaltungen dieser Art herausgestellt werden.
Um den Professionsbezug der fachwissenschaftlichen Anteile im Lehramtsstudium zu verbessern, ist der weitere Einbezug des erweiterten Fachwissens für den schulischen Kontext in die fachwissenschaftlichen Studienanteile überaus wünschenswert.
Insulinresistenz ist ein zentraler Bestandteil des metabolischen Syndroms und trägt maßgeblich zur Ausbildung eines Typ-2-Diabetes bei. Eine mögliche Ursache für die Entstehung von Insulinresistenz ist eine chronische unterschwellige Entzündung, welche ihren Ursprung im Fettgewebe übergewichtiger Personen hat. Eingewanderte Makrophagen produzieren vermehrt pro-inflammatorische Mediatoren, wie Zytokine und Prostaglandine, wodurch die Konzentrationen dieser Substanzen sowohl lokal als auch systemisch erhöht sind. Darüber hinaus weisen übergewichtige Personen einen gestörten Fettsäuremetabolismus und eine erhöhte Darmpermeabilität auf. Ein gesteigerter Flux an freien Fettsäuren vom Fettgewebe in andere Organe führt zu einer lokalen Konzentrationssteigerung in diesen Organen. Eine erhöhte Darmpermeabilität erleichtert das Eindringen von Pathogenen und anderer körperfremder Substanzen in den Körper.
Ziel dieser Arbeit war es, zu untersuchen, ob hohe Konzentrationen von Insulin, des bakteriellen Bestandteils Lipopolysaccharid (LPS) oder der freien Fettsäure Palmitat eine Entzündungsreaktion in Makrophagen auslösen oder verstärken können und ob diese Entzündungsantwort zur Ausbildung einer Insulinresistenz beitragen kann. Weiterhin sollte untersucht werden, ob Metabolite und Signalsubstanzen, deren Konzentrationen beim metabolischen Syndrom erhöht sind, die Produktion des Prostaglandins (PG) E2 begünstigen können und ob dieses wiederum die Entzündungsreaktion und seine eigene Produktion in Makrophagen regulieren kann. Um den Einfluss dieser Faktoren auf die Produktion pro-inflammatorischer Mediatoren in Makrophagen zu untersuchen, wurden Monozyten-artigen Zelllinien und primäre humane Monozyten, welche aus dem Blut gesunder Probanden isoliert wurden, in Makrophagen differenziert und mit Insulin, LPS, Palmitat und/ oder PGE2 inkubiert. Überdies wurden primäre Hepatozyten der Ratte isoliert und mit Überständen Insulin-stimulierter Makrophagen inkubiert, um zu untersuchen, ob die Entzündungsanwort in Makrophagen an der Ausbildung einer Insulinresistenz in Hepatozyten beteiligt ist.
Insulin induzierte die Expression pro-inflammatorischer Zytokine in Makrophagen-artigen Zelllinien wahrscheinlich vorrangig über den Phosphoinositid-3-Kinase (PI3K)-Akt-Signalweg mit anschließender Aktiverung des Transkriptionsfaktors NF-κB (nuclear factor 'kappa-light-chain-enhancer' of activated B-cells). Die dabei ausgeschütteten Zytokine hemmten in primären Hepatozyten der Ratte die Insulin-induzierte Expression der Glukokinase durch Überstände Insulin-stimulierter Makrophagen.
Auch LPS oder Palmitat, deren lokale Konzentrationen im Zuge des metabolischen Syndroms erhöht sind, waren in der Lage, die Expression pro-inflammatorischer Zytokine in Makrophagen-artigen Zelllinien zu stimulieren. Während LPS seine Wirkung, laut Literatur, unbestritten über eine Aktivierung des Toll-ähnlichen Rezeptors (toll-like receptor; TLR) 4 vermittelt, scheint Palmitat jedoch weitestgehend TLR4-unabhängig wirken zu können. Vielmehr schien die de novo-Ceramidsynthese eine entscheidene Rolle zu spielen. Darüber hinaus verstärkte Insulin sowohl die LPS- als auch die Palmitat-induzierte Ent-zündungsantwort in beiden Zelllinien. Die in Zelllinien gewonnenen Ergebnisse wurden größtenteils in primären humanen Makrophagen bestätigt.
Desweiteren induzierten sowohl Insulin als auch LPS oder Palmitat die Produktion von PGE2 in den untersuchten Makrophagen. Die Daten legen nahe, dass dies auf eine gesteigerte Expression PGE2-synthetisierender Enzyme zurückzuführen ist.
PGE2 wiederum hemmte auf der einen Seite die Stimulus-abhängige Expression des pro-inflammatorischen Zytokins Tumornekrosefaktor (TNF) α in U937-Makrophagen. Auf der anderen Seite verstärkte es jedoch die Expression der pro-inflammatorischen Zytokine Interleukin- (IL-) 1β und IL-8. Darüber hinaus verstärkte es die Expression von IL-6-Typ-Zytokinen, welche sowohl pro- als auch anti-inflammatorisch wirken können. Außerdem vestärkte PGE2 die Expression PGE2-synthetisierender Enzyme. Es scheint daher in der Lage zu sein, seine eigene Synthese zu verstärken.
Zusammenfassend kann die Freisetzung pro-inflammatorischer Mediatoren aus Makro-phagen im Zuge einer Hyperinsulinämie die Entstehung einer Insulinresistenz begünstigen. Insulin ist daher in der Lage, einen Teufelskreis der immer stärker werdenden Insulin-resistenz in Gang zu setzen.
Auch Metabolite und Signalsubstanzen, deren Konzentrationen beim metabolischen Syndrom erhöht sind (zum Beispiel LPS, freie Fettsäuren und PGE2), lösten Entzündungsantworten in Makrophagen aus. Das wechselseitige Zusammenspiel von Insulin und diesen Metaboliten und Signalsubstanzen löste eine stärkere Entzündungsantwort in Makrophagen aus als jeder der Einzelkomponenten. Die dadurch freigesetzten Zytokine könnten zur Manifestation einer Insulinresistenz und des metabolischen Syndroms beitragen.
Die aktuelle Politik der Europäischen Union hat im Umgang mit flüchtenden Menschen das Mittelmeer in ein Massengrab verwandelt. Dass auch im Jahr 2021 täglich Menschen an den EU-Außengrenzen sterben hängt dabei mit dem Ausbau von Sicherheitsmechanismen zum Zweck eines verstärkten Grenzschutzes zusammen. Durch Sicherheitsmechanismen wie bspw. den Ausbau von Frontex und die elektronische Erfassung von Ein- und Ausreisedaten schottet sich die EU dabei immer weiter ab während gleichzeitig die Thematik der Flucht und Migration eine zunehmende ‚Versicherheitlichung‘ erfährt.
Die vorliegende Arbeit geht davon aus, dass die Grundzüge der Versicherheitlichung von Flucht und Migration bereits im liberalen Staatsverständnis der EU angelegt sind. Mithilfe einer foucaultschen Diskursanalyse hinterfragt die Arbeit daher die historisch entstandenen und im Liberalismus inbegriffenen Vorannahmen über nicht-europäische Menschen und deren Fortentwicklung in die heutigen Politiken der EU. Dabei geht die Arbeit einerseits der Frage nach, wie sich die zunehmende Versicherheitlichung der Migration und der damit verbundene Umgang mit Nicht-Europäer*innen an den EU-Außengrenzen erklären lässt. Vertieft wird gefragt, inwieweit sich die konstruierten Wissensmuster über das europäische ‚wir‘ und die nicht-europäischen ‚Anderen‘ aus dem Liberalismus in der heutigen EU-Politik wiederfinden.
Auf Basis der Werke Michel Foucaults führt die Arbeit in die Entwicklung liberaler Staatlichkeit seit dem 17. Jahrhundert ein. Ergänzt werden diese Darstellungen um eine postkoloniale Perspektive, die eine Darstellung des liberalen Denkens über das europäische ‚Außen‘ vermittelt. Gemeinsam legen diese beiden Perspektiven die Strukturen liberalen Denkens offen, die im späteren Verlauf der Analyse in aktuellen EU-Dokumenten wiedererkannt werden. Als Analysedokumente dienen dabei sechs von der EU veröffentlichte Agenden, Verordnungen und Strategien, die die thematische Schnittstelle zwischen Sicherheit und Migration umfassen.
Die Ergebnisse zeigen, dass sich ein ‚Othering‘ - die historisch entstandene Gruppenbildung des homogen begriffenen europäischen ‚Wirs‘ gegenüber den nicht-europäischen ‚Anderen‘ - in der heutigen Politik der EU an deren Außengrenzen reproduziert. Das im 17. Jahrhundert entstandene Sicherheitsdenken des liberalen Staates wird über die Reproduktion bestimmter Wissensmuster in Form von ‚Stories‘ auf die heutigen EU-Außengrenzen übertragen. Nach ‚innen‘ handelt die EU dabei nach einem Grundsatz der ‚gemeinsamen Stärke‘ der europäischen Staaten bzw. der EU-Mitgliedstaaten, während nach ‚außen‘ eine zweckrationale Kooperation mit Drittstaaten verfolgt wird. Statt um die Wahrung von Menschenleben geht es damals wie heute v.a. um den Vorteil Europas bzw. der EU. Von diesen Ergebnissen ausgehend wird die Zunahme der Versicherheitlichung von Flucht und Migration an den EU-Außengrenzen durch die Reproduktion des geschichtlich entstandenen Sicherheitsdenkens erklärt.
In vielen Studiengängen kommt es durch die oft heterogenen Vorkenntnisse in der Studieneingangsphase zu mangelnder Motivation durch Über- oder Unterforderung. Dieses Problem tritt auch in der musiktheoretischen Grundausbildung an Hochschulen auf. Durch Einsatz von Elementen, die aus dem Unterhaltungskontext geläufig sind, kann eine Steigerung der Motivation erreicht werden. Die Nutzung solcher Elemente wird als Gamification bezeichnet.
Das Ziel der vorliegenden Arbeit ist es, am Fallbeispiel der musiktheoretischen Grundausbildung zu analysieren, ob Lerngelegenheiten durch einen gamifizierten interaktiven Prototyp einer Lernumgebung unterstützt werden können. Dazu wird die folgende Forschungsfrage gestellt: Inwieweit wirkt Gamification auf die Motivation bei den Lernenden zur Beschäftigung mit dem Thema (musikalische) Funktionsanalyse?
Um die Forschungsfragen zu beantworten, wurde zunächst ein systematisches, theoriegeleitetes Vorgehensmodell zur Gamification von Lernumgebungen entwickelt und angewandt. Der so entstandene Prototyp wurde anschließend um alle Game-Design-Elemente reduziert und im Rahmen einer experimentellen Studie mit zwei unabhängigen Versuchsgruppen mit der gamifizierten Variante verglichen.
Die Untersuchung zeigte, dass die Gamification einer Lernanwendung nach dem entwickelten Vorgehensmodell grundsätzlich das Potenzial besitzt, manche Aspekte des Nutzungserlebnisses (UX) positiv zu beeinflussen. Insbesondere hatte die Gamification positive Effekte auf die Joy of Use und die Immersivität. Allerdings blieb das Ausmaß der beobachteten Effekte deutlich hinter den Erwartungen zurück, die auf Basis verschiedener Motivationstheorien getroffen wurden.
Daher erscheint Gamification besonders in außeruniversitären Kontexten vielversprechend, in denen der Fokus auf einer Erhöhung der Joy of Use oder einer Steigerung der Immersivität liegt. Allerdings lassen sich durch die Untersuchung neue Erkenntnisse zur emotionalen Wirkung von Gamification und zu einem systematischen Vorgehen bei der Gamification von Lernanwendungen herausstellen.
Weiterführende Forschung könnte an diese Erkenntnisse anknüpfen, indem sie die emotionale Wirkung von Gamification und deren Einfluss auf die Motivation näher untersucht. Darüber hinaus sollte sie Gamification auch aus einer entscheidungstheoretischen Perspektive betrachten und Analysemethoden entwickeln, mit denen entschieden werden kann, ob der Einsatz von Gamification zur Motivationssteigerung in einem spezifischen Anwendungsfall zielführend ist. Unter Verwendung des entwickelten Vorgehensmodells kann es sinnvoll sein, näher zu untersuchen, welche Faktoren insgesamt für das Gelingen einer Gamification-Maßnahme in Bildungskontexten entscheidend sind. Die Erkenntnisse einer solchen Untersuchung könnten entscheidend zur Verbesserung und Validierung des Vorgehensmodells beitragen.
„If you can’t measure it, you can’t manage it.“ Dieser Slogan, der u. a. auf Peter Drucker, Henry Deming oder Robert Kaplan und David Norton zurückgehen soll, ist Ausdruck einer tiefen Überzeugung in die Notwendigkeit und den Nutzen des Performance Managements, einem Ansatz der auch die öffentliche Verwaltung erfasst und geprägt hat. Gleichzeitig impliziert er eine entscheidende Rolle von Performance Informationen. Die vorliegende Dissertation rückt das neuralgische Element Performance Information ins Zentrum des Forschungsinteresses, genauer die Verwendung von Kennzahlen.
Ausgangspunkt bildet die wissenschaftliche Beobachtung, dass Kennzahlen nicht immer und automatisch in der vom theoretischen Standpunkt aus erforderlichen und prognostizierten Art und Weise genutzt werden. Eine schlechte Implementierung des Managementansatzes oder Fehler im theoretischen Fundament sind mögliche Erklärungsansätze. Im Zuge der Analyse des Forschungsstandes ist offenkundig geworden, dass Erklärungen vor allem im organisationalen Setting und in Performance Management bezogenen Faktoren gesucht werden; ein Kennzeichen für eine eher technokratische und implementationsbezogene Perspektive auf die Verwendungsproblematik. Die aus neurowissenschaftlicher Sicht wichtige intrapersonale Ebene spielt eine ungeordnete Rolle.
In Anbetracht dessen ist auf der Grundlage neurowissenschaftlicher Erkenntnisse im Rahmen einer empirischen Untersuchung die Wirkung erfahrungsbezogener Variablen auf das Verwendungsverhalten untersucht worden. Dabei ist analysiert worden, wie Erfahrungen auf organisationaler Ebene entstehen und wie sie im Detail auf das Nutzungsverhalten wirken. Als Forschungsobjekt sind polizeiliche Führungskräfte herangezogen worden. Die Daten sind Ende 2016/Anfang 2017 online-basiert erhoben worden.
Im Ergebnis der Datenauswertung und Diskussion der Befunde sind folgende Erkenntnisse hervorzuheben:
(1) Erfahrungen beeinflussen die Verwendung von Performance Informationen. Die Art der Erfahrung mit Kennzahlen bildet dabei eine Mediatorvariable. Vor allem organisationale Faktoren, wie der Reifegrad des Performance Management Systems, wirken über den Faktor Erfahrung auf das Verwendungsverhalten.
(2) Erwähnenswert ist zudem, dass die Auseinandersetzung mit Kennzahlen sowohl den Erfahrungsschatz als auch die Nutzung von Kennzahlen positiv beeinflusst. Insgesamt haben sich die neurowissenschaftlich inspirierten Variablen als vielversprechende Erklärungsfaktoren herausgestellt.
(3) Des Weiteren hat die Arbeit bestehende Befunde abgesichert, v. a. die Wirkung des erwähnten Reifegrads. Allerdings sind auch Unterschiede aufgetreten. So büßt zum Beispiel der transformationale Führungsstil i. V. m. Art der Erfahrung seine positive Wirkung auf die Kennzahlennutzung ein.
(4) Interessant sind zudem die Ergebnisse des Labor- und Quasiexperiments. Erstmalig sind nicht zweckorientierte Verwendungsarten experimentell beobachtbar. Zudem sind neuro- und verhaltensökonomische Erklärungsansätze identifiziert und diskutiert worden, die eine Bereicherung des Forschungsdiskurses darstellen. Sie bieten eine neue Perspektive hinsichtlich des Verwendungsverhaltens und liefern Impulse für die weitere Forschung.
Für das New Public Management, in dessen Werkzeugkasten dieser Managementansatz eine Schlüsselrolle einnimmt, wiegen die Forschungsbefunde schwer. Ohne ein funktionierendes Performance Management kann das wichtige Reformziel „Wirkungsorientierung“ nicht erreicht werden. Das NPM läuft damit Gefahr, selbst Dysfunktionen zu entwickeln.
Insgesamt scheint es geboten, in der Auseinandersetzung mit Managementsystemen einen stärkeren Fokus auf intrapersonale Faktoren zu legen. Auch Verhaltensanomalien im Kontext von Management und deren Implikationen sollten näher untersucht werden. Es zeigt sich ferner, dass eine rein technokratische Sichtweise auf das Performance Management nicht zielführend ist. Folglich ist das Performance Management theoretisch wie konzeptionell fortzuentwickeln.
Die Forschungsarbeit liefert somit wichtige neue Erkenntnisse zur Verwendung von Performance Informationen und zum Verständnis von Performance Management. Vor allem erweitert sie den Forschungsdiskurs, da sie die Erklärungskraft intrapersonaler Faktoren aufgezeigt hat sowie methodisch mit dem Mixed-Method-Ansatz (Multimethod-Studie) und theoretisch mittels der Neuro- und Verhaltensökonomie neue Perspektiven hinsichtlich der Verwendungsproblematik eröffnet.
Portal Wissen = Aufbruch
(2021)
Am 20. Oktober 1911 verließ der Norweger Roald Amundsen gemeinsam mit vier Begleitern und 52 Schlittenhunden das sichere Lager „Framheim“ in der „Bucht der Wale“, um als erster Mensch den Südpol zu erreichen. Vor ihnen lagen das ewige Eis bei -20 bis -30 Grad Celsius und eine Strecke von 1.400 Kilometern. Nach acht Wochen erreichte die Gruppe am 13. Dezember ihr Ziel. Die Männer pflanzten die norwegische Fahne in den einsamen Schnee und machten sich wenig später auf den Rückweg – ruhmreich, geehrt als Eroberer des Südpols und beladen mit Informationen und Wissen aus der Welt der Antarktis. Die Reise von Amundsen und seinen Begleitern ist fraglos so außergewöhnlich, weil durch sie bewiesen wurde, dass sie möglich ist, und weil die fünf die ersten waren, denen sie gelang. Sie ist aber auch Sinnbild für das, was dem Menschen erlaubt, die Grenzen seiner Welt immer weiter zu verschieben: der Drang, ins Unbekannte aufzubrechen, zu entdecken, was noch nicht gefunden, erforscht und beschrieben ist.
Was Wissenschaft – noch vor jeder Entdeckung und allem neuen Wissen – auszeichnet, ist der Aufbruch. Scheinbare Gewissheiten infrage zu stellen, angestaubtes Wissen kritisch zu betrachten und verkrustete Denkstrukturen aufzubrechen, ist der Anfangspunkt forschender Neugier. Und von dort aufzubrechen zu neuer Erkenntnis, das Wesen wissenschaftlichen Tuns. Ungeschützt und -gestützt vom Verlässlichen, Bekannten. Tastend, versuchend, mutig fragend, ahnend, dass nur so wieder fester Boden zu erreichen ist, der heute noch verborgen liegt. „Forschung ist immer Aufbruch zu neuen Uferlosigkeiten“, sagte der Chemiker Prof. Dr. Hans- Jürgen Quadbeck-Seeger. Den sicheren Hafen hinter sich lassen, darauf vertrauend, dass neue Ufer warten und erreichbar sind – das ist der Antrieb, der Wissenschaft so wichtig und wertvoll macht.
In der aktuellen Ausgabe des Forschungsmagazins der Universität Potsdam haben wir einigen Wissenschaftlerinnen und Wissenschaftlern über die Schulter geschaut, wenn sie zu neuen Forschungsreisen aufbrechen – ob im Labor, in der Bibliothek, im All oder im Geist. So sucht die Astrophysikerin Lidia Oskinova mithilfe des Hubble-Teleskops nach besonders massereichen Sternen, während der Hydrologe Thorsten Wagener versucht, die Wege des Wassers auf der Erde besser zu verstehen. Wirtschafts- und Sozialwissenschaftler wie Elmar Kriegler und Maik Heinemann erforschen in verschiedensten Projekten, was die Politik tun kann, um die Klimawende zu schaffen und den Klimawandel zu stoppen. Und Verwaltungswissenschaftlerinnen wie Sabine Kuhlmann schauen, wie das „Stadtmachen“ von morgen funktioniert – und bringen sich sogar persönlich ein.
Immer wieder stehen aber auch Aufbrüche selbst im Fokus der Forschung: Ein Team um die Historiker Dominik Geppert und Frank Bösch geht etwa der Frage nach, ob und wie nach dem Umbruch 1989/90 in der ostdeutschen Wissenschaftslandschaft ein Neuanfang erfolgte – und zwar am Beispiel der Universität Potsdam selbst. Die Amerikanistin Verena Adamik analysiert anhand von Romanen, welchen Einfluss Literatur darauf hat, ob Menschen zu neuen Lebensformen aufbrechen und utopische Kommunen gründen. Und eine Gruppe von Biologen und Umweltwissenschaftlern untersucht, wie die Natur Waldbrandflächen wiederbelebt – und auf welche Weise die neu entstehenden Wälder gegen künftige Feuer gewappnet werden können.
Da – wie gesagt – jeder Forschungsfrage ein Aufbruch innewohnt, steht diesmal eigentlich die ganze Ausgabe unter dem Titelthema. Und so laden wir Sie ein aufzubrechen: mit der Romanistin Annette Gerstenberg zur Erforschung der Sprache im Alter, mit der Immunologin Katja Hanack zur Entwicklung eines schnellen und sicheren SARS-CoV-2-Tests oder mit dem Team des Zentrums Industrie 4.0 Potsdam in die virtuelle Fabrik von morgen. Wir zeigen Ihnen, wie volkswirtschaftliche Forschung auf der Grundlage von Fakten informieren und Politik beraten kann, wie ein Warnsystem künftig Unfälle mit Radfahrern verhindern soll und was eine 300 Jahre alte Landesbeschreibung Brandenburgs uns heute noch zu sagen hat.
Worauf warten Sie noch?!
Forschungsdatenmanagement
(2021)
Forschungsdatenmanagement ist ein informationswissenschaftliches Thema, dessen Bedeutung kontinuierlich, spätestens aber seit dem Start der Nationalen Forschungsdateninfrastruktur (NFDI) immer präsenter wird. Zur Abbildung und Verortung von Arbeitsschwerpunkten für Informationswissenschaftler*innen wurde in der vorliegenden Arbeit ein aktuelles Korpus von 162 Stellenanzeigen, in denen Forschungsdatenmanagement erwähnt wird, ausgewertet. Das Korpus umfasst Stellenanzeigen, die über das Portal Open-BiblioJobs und die DFN-Mailingliste Forschungsdaten beworben wurden und deckt einen Zeitraum vom 01.03.2020 bis zum 22.11.2020 ab. Zur Auswertung des Korpus wurde eine Analysematrix erstellt, in welcher die Inhalte jeder Stellenanzeige nach formalen, administrativen und inhaltlichen Kriterien verzeichnet wurden. Die aus den Stellenanzeigen stammenden Anforderungen wurden in einem Forschungsdatenlebenszyklus mit insgesamt acht Teilaspekten verortet, hiervon sechs Stationen des Forschungsdatenlebenszyklus: „Forschungsvorhaben planen“, „Daten erheben“, „Daten aufbereiten und analysieren“, „Daten teilen und publizieren“, „Daten archivieren“, „Daten nachnutzen“, zusätzlich wurden die zwei Teilaspekte „allgemeine Kern- und Schlüsselkompetenzen“ und „übergreifende Querschnittsthemen“ hinzugefügt.
Dieser Praxisrepräsentation wurde eine Literaturanalyse gegenübergestellt, welche sich mit Anforderungen und Kompetenzen im Forschungsdatenmanagement, besonders aus informationswissenschaftlicher, infrastruktureller Sicht beschäftigt. Hierbei wurden exemplarisch Frameworks (international, national, institutionell), Praxisberichte (universitärer und außeruniversitärer Einrichtungen) und der Individualbericht eines Forschungsdatenmanagers ausgewertet. Zur Gewährleistung einer späteren Vergleichbarkeit wurden auch hier die genannten Kompetenzen und Aufgaben in einem gleichen Forschungsdatenlebenszyklus verortet und analysiert. Die abschließende Zusammenführung und Auswertung der um Aufgaben und Kompetenzen angereicherten Forschungsdatenlebenszyklen ermöglichte einen direkten Vergleich von Theorie und Praxis. Hierbei konnte eine große Kongruenz der Schwerpunktverteilung innerhalb des Forschungsdatenlebenszyklus aufgezeigt werden. Diese Aufgabenkonzentration, besonders in den Teilaspekten „allgemeine Kern- und Schlüsselkompetenzen“ und „übergreifende Querschnittsthemen“ bilden die Verteilung von Arbeitsschwerpunkten im Forschungsdatenmanagement für Informationswissenschaftler* innen deutlich ab.
Die vorliegende Studie beschreitet im religionswissenschaftlichen Kontext einen Weg zur Erforschung der Modifikation und Neuausrichtung eines einzelnen christlichen Bildmotivs, dessen Bildformel sich bis in die Gegenwart durchgesetzt hat.
Das Bildmotiv der Pietà wird in der Gegenwartskunst verstärkt als innovative Bildformel in politischen oder sozialen Kontexten verwendet, um existenzielle Lebenserfahrungen oder gesellschaftskritische, sowie politische Anklagen zu formulieren. Es erlebt einen Relaunch in der Medienberichterstattung, der Kunst, in Filmen oder der Alltagskultur. Künstler_innen und Fotojournalist_innen geben ihren Objekten vermehrt den Titel Pietà oder er wird ihnen von außen zuge-schrieben. Die Semantik dieses spezifischen Bildmotivs rührt offenbar an und kann bei Betrachtenden eine emotionale Gestimmtheit evozieren. Für diese Stu-die ist das Norm- und Wertesystem mit dem dahinter liegenden Tradierungs- und Transformationsprozess von Interesse. Bisher fehlt eine Monografie, in der die Zusammenhänge der Wiederbelebung eines primär christlichen Bildmotivs und der gegenwärtigen Bezüge zu Gewalt, Tod, Angst, Vergänglichkeit, dem Altern oder des Verlustes analysiert werden.
Im Vordergrund steht die Frage nach einer Modifikation bzw. Neuinterpretation dieser Ikonik. Das Aufzeigen eines möglichen dynamischen Entwicklungspro-zesses des Bildmotivs soll klären, welche veränderten Funktionen dem Pietà-Motiv in der Gegenwartskunst zugeschrieben werden. Über ein Set international renomierter, zeitgenössischer Künstler_innen werden eventuelle Veränderun-gen und ein damit verbundener gesellschaftlicher Bedeutungswandel seit dem 21. Jahrhundert analysiert.
Vor diesem Hintergrund ist die Frage nach einer religionsübergreifenden Wirk-mächtigkeit ikonischer Präsenz eines religiösen Bildmotivs in der Kunst und den Bildmedien von aktueller Relevanz. Diese Studie leistet einen exemplarischen Beitrag für die Affektforschung, die sich in den vergangenen Jahren vermehrt mit der Emotionsdarstellung und der Emotionsvermittlung in den audiovisuellen Medien befasst.
Die senegalesische Autorin Mariama Bâ verfasste zwei Romane: Une si longue lettre und Un chant écarlate. In diesen Romanen thematisiert sie die gesellschaftlichen Missstände in der senegalesischen Bevölkerung. Als erste weibliche Autorin verschafft sie der Weiblichkeit einen Sprung aus dem Schatten der männlichen Führung. Mit den Themen der Polygamie und der Gleichstellung der Frau verfasst sie zwei allgegenwärtig bedeutsame Romane. Die Arbeit fokussiert drei Motive für eine inhaltliche Literaturanalyse, um sich den Lebensumständen der fiktiven Figuren anzunähern. Es wird nachgewiesen, welchen Einfluss die gewählten Faktoren: Leid, Erinnerung und kulturelle Landschaften auf die Figuren haben und wie sie mit ihrem individuellen Lebensweg umgehen.
Spiele und spieltypische Elemente wie das Sammeln von Treuepunkten sind aus dem Alltag kaum wegzudenken. Zudem werden sie zunehmend in Unternehmen oder in Lernumgebungen eingesetzt. Allerdings ist die Methode Gamification bisher für den pädagogischen Kontext wenig klassifiziert und für Lehrende kaum zugänglich gemacht worden.
Daher zielt diese Bachelorarbeit darauf ab, eine systematische Strukturierung und Aufarbeitung von Gamification sowie innovative Ansätze für die Verwendung spieltypischer Elemente im Unterricht, konkret dem Mathematikunterricht, zu präsentieren. Dies kann eine Grundlage für andere Fachgebiete, aber auch andere Lehrformen bieten und so die Umsetzbarkeit von Gamification in eigenen Lehrveranstaltungen aufzeigen.
In der Arbeit wird begründet, weshalb und mithilfe welcher Elemente Gamification die Motivation und Leistungsbereitschaft der Lernenden langfristig erhöhen, die Sozial- und Personalkompetenzen fördern sowie die Lernenden zu mehr Aktivität anregen kann. Zudem wird Gamification explizit mit grundlegenden mathematikdidaktischen Prinzipien in Verbindung gesetzt und somit die Relevanz für den Mathematikunterricht hervorgehoben.
Anschließend werden die einzelnen Elemente von Gamification wie Punkte, Level, Abzeichen, Charaktere und Rahmengeschichte entlang einer eigens für den pädagogischen Kontext entwickelten Klassifikation „FUN“ (Feedback – User specific elements – Neutral elements) schematisch beschrieben, ihre Funktionen und Wirkung dargestellt sowie Einsatzmöglichkeiten im Unterricht aufgezeigt. Dies beinhaltet Ideen zu lernförderlichem Feedback, Differenzierungsmöglichkeiten und Unterrichtsrahmengestaltung, die in Lehrveranstaltungen aller Art umsetzbar sein können. Die Bachelorarbeit umfasst zudem ein spezifisches Beispiel, einen Unterrichtsentwurf einer gamifizierten Mathematikstunde inklusive des zugehörigen Arbeitsmaterials, anhand dessen die Verwendung von Gamification deutlich wird.
Gamification offeriert oftmals Vorteile gegenüber dem traditionellen Unterricht, muss jedoch wie jede Methode an den Inhalt und die Zielgruppe angepasst werden. Weiterführende Forschung könnte sich mit konkreten motivationalen Strukturen, personenspezifischen Unterschieden sowie mit mathematischen Inhalten wie dem Problemlösen oder dem Wechsel zwischen verschiedenen Darstellungen hinsichtlich gamifizierter Lehrformen beschäftigen.
Schire Simroh
(2021)
Arno Nadel ist 1878 in Wilna geboren und 1943 in Auschwitz ermordet worden. Es sind nur einige wenige Dokumente überliefert, anhand derer sich der Lebensweg von Arno Nadel rekonstruieren lässt. Das ist nur wenig verwunderlich, denn die Welt von Arno Nadel ist drei Mal untergegangen: zuerst die jüdische Welt von Wilna, dann die deutsche von Königsberg und schließlich die deutsch-jüdische von Berlin. Es ist allerdings erstaunlich, wie gründlich Arno Nadels Wirken danach in Vergessenheit geriet. Allein seine Vielseitigkeit hätte eigentlich diesen außergewöhnlichen Menschen vor dem Vergessen bewahren müssen. Arno Nadel war Dichter, Philosoph, Bühnenautor, Religionsgelehrter, Übersetzer, Maler und Grafiker, Komponist, Musik- und Literaturwissenschaftler, Ethnologe, Chordirigent, Pianist, Organist und Musikpublizist. Wenn man von Beschäftigungen zum reinen Broterwerb absieht, wie seiner Anstellung als Lehrer an einer Schule. All diese vielseitigen Tätigkeiten waren keineswegs dilettantische Versuche eines zerstreuten Menschen, sondern vollwertige Berufe und Berufungen, die er mehr oder weniger gleichzeitig mit höchster Intensität und Professionalität ausübte. In dieser Hinsicht war Nadel eine nicht nur zu seiner Zeit einzigartige Erscheinung, ein Phänomen, das eher an die Künstlerpersönlichkeiten der Renaissance erinnert. Auf jedem seiner Schaffensgebiete war Nadel unwahrscheinlich produktiv, so produktiv, dass man sich mit Ehrfurcht fragen muss, wie ein Mensch im Laufe seines Lebens derart viele geistige Werte zu schaffen vermochte. Obwohl ein großer Teil seines Nachlasses den Zweiten Weltkrieg nicht überdauerte, ist die Fülle der erhaltenen Manuskripte und publizierten Werke kaum zu überblicken. Um sein gesamtes Werk umfassend auszuwerten, bedürfte es der Anstrengungen eines ganzen Teams von Wissenschaftlern aus unterschiedlichen Disziplinen.
Für diese CD-Produktion wurden u.a. fünf Kompositionen für Chasan, Chor und Orgel für den Freitagabend-Gottesdienst eingespielt, die ursprünglich in dem Sammelband „Schire Simroh” erschienen sind, der synagogale Kompositionen zeitgenössischer Autoren zusammentrug. Sie sind für den Wettbewerb des Allgemeinen Deutschen Kantoren-Verbandes e. V. im Jahre 1926 geschrieben worden und im Verlag J. Kauffmann in Frankfurt am Main publiziert worden. 1930 wurde ein weiterer Sonderdruck veröffentlicht. Diese äußerst seltene Ausgabe wurde 1968 im Journal of Synagogue Music reproduziert. Dazu zählt auch das Stück “W’schomru”, das – ebenso wie die anderen vier publizierten Stücke – zum Kompendium gehörte. Diese Komposition gibt einen Eindruck von Nadels expressivem Stil, der “die östliche Freiheit des Ausdrucks mit dem westlichen Instrumentarium, einen weitgehend traditionellen jüdischen Melodieaufbau mit europäischer Polyphonie und harmonischer Kühnheit verbindet”. (Vgl. Jascha Nemtsov: Arno Nadel. Sein Beitrag zur jüdischen Musikkultur. Berlin 2008.)
Zusätzlich befindet sich das Stück “J’hi Scholom” auf der CD, ein Stück für Chasan, Chor und Orgel, das Arno Nadel zur Einweihung des Friedenstempels in Berlin komponiert hat.
Der Psalm 24, herausgegeben zum 70. Geburtstag von Moritz Schaefer, am 21. Mai 1927 mit der Widmung “Herrn Prof. Moritz Schaefer, dem Freunde aller großen jüdischen Bestrebungen” ist eine A-Capella-Komposition für Männerchor mit Kantor-Solo, die für die Liturgie der Torahlesung geschrieben wurde.
Drei Solo-Orgelvorspiele umrahmen diese Aufnahme. Das erste ist für die Hohen Feiertage komponiert und wurde nach den repräsentativsten liturgischen Motiven von “Bar’chu” und “Hamelech” für das Abend- und Morgengebet komponiert.
Das mittlere Orgelvorspiel hat Arno Nadel für die drei Wochen vor dem Tisch’a B’Av geschrieben, die traurigsten Wochen des jüdischen Volkes, in deren Verlauf an die Zerstörung beider Tempel in Jerusalem erinnert wird. Dieses Vorspiel basiert auf den Motiven der Liturgie für die Tage, an denen zum einen die “Kinnot” rezitiert werden, liturgische Gedichte, die die Leiden des Volkes Israels im Exil beschreiben, und zum anderen die Klagelieder von Jeremia, die die Trauer und den Schrecken der Zerstörung des Tempels beschreiben. Das abschließende Stück dieser CD eröffnet den letzten Teil des Gottesdienstes am Jom Kippur, dem Versöhnungstag. Es trägt den Namen „Ne’ilah“ und entspricht dem Gebet, das vor dem Schließen der Tempeltore in Jerusalem am Ende des Tages gesprochen wurde.
Der rechtliche, moralisch-ethische und auch politische Gehalt des Theaterstücks „Gott“ wirft aus politikdidaktischer Perspektive u. a. die Frage auf, inwiefern sich das Textbuch zu dem Theaterstück Gott von Ferdinand von Schirach als Unterrichtsmedium zur Rechtserziehung im Politikunterricht eignet. Diese Frage stellt sich v. a. vor dem Hintergrund, dass der Politikdidaktiker Ingo Juchler im Rahmen des von ihm begründeten narrativen Ansatzes der politischen Bildung den Einsatz von Narrationen in der fächerübergreifenden politischen Bildung explizit vorschlägt. Darüber hinaus lässt sich die Narration auch thematisch dem Politikunterricht zuordnen. Denn, dass Recht „Teil der Politischen Bildung ist und im Unterricht eine Rolle spielen sollte“ (Goll 2017: 592), gilt in der fachdidaktischen Literatur zum rechtlichen Lernen gemeinhin als unstrittig. Die Arbeit ist gedanklich in zwei Teile gegliedert: Im ersten Teil wird zunächst eine wissenschaftlich bzw. fachdidaktisch fundierte Grundlage geschaffen. In einem ersten Schritt werden deshalb der narrative Ansatz der politischen Bildung und in diesem Zusammenhang insbesondere die Vorzüge des Einsatzes von Narrationen im Politikunterricht vorgestellt. Anschließend werden Recht und Rechtserziehung in den Kontext von Schule und Politikunterricht eingeordnet. Aus beiden Abschnitten werden folglich Kriterien abgeleitet, anhand derer im Allgemeinen die Eignung einer Narration für den Politikunterricht (Abschnitt 2) und im Besonderen die Eignung einer Narration als Unterrichtsmedium zur Rechtserziehung im Politikunterricht (Abschnitt 3) bestimmt werden kann. Diese Kriterien werden in einem Kriterienkatalog (Abschnitt 4) gebündelt, mit dessen Hilfe im zweiten Teil das Textbuch zu dem Theaterstück „Gott“ hinsichtlich seiner Eignung als Unterrichtsmedium zur Rechtserziehung im Politikunterricht überprüft wird. Abschließend werden die Untersuchungsergebnisse pointiert dargelegt und das Vorgehen reflektiert.
Die Masterarbeit beschäftigt sich auf der theoretischen Grundlage der Entwicklung der Mensch-Tier-Beziehung sowie der Entstehung der Human-Animal Studies (HAS) mit der Frage, welche Möglichkeiten es gibt, um das Bewusstsein der Menschen für einen moralischen und sensiblen Umgang mit Tieren zu sensibilisieren. Konkret geht die vorliegende Arbeit der Frage nach, wie die Mensch-Tier-Beziehung und die Rechte der Tiere Bestandteil des Politikunterrichts werden können. Um das gewaltige Repertoire an Möglichkeiten, das sich mit dieser Überlegung öffnet, einzugrenzen, wurde die Mensch-Tier-Beziehung schwerpunktmäßig anhand der (konventionellen) Nutztierhaltung untersucht.
Das Ergebnis der Arbeit zeigt, dass die Thematik der Mensch-Tier-Beziehung im Allgemeinen sowie die entwickelte Unterrichtskonzeption im Konkreten für den Unterricht der Politischen Bildung geeignet sind. Darüber hinaus konnte die Erkenntnis gewonnen werden, dass die Thematik vielfältige Anknüpfungspunkte sowohl für den Politikunterricht als auch für weitere Unterrichtsfächer bietet.
Die Dissertation legt ihren Schwerpunkt auf die synchronische und diachronische Variation im Gebrauch der französischen Kausalkonjunktion parce que sowie auf die Interaktion mit den außersprachlichen Variablen Alter und sozioprofessionelle Kategorie. Basierend auf vorausgehenden makrodiachronischen Studien, die Anhaltspunkte dafür liefern, dass die Konjunktion einen Prozess der Pragmatikalisierung durchlaufen hat und weiterhin durchläuft, wurde ein Untersuchungskorpus von 56 Interviews aus den diachronisch distinkten Korpora ESLO1, ESLO2 und LangAge extrahiert. Dieses Untersuchungskorpus diente als Grundlage für Panelstudien und Trendstudien, die darauf ausgerichtet waren, die Pragmatikalisierung von parce que aus einem mikrodiachronischen Gesichtspunkt zu verifizieren. Zusätzlich zu der diachronischen Perspektive wurde eine synchronische Perspektive eingenommen, um die Variation im Gebrauch der Konjunktion so einem diachronischen Phänomen wie dem age grading oder der apparent time zuordnen zu können. Ausgehend von der Theorie der Konstruktionsgrammatik wurden parce que enthaltende Konstruktionen bottom-up annotiert und in fünf Pragmatikalitätsgrade kategorisiert (pra0–pra4). Diese wurden anschließend quantifiziert und in Abhängigkeit des Geburtsjahres und der sozioprofessionellen Kategorie der (männlichen) Sprecher mithilfe mehrerer R-Modelle wie ctrees, trees, lm, hclust und kmeans analysiert.
Die Frequenzentwicklung der Pragmatikalitätsgrade bestätigte die Pragmatikalisierungshypothese in einem mikrodiachronischen Rahmen. Zudem konnte ein quantitativer Rückgang im Gebrauch der Konstruktionen am nicht- oder weniger pragmatikalisierten (pra0, pra1) Pol festgestellt werden, während Verwendungsweisen höherer Pragmatikalisierungsgrade (pra2–pra4) über 40 Jahre vergleichsweise stabil blieben.
Obwohl für pra2 kein signifikanter Wandel hervortrat, wies dessen Entwicklung bei den Sprechern im mittleren Lebensalter sowie das synchronische Muster in Abhängigkeit von Alter (oder Geburtsjahr) und von sozioprofessioneller Kategorie dennoch in Richtung einer zugrundeliegenden diachronischen Variation. Diese könnte als ein durch die sozialen Transformationen der 1960er und 1970er Jahre katalysiertes Phänomen des age grading interpretiert werden. Für die näher am pragmatischen Pol situierten Gebrauchsweisen (pra3 und pra4) konnte keine klare Tendenz ermittelt werden.
Die Ergebnisse fordern diachronische Konzepte wie age grading und apparent time heraus, indem sie die Simplizität der zugrundeliegenden Mechanismen sowie die gängigen Methoden, diese zu identifizieren, infrage stellen.
In den vergangenen Jahren hat sich die Politikdidaktik zunehmend mit dem Einsatz von Narrationen im Politikunterricht beschäftigt, denn neben Sachtexten bietet auch die Belletristik die Möglichkeit, sich mit politischen Themen auseinanderzusetzen. Insbesondere die Literatur von Ferdinand von Schirach hat in den letzten Jahren zunehmend Anklang in der Gesellschaft gefunden. Von Schirachs Texte greifen gesellschaftskritische Themen auf, beleuchten diese aus verschiedenen Perspektiven und fordern zur Meinungsbildung heraus. Aus diesem Grund weisen von Schirachs Narrationen ein hohes Potential für die Politische Bildung auf. Politische Bildung schließt auch die Rechterziehung ein. Der Fall Collini von Ferdinand von Schirach setzt sich sowohl mit rechtlichen, als auch mit politischen Themen im Sinne der Rechtserziehung auseinander. In der vorliegenden Masterarbeit wird der Frage nachgegangen, inwieweit der Roman Der Fall Collini von Ferdinand von Schirach als Narration eine Chance für politisch-rechtliches Lernen im Politikunterricht darstellt. Um die Forschungsfrage zu beantworten, werden die Lernchancen und -grenzen des Romans hinsichtlich seiner Thematik und seines Genres, sowie durch den Roman geförderten Kompetenzen herausgearbeitet und die durch ihn möglichen fächerübergreifenden Bezüge verdeutlicht. Durch die Auseinandersetzung mit von Schirachs Werk beschäftigen sich die Schülerinnen und Schüler mit politisch-rechtlichen Themen, wie dem Spannungsverhältnis von Recht und Gerechtigkeit, dem Ablauf von Strafgerichtsverfahren, dem theoretischen Anspruch des Rechtsstaates und dessen realen Schwächen. Zudem fördert die Auseinandersetzung mit dem Roman Der Fall Collini die vier fachbezogenen Kompetenzen der Politischen Bildung, sowie Multiperspektivität und exemplarisches Lernen. Des Weiteren verknüpft der Roman historische, politisch-rechtliche und moralisch-ethische Aspekte miteinander, wodurch fächerübergreifende Bezüge mit den Fächern Geschichte, Deutsch und L-E-R hergestellt werden können. Darüber hinaus spricht der Justizroman als Narration seine Leserinnen und Leser auch emotional an und fördert somit eine ganzheitliche und nachhaltige Wissensvermittlung im Sinne der Rechtserziehung. Es hat sich gezeigt, dass Der Fall Collini von Ferdinand von Schirach sich für die unterrichtliche Beschäftigung innerhalb der Politischen Bildung besonders eignet.
Anerkennung und Macht
(2021)
In der vorliegenden Untersuchung habe ich das Ziel verfolgt, einen sachlich-eigenständigen Beitrag für eine Debatte gegen Honneths kritische Gesellschaftstheorie zu leisten. In dieser Debatte wird Honneth dahingehend kritisiert, dass es ihm mit seiner kritischen Gesellschaftstheorie entgegen seiner eigenen systematischen Zielsetzung nicht gelingt, in modernen liberaldemokratischen Gesellschaften sämtliche Phänomene von sozialer Herrschaft kritisch zu hinterfragen. Denn soziale Anerkennung, die Honneth als Schlüsselbegriff für diese kritische Hinterfragung behandelt, bei der soziale Herrschaft in Verbindung mit sozialer Missachtung (als mangelnde soziale Anerkennung) steht, kann laut der Kritik faktisch selbst ein Medium für die Stiftung von sozialer Unterwerfung sein. Dies geschieht in Prozessen von Identitätsentwicklung, in denen soziale Anerkennung für Individuen als Anerkannte bestimmte Identitätsmöglichkeiten einräumt und auf diese Weise gleichzeitig andere Identitätsmöglichkeiten ausschließt, womit sie auf diese Identität einschränkend und insofern herrschend wirkt. Es handelt sich um eine Form von sozialer Herrschaft, die durch soziale Anerkennung gestiftet wird. Honneth zieht dem Vorwurf zufolge nicht in Erwägung, dass soziale Anerkennung bei Individuen als Anerkannte einen solchen negativen Effekt erzielen kann. Hieraus ergeben sich die Fragen, ob soziale Anerkennung in Prozessen von Identitätsentwicklung jeweils mit sozialer Herrschaft einhergeht und wie dieser Typus von sozialer Herrschaft kritisiert werden kann. Diese Fragen hat Honneth zuletzt in einem persönlichen Gespräch mit Allen und Cooke (als zwei Teilnehmerinnen der Debatte gegen Honneth) beantwortet. An dieser Stelle vertritt er mit beiden Gesprächsteilnehmerinnen die Auffassung, dass die Operation der Einschränkung von Identitätsmöglichkeiten an sich keine Operation darstellt, welche, wie sonst in der Debatte gegen seine kritische Gesellschaftstheorie behauptet wird, auf soziale Herrschaft zurückführt. Diese Auffassung beruht auf der Idee, wonach soziale Anerkennung sich in jenem praktischen Kontext nur unter der Bedingung als herrschaftsstiftend erweist, dass sie immanente Prinzipien verletzt, die substanziell kritische Maßstäbe definieren.
Mein Beitrag zu dieser Debatte gegen Honneth besteht auf der einen Seite in der Erklärung, dass sowohl jene Auffassung als auch jene Idee argumentativ mangelhaft sind, und auf der anderen Seite in der Ausführung des Vorhabens, diesen argumentativen Mangel selbst zu beheben. Gegen jene Auffassung behaupte ich, dass die drei Autoren in ihrem Gespräch nicht erläutern, inwiefern soziale Anerkennung nicht herrschend wirkt, wenn sie die Identitätsmöglichkeiten von Individuen als Anerkannte einschränkt, denn mit dieser Einschränkung wird vielmehr faktisch über diese Individuen geherrscht – die Debatte gegen Honneth, so zur Unterstützung dieser Ansicht, baut hauptsächlich auf ebendiesem Faktum auf. Gegen jene Idee habe ich fünf problematische Fragen gestellt und beantwortet, die Bezug eigentlich nicht allein auf diese Idee selbst, sondern überdies auf weitere, naheliegende Ideen nehmen, welche die drei Autoren angesprochen haben.
Das Manuskript dient der Vorbereitung der Prüfung der Fachkunde zum Strahlenschutz für Lehrer. Es enthält wichtige Grundlagen der Kernphysik, insbesondere die Eigenschaften der Alpha-, Beta-, Gamma-, Neutronen- und Röntgenstrahlen. Es folgt eine kurze Beschreibung des Einflusses der Strahlung auf belebte Materie. Wichtige Paragrafen der Strahlenschutzverordnung werden beschrieben. Eine Aufgabensammlung dient zur Illustration und Übung.
Die Arbeit untersucht die historische Entwicklung der Prätorianerpräfektur im 3. Jh. und bewertet die Funktion im Rahmen der kaiserlichen Herrschaftsordnung. Aufgrund der militärischen und politischen Krisen des 3. Jh. und der daran angepassten Herrschaftsstrategien erhielten die Prätorianerpräfekten umfassende Aufgaben. Die disparate Quellen- und Forschungslage beschreibt den Machtzuwachs und die Funktionsaufwertung der Prätorianerpräfekten in dieser wichtigen Phase aber sehr unterschiedlich. Ausgehend von den spätantiken Berichten geht die mehrheitliche Forschung zudem von einem Machtverlust der Prätorianerpräfekten unter Konstantin aus, dem eine Reformierung der Prätorianerpräfektur zugesprochen wird. Dieser Machtverlust lässt sich zeitlich und funktional jedoch nicht sicher bestimmen. In der Forschung wird dieser funktionale Abstieg oft mit der konstantinischen Demilitarisierung und Regionalisierung der Prätorianerpräfektur begründet. Bisher fehlte eine aktuelle Gesamtdarstellung, die die Prätorianerpräfektur in der Herrschaftsordnung des 3. Jh. bewertet und kategorisiert, um eine funktionale Abgrenzung zur klassischen Prätorianerpräfektur und zur Regionalpräfektur im 4. Jh. vorzunehmen.
Für diese funktionale Abgrenzung wurden in dieser Arbeit die Funktionsmerkmale und historischen Zusammenhänge der Prätorianerpräfektur im 3. Jh. abstrahiert und hieraus der Idealtypus einer „Kaiserlichen Magistratur“ gebildet. Die Ergebnisse dieser Abstrahierung zeigen die Prätorianerpräfektur im 3. Jh. als eine kommunikative Schnittstelle zwischen dem Kaiser und den leitenden Stellen der Zentral- und Provinzadministration. Die Prätorianerpräfektur übernahm hierbei eine leitende Stabsfunktion, die im Zusammenhang mit der höchsten inappellablen Gerichtsbarkeit die zweite Funktionsträgerebene nach dem Kaiser bildete. Diese Funktion übten die Prätorianerpräfekten ohne territoriale Bindung bis zum Ende der Tetrarchie bzw. bis zur frühen Herrschaft Konstantins aus.
Der Verfasser beschäftigt sich mit der Frage des Glaubensübertritts in einem Asylverfahren. Dabei nimmt er Zeitpunkt, Art und Umstände des Religionswechsels in den Blick. Ferner untersucht er, wie die sogenannte Konversion von den zuständigen Behörden und Gerichten zu behandeln und zu bewerten ist. Einführend gibt er einen Überblick zum völkerrechtlichen Schutz der Religions- und Weltanschauungsfreiheit sowie typischen Gefährdungslagen. Überdies befasst er sich mit den Rechtsgrundlagen des Asyl- und Flüchtlingsschutzrechts und stellt Verbindungen zum Flucht- und Verfolgungsgrund der Religion her.
Schwerpunkt bildet die Untersuchung der Verfahrensstadien, in denen die Konversion relevant wird. Dabei berücksichtigt der Verfasser die nationale und europäische Rechtsprechung. Von besonderer Bedeutung sind die Ausführungen zum Zusammenspiel von staatlichen Ermittlungspflichten und Mitwirkungsgeboten von Asylantragstellenden, wobei den Besonderheiten des grund- und menschenrechtlichen Mehrebenensystems Rechnung getragen wird.
Zentral sind ferner die Ausführungen zum Umgang mit Taufurkunden und sonstigen Bescheinigungen über die religiöse Überzeugung. Besonderes Gewicht liegt auf der verfassungsrechtlichen Stellung der Religionsgemeinschaften und der Frage, ob die Entscheidung einer Religionsgemeinschaft, ein neues Mitglied aufzunehmen, die Behörde im Asylverfahren bindet. Diesem Problem widmet sich der Verfasser unter Heranziehung der relevanten Literaturstimmen und einschlägigen Rechtsprechung.
Der rechtswissenschaftliche Beitrag bietet den beteiligten Akteuren nicht nur eine Einführung in das Themengebiet des Glaubensübertritts im Asylverfahren, sondern gibt den Lesenden auch eine praxistaugliche Handlungsunterstützung rund um die wichtigsten Fragen einer Konversion im Asylverfahren an die Hand. Praktische Bezüge entstehen beispielsweise dadurch, dass wichtige Impulse und Empfehlungen für eine gleichermaßen moderne, rechtsstaatliche und grundrechtsorientierte Verfahrensführung entwickelt werden.
Die vorliegende Arbeit befasst sich mit Gründungen durch Akademikerinnen und Akademiker mit Migrationshintergrund. Dabei wurden vor allem der Bezug dieser Gründungen zu der Umwelt – dem Gründerökosystem –, in der sie stattfinden, sowie ihre gegenseitigen Wechselwirkungen untersucht. Der Forschungsgegenstand ist die Schnittstelle aus den Bereichen Gründungen, Migrantentum und Hochqualifikation. Der Fokus auf die sehr spezifische Zielgruppe Gründungen durch Akademikerinnen und Akademiker mit Migrationshintergrund füllt eine wichtige Lücke in der bisherigen Forschung.
Methodisch gesehen bedient sich diese Arbeit eines theoretischen Bezugsrahmens. Dieser besteht aus der neoinstitutionalistischen Organisationstheorie (Meyer & Rowan 1977), dem Ressourcenabhängigkeitsansatz (Pfeffer & Salancik 1978) sowie dem sechs-dimensionalen Modell des Gründerökosystems (Isenberg 2011). Gründungen durch Akademikerinnen und Akademiker mit Migrationshintergrund müssen ihre interne Ausgestaltung an die Anforderung der institutionellen Umwelt anpassen, um die notwendige Legitimität zu sichern. Dadurch können bei unterschiedlichen Gründungen isomorphe Organisationsstrukturen entstehen. Darüber hinaus können akademische Gründende mit Migrationshintergrund durch interorganisatorische Aktivitäten den Zugang zu nicht-substituierbaren Ressourcen für die Unternehmensgründung bzw. Geschäftsentwicklung ermöglichen bzw. erleichtern. Daher ist die Kombination beider Theorien und des Erklärungsansatzes ein effektives und passendes Analysetool für die vorliegende Forschungsarbeit und schafft sowohl auf Mikro- als auch auf Makroebene für die Leserinnen und Leser ein vollständiges Gesamtbild.
Die vorliegende Arbeit beinhaltet nicht nur Daten aus Sekundärquellen und bereits vorhandenen quantitativen Studien im deskriptiven Teil, sondern auch direkte Informationen durch eigene qualitative Untersuchung im empirischen Teil. Dafür wurden insgesamt 23 semistrukturierte Experteninterviews durchgeführt. Durch die Inhaltsanalyse nach Mayring (2014) wurden mehrere Kategorien herausgefiltert; dazu zählen bspw. umweltbezogene Einflussfaktoren auf Legitimität sowie nicht-substituierbare Ressourcen für Gründungen durch Akademikerinnen und Akademiker. Darüber hinaus wurden durch die Empirie einige Hypothesen für weitere quantitative Forschungen in der Zukunft aufgestellt und konkrete Handlungsempfehlungen für die Praxis gegeben.
Zusammenfassung zur Dissertation „Neuartige DBD-Fluoreszenzfarbstoffe: Synthese, Untersuchungen und Anwendungen“ von Leonard John
In dieser Arbeit konnten auf Basis der etablierten [1,3]-Dioxolo[4,5-f][1,3]benzodioxol (DBD) Fluoreszenzfarbstoffe zwei neue Konzepte zur Darstellung unsymmetrisch funktionalisierter DBD-Fluorophore entwickelt werden. Die Variation der elektronenziehenden Reste führte zu einer Erweiterung des Farbspektrums an DBD-Fluorophoren, wobei alle weiteren spektroskopischen Parameter (Fluoreszenzlebenszeit, -quantenausbeute und STOKES-Verschiebung) unverändert hohe Werte aufweisen. Neben der Variation der elektronenziehenden Reste wurde das "pi"-System des DBD-Farbstoffs mit der Einführung von Stilben-, und Tolan-Derivaten vergrößert. Stilben-Derivate zeigten ähnlich gute spektroskopische Eigenschaften wie die bereits etablierten DBD-Farbstoffe.
Fluorophore mit langwelliger Emission sind auf Grund der großen Gewebe-Eindringtiefe besonders interessant für biologische Anwendungen. Da der langwelligste Vertreter der O4-DBD-Farbstoffe in polaren Medien nur schwer löslich ist, wurde ein Weg zur Einführung löslichkeitsvermittelnder Gruppen gesucht. Hierbei fiel die Wahl auf eine Carbonsäure-Gruppe zur Steigerung der Hydrophilie. Eine von vier untersuchten Methoden erwies sich als zielführend, sodass das gewünschte Molekül isoliert werden konnte. Eine erhöhte Wasserlöslichkeit wurde allerdings nicht beobachtet.
Zur Erforschung von Fettstoffwechselkrankheiten wie der ALZHEIMER-Krankheit werden fluoreszenzmarkierte Lipide benötigt. Um unterschiedliche Bereiche einer Membran zu untersuchen, war das Ziel, den Fluorophor an unterschiedlichen Stellen innerhalb der Fettsäure zu lokalisieren. Hierbei sollte die Gesamtkettenlänge des DBD-Lipids einer C18-Kette, analog der Stearinsäure, entsprechen. Durch die stufenweise Einführung der Reste gelang es, drei DBD-Lipide herzustellen, wobei sich der Fluorophor an unterschiedlichen Positionen innerhalb der Kette befindet. Die photophysikalischen Eigenschaften der Lipide weichen nur marginal von denen der reinen Fluorophore ab. Eine Einlagerung in giant unilamellar vesicles (GUVs) konnte für zwei Derivate beobachtet werden, wobei keine domänenspezifisch war.
Ein weiteres Ziel dieser Arbeit war es, die vier Sauerstoffatome im DBD-Grundkörper stufenweise durch Schwefelatome zu ersetzen und die Ringgrößen des DBD-Fluorophors zu variieren. Für die Ringgröße zeigte der 1,2-S2-DBD mit jeweils zwei Fünfringen die besten spektroskopischen Eigenschaften. Durch die Synthese von zwei weiteren schwefelhaltigen DBD-Grundkörpern (S1- und 1,4-S2-DBD) konnten insgesamt drei neue Farbstoffklassen zugänglich gemacht werden. Für alle neuen Chromophore wurden elektronenziehende Reste (Aldehyd, Acyl, Ester, Carboxy) eingeführt und die jeweiligen Derivate spektroskopisch untersucht. Mit steigender Anzahl an Schwefel-Atomen im Grundkörper zeigt sich eine bathochrome Verschiebung der Emission,
wobei die Werte für die Fluoreszenzlebenszeit- und -quantenausbeute abnehmen. Die optimalen spektroskopischen Eigenschaften aus langwelliger Emission, hoher Fluoreszenzlebenszeit und -quantenausbeute zeigt das 1,4-S2-Dialdehyd-Derivat. Für die S1- und 1,2-S2-Dialdehyd-
Derivate wurden Konzepte entwickelt, um bioreaktive Reste (Alkin, HOSu, Maleimid) einzuführen und die Fluorophore in biologischen Systemen anwenden zu können.
Die vorliegende Arbeit thematisiert die Synthese und Charakterisierung von neuen funktionalisierten ionischen Flüssigkeiten und deren Polymerisation. Die ionischen Flüssigkeiten wurden dabei sowohl mit polymerisierbaren Kationen als auch Anionen hergestellt. Zum einen wurden bei thermisch initiierten Polymerisationen Azobis(isobutyronitril) (AIBN) verwendet und zum anderen dienten bei photochemisch initiierten Polymerisationen Bis-4-(methoxybenzoyl)diethylgermanium (Ivocerin®) als Radikalstarter.
Mittels Gelpermeationschromatographie konnte das Homopolymer Polydimethylaminoethylmethacrylat untersucht werden, welches erst im Anschluss an die GPC-Messungen polymeranalog modifiziert wurde. Dabei wurden nach einer Quaternisierung und anschließender Anionenmetathese bei diesen Polymeren die Grenzviskositäten bestimmt und mit den Grenzviskositäten der direkt polymerisierten ionischen Flüssigkeiten verglichen. Bei der direkten Polymerisation von Poly(N-[2-(Methacryloyloxy)ethyl]-N-butyl-N,N-dimethyl-ammoniumbis(trifluormethylsulfonyl)imid) lag [η_Huggins] bei 100 mL/g und bei dem polymeranalog hergestellten Polymer betrug [η_Huggins] = 40 mL/g.
Die ionischen Flüssigkeiten mit polymerisierbaren funktionellen Gruppen wurden mittels Photo-DSC hinsichtlich der maximalen Polymerisationsgeschwindigkeit (Rpmax), der Zeit, in der dieses Maximum erreicht wurde, tmax, ihrer Glasüberganstemperatur (Tg) und des Umsatzes an Vinylprotonen untersucht. Bei diesen Messungen wurde zum einen der Einfluss der unterschiedlichen Alkylkettenlänge am Ammoniumion und der Einfluss von verschiedenen Anionen bei gleichbleibender Kationenstruktur analysiert. So polymerisierte das ethylsubstituierte Kation mit einer tmax von 21 Sekunden am langsamsten. Die maximale Polymerisationsgeschwindigkeit (Rpmax) betrug 3.3∙10-2 s-1. Die tmax Werte der übrigen alkylsubstituierten ionischen Flüssigkeiten mit einer polymerisierbaren funktionellen Gruppe hingegen lagen zwischen 10 und 15 Sekunden. Die Glasübergangstemperaturen der mittels photoinduzierter Polymerisation hergestellten Polymere lagen mit 44 bis 55 °C nahe beieinander. Alle Monomere zeigten einen hohen Umsatz der Vinylprotonen; er betrug zwischen 93 und 100%.
Mithilfe einer Bandanlage, ausgerüstet mit einer LED (λ = 395 nm), konnten Polymerfilme hergestellt werden. Der Umsatz an Doppelbindungsäquivalenten dieser Filme wurde anhand der 1H-NMR Spektroskopie bestimmt. Bei der dynamisch-mechanischen Analyse wurden die Polymerfilme mit einer konstanten Heizrate und Frequenz periodisch wechselnden Beanspruchungen ausgesetzt, um die Glasübergangstemperaturen zu bestimmen. Die niedrigste Tg mit 26 °C besaß das butylsubstituierte N-[2-(Methacryloyloxy)ethyl]-N-butyl-N,N-dimethyl-ammoniumbis(trifluormethylsulfonyl)imid, welches als Polymerfilm mit Ivocerin® als Initiator hergestellt wurde, wohingegen die höchste Tg bei dem gleichen Polymer, welches direkt durch freie radikalische Polymerisation der ionischen Flüssigkeit in Masse mit AIBN hergestellt wurde, 51 °C betrug. Zusätzlich wurden die Filme unter dem Aspekt der Topographie mit einem Rasterkraftmikroskop untersucht, welches eine Domänenstruktur des Polymers N-[2-(methacryloyloxy)ethyl]-N-butyl-N,N-dimethyl-ammonium tris(pentafluorethyl)trifluorphosphat offenbarte.
Im Zuge der Covid-19 Pandemie werden zwei Werte täglich diskutiert: Die zuletzt gemeldete Zahl der neu Infizierten und die sogenannte Reproduktionsrate. Sie gibt wieder, wie viele weitere Menschen ein an Corona erkranktes Individuum im Durchschnitt ansteckt. Für die Schätzung dieses Wertes gibt es viele Möglichkeiten - auch das Robert Koch-Institut gibt in seinem täglichen Situationsbericht stets zwei R-Werte an: Einen 4-Tage-R-Wert und einen weniger schwankenden 7-Tage-R-Wert. Diese Arbeit soll eine weitere Möglichkeit vorstellen, einige Aspekte der Pandemie zu modellieren und die Reproduktionsrate zu schätzen.
In der ersten Hälfte der Arbeit werden die mathematischen Grundlagen vorgestellt, die man für die Modellierung benötigt. Hierbei wird davon ausgegangen, dass der Leser bereits ein Basisverständnis von stochastischen Prozessen hat. Im Abschnitt Grundlagen werden Verzweigungsprozesse mit einigen Beispielen eingeführt und die Ergebnisse aus diesem Themengebiet, die für diese Arbeit wichtig sind, präsentiert. Dabei gehen wir zuerst auf einfache Verzweigungsprozesse ein und erweitern diese dann auf Verzweigungsprozesse mit mehreren Typen. Um die Notation zu erleichtern, beschränken wir uns auf zwei Typen. Das Prinzip lässt sich aber auf eine beliebige Anzahl von Typen erweitern.
Vor allem soll die Wichtigkeit des Parameters λ herausgestellt werden. Dieser Wert kann als durchschnittliche Zahl von Nachfahren eines Individuums interpretiert werden und bestimmt die Dynamik des Prozesses über einen längeren Zeitraum. In der Anwendung auf die Pandemie hat der Parameter λ die gleiche Rolle wie die Reproduktionsrate R.
In der zweiten Hälfte dieser Arbeit stellen wir eine Anwendung der Theorie über Multitype Verzweigungsprozesse vor. Professor Yanev und seine Mitarbeiter modellieren in ihrer Veröffentlichung Branching stochastic processes as models of Covid-19 epidemic development die Ausbreitung des Corona Virus' über einen Verzweigungsprozess mit zwei Typen. Wir werden dieses Modell diskutieren und Schätzer daraus ableiten: Ziel ist es, die Reproduktionsrate zu ermitteln. Außerdem analysieren wir die Möglichkeiten, die Dunkelziffer (die Zahl nicht gemeldeter Krankheitsfälle) zu schätzen. Wir wenden die Schätzer auf die Zahlen von Deutschland an und werten diese schließlich aus.
Im Projekt „Forschungsdatenmanagement in Brandenburg (FDM-BB)“ wurden grundlegende Erkenntnisse bezüglich der Anforderungen und des Status Quo im Bereich Forschungsdatenmanagement (FDM) an den acht brandenburgischen Hochschulen generiert mit dem Ziel, daraus konkrete Handlungs- und Implementierungsempfehlungen für Brandenburg abzuleiten.
Mit Hilfe von spezifischen Umfragen (FactSheets, FDM-Palette) an den Hochschulen und Interviews mit den anderen geförderten FDM-Bundeslandinitiativen konnte eine Priorisierung der nächsten Schritte auf dem Weg hin zu einem institutionellen und nachhaltigen Forschungsdatenmanagement identifiziert werden, die jeweils in den Verantwortungsbereichen der folgenden drei Akteursgruppen liegen: Ministerium für Wirtschaft, Forschung und Kultur in Brandenburg (MWFK), die einzelne Hochschule und für gemeinsame Maßnahmen die kooperative Umsetzung durch (fast) alle Hochschulen.
Zusätzlich wurden Implementierungsempfehlungen erarbeitet, wie der lokale Kompetenzaufbau an den einzelnen Hochschulen in Brandenburg, die kooperative Bereitstellung landesweit relevanter IT-Dienste und Dienstleistungen sowie die Koordinierung FDM-BB.
Ziel ist auch, für Brandenburg gemeinsam eine Forschungsdatenstrategie zu formulieren, die alle brandenburgischen Einrichtungen einbezieht und mit Hilfe von kooperativ verteilten Verantwortlichkeiten dem (noch) sehr dynamischen Thema Forschungsdatenmanagement gerecht werden kann.
Die Dissertation geht der grundlegenden Forschungsfrage nach, wie die Liberal-Demokratische Partei Deutschlands (LDPD) auf lokaler Ebene die ihr zugeschriebene Rolle im politischen Alltag ausfüllte, in welchem Verhältnis sie zum System der DDR stand sowie welche Handlungsspielräume bestanden und genutzt wurden. Ihre Parteiarbeit vor Ort vom Mauerbau bis in die 1980er Jahre hinein blieb von der Forschung bisher weitgehend unbeobachtet, da das Interesse verstärkt der herrschenden SED oder den rebellischen Ansätzen der LDPD in den 1940er und späten 1980er Jahren galt. Die vorliegende Arbeit hat einen ersten Schritt unternommen, die liberale Partei auf Kreis- und Ortsebene zu untersuchen, und trägt dazu bei, diese Lücken zu schließen. Anhand der Fallbeispiele Gotha, Erfurt-Stadt und Eisenach beleuchtet die Dissertation die interne Parteiorganisation, Verhalten und Motivationen der Mitglieder sowie unter Berücksichtigung netzwerktheoretischer Ansätze die Verflechtungen der lokalen Parteifunktionsträger, die sich in die kommunale Arbeit vor Ort einmischten. Informations- und Situationsberichte sowie Korrespondenzen und Organisationsunterlagen gaben Auskunft über Selbstbilder, Aktivität, Themen und Kommunikationsaspekte. Deutlich werden die strengen Kontrollmechanismen innerhalb der Partei sowie das Spannungsfeld zwischen einer klaren Unterstützung der SED-Politik und individuell eigen-sinnigem Verhalten.
Durch die Analysekategorie des „Eigen-Sinns“ als Form der vielschichtigen Aneig- nung von Herrschaftsstrukturen in Abgrenzung zu den Begriffen Opposition und Widerstand wird gezeigt, dass die LDPD-Mitglieder in den untersuchten Kreisen sich zwar Freiheiten der Kritikäußerung nahmen sowie weitgehend selbstständig den Grad ihrer Aktivität bestimmten, dabei die grundlegenden Systemfragen jedoch nicht berührten. Es existierten viele unterschiedliche Lebenswelten der Akteure, abhängig von Tätigkeitsfeld, Motivation und Umfeld, die zu verschiedenen Taktiken und Ausprägungen des Eigen-Sinns bei einfachen Mitgliedern und den lokalen Funktionsträgern führten. Durch ihre kommunale Mitarbeit jedoch kümmerten sich die Liberaldemokraten in den Gemeinden um die drängendsten Versorgungsprobleme und sorgten mit der aktiven Rekrutierung ihrer Mitglieder für Arbeitsprogramme und Wettbewerbe für eine Beteiligung der LDPD an der Beseitigung der schlimmsten Mängel im öffentlichen Raum. Damit leisteten sie einen Beitrag zur Dämpfung der allgemeinen Unzufriedenheit und stärkten mittelbar das DDR-System. Im Gegenzug erhielten sie dafür von der SED eingeschränkte und klar definierte Handlungsspielräume. Mittels der beruflichen Verankerung der meisten aktiven Liberaldemokraten im ökonomischen Bereich konnte viel Praxiswissen herausgebildet werden, mit dem sich die untersuchten LDPD-Verbände im Rahmen der gewährten Gestaltungsfreiheit durchaus selbstbewusst in kommunale Prozesse einmischten. Für die Stabilisierung des Systems über die lange Zeit zwischen Mauerbau und Mauerfall spielten sie damit eine wichtige Rolle.
Die Vermischung von Distanzierung, Akzeptanz, Widerspruch und Gehorsam machen die Parteibasis und auch die aktiven Parteifunktionsträger auf der unteren Ebene zu einem sehr spannenden Untersuchungsfeld, das auch noch längst nicht ausgeschöpft ist.
Die vorliegende Dissertation behandelt drei thematische Schwerpunkte. Im Ergebnisteil steht die chemische Synthese von sogenannten (1,7)-Naphthalenophanen im Vordergrund, die zur Substanzklasse von Cyclophanen gehören. Während zahlreiche Synthesemethoden Strategien zum Aufbau von Ringsystemen (wie z. B. von Naphthalenophanen) verfolgen, die Teil einer bereits existierenden aromatischen Struktur der Ausgangsverbindung sind, nutzen nur wenige Ansätze Reaktionen, die einen Ringschluss zum gewünschten Produkt erst im Zuge der Synthese etablieren. Eine Benzanellierung, die eine besondere Aufmerksamkeit im Arbeitskreis erfahren hat, ist die Dehydro-DIELS-ALDER-Reaktion (DDA-Reaktion). Im Rahmen dieser Arbeit konnte gezeigt werden, dass zwölf ausgewählte (1,7)-Naphthalenophane, die teilweise ringgespannt und makrozyklisch aufgebaut waren, mithilfe einer photochemischen Variante der DDA-Reaktion (PDDA-Reaktion) zugänglich gemacht werden können. Die Versuche, auf thermischem Wege (TDDA-Reaktion) (1,7)-Naphthalenophane herzustellen, misslangen. Die außergewöhnliche Reaktivität der Photoreaktanten konnte mithilfe quantenchemischer Berechnungen durch eine gefaltete Grundzustandsgeometrie erklärt werden. Darüber hinaus wurden Ringspannungen und strukturelle Spannungsindikatoren der relevanten Photoprodukte ermittelt und Trends in Abhängigkeit der Linkerlänge in den NMR-Spektren der Zielverbindungen ermittelt sowie diskutiert. Zudem zeigte eine Variation am Chromophor (Acyl-, Carbonsäure- und Carbonsäureester) der Photoreaktanten bei der Bestrahlung in Dichlormethan eine vergleichbare Photokinetik und -reaktivität. Der zweite Abschnitt dieser Dissertation ist dem Design und der Entwicklung zweier Photoreaktoren für UV-Anwendungen im kontinuierlichen Durchfluss gewidmet, da photochemische Transformationen bekanntermaßen in ihrer Skalierbarkeit limitiert sind. Im ersten Prototyp konnten mittels effizienter Parallelschaltung mit bis zu drei UV-Lampen (𝜆𝜆 = 254, 310 und 355 nm) Produktmaterialmengen von bis zu n = 188 mmol anhand eines ausgewählten Fallbeispiels erreicht werden. Im konstruktionstechnisch stark vereinfachten zweiten Photoreaktor wurden alle quarzhaltigen Elemente gegen günstigeres PLEXIGLAS® ersetzt. Das Resultat waren identische Raum-Zeit-Ausbeuten in Bezug auf das zuvor gewählte Synthesebeispiel. Demnach bietet die UV-Photochemie im kontinuierlichen Durchfluss Vorteile gegenüber der traditionellen Bestrahlung im Tauchreaktor. Hinsichtlich Reaktionszeit, Produktausbeuten und Lösemittelverbrauch ist sie synthetisch weit überlegen. Im letzten Abschnitt der Arbeit wurden diese Erkenntnisse genutzt, um biomedizinisch und pharmakologisch vielversprechende 1-Arylnaphthalen-Lignane mittels einer intramolekularen PDDA-Reaktion (IMPDDA-Reaktion) als Schlüsselschritt herzustellen. Hierzu wurden drei Konzepte erarbeitet und in der Totalsynthese von drei ausgewählten Zielstrukturen auf Basis des 1-Arylnaphthalengrundgerüsts realisiert.
Mit 52 Texten versammelt diese Dokumentation sämtliche uns heute bekannten Rezensionen zu Theodor Fontanes „Der Krieg gegen Frankreich 1870–1871“, das in zwei Bänden, bestehend aus insgesamt vier Halbbänden, zwischen März 1873 und September 1876 im Verlag der Königlichen Geheimen Ober-Hofbuchdruckerei (R. v. Decker) erschien. Der Text der Rezensionen wird jeweils nach dem Erstdruck in Zeitungen oder Zeitschriften zeichengetreu konstituiert. Damit wird der Forschung zu Fontanes Darstellung über den Deutsch-Französischen Krieg erstmals eine wichtige rezeptionsgeschichtliche Materialgruppe als Ausgabe zur Verfügung gestellt.
Einleitung
Ältere Patienten mit Herzklappenerkrankungen werden zunehmend häufig mit der kathetergestützten Aortenklappenimplantation (Transcatheter Aortic Valve Implantation, TAVI) oder dem MitraClip®-Verfahren behandelt. In der kardiologischen Rehabilitation nimmt infolgedessen die Patientenpopulation der Hochbetagten stetig zu. Die funktionale Gesundheit dieser Patienten wird durch häufig auftretende, sogenannte geriatrische Syndrome wie Multimorbidität, Mangelernährung, Gebrechlichkeit oder Sturzereignisse beeinflusst. Insbesondere die eingeschränkte Mobilität und Mangelernährung sind wichtige Prädiktoren für die Prognose der Patienten nach TAVI.
Etablierte Verfahren, um die körperliche Leistungsfähigkeit von kardiologischen Rehabilitanden zu beurteilen, sind die Belastungsergometrie und der 6-Minuten-Gehtest. Allerdings ist nahezu die Hälfte der hochbetagten Patienten nicht in der Lage, eine Belastungsergometrie durchzuführen. Bislang erfolgt in der kardiologischen Rehabilitation keine differenzierte Erfassung des funktionellen Status hinsichtlich Mobilität, Kraft und Gleichgewicht, um die geriatrischen Syndrome individuell zu beurteilen. Darüber hinaus werden keine Assessments zur Erfassung des Ernährungsstatus eingesetzt.
Daher war es das Ziel der vorliegenden Arbeit, die Ausprägung des funktionellen und nutritiven Status älterer Patienten anhand geeigneter Assessments in der kardiologischen Rehabilitation zu ermitteln.
Methode
Zwischen Oktober 2018 und Juni 2019 nahmen Patienten im Alter von 75 Jahren oder älter nach TAVI, atrioventrikulärer Intervention mittels MitraClip®-Verfahren (AVI) oder perkutaner Koronarintervention (PCI) an der Studie teil. Zu Beginn der kardiologischen Rehabilitation wurden soziodemografische Daten, echokardiografische Parameter (z. B. links und rechtsventrikuläre Ejektionsfraktion, Herzrhythmus) und Komorbiditäten (z. B. Diabetes mellitus, Niereninsuffizienz, orthopädische Erkrankungen) erhoben, um die Patientenpopulation zu beschreiben. Zusätzlich wurde die Gebrechlichkeit der Rehabilitanden mit dem Index von Stortecky et al., bestehend aus den Komponenten Kognition, Mobilität, Ernährung und Aktivitäten des täglichen Lebens, beurteilt.
Der 6-Minuten-Gehtest diente zur Ermittlung der körperlichen Leistungsfähigkeit der Patienten. Die Mobilität wurde mit Hilfe des Timed-Up-and-Go-Tests, die Ganggeschwindigkeit mit dem Gait Speed Test und die Handkraft mit dem Hand Grip Test erfasst.
Für die Objektivierung des Gleichgewichts wurde eine Kraftmessplatte (uni- und bipedaler Stand mit geöffneten und geschlossenen Augen) erprobt, die bislang bei älteren Rehabilitanden noch nicht eingesetzt wurde.
Der Ernährungsstatus wurde mit dem Mini Nutritional Assessment-Short Form und den ernährungsbezogenen Laborparametern (Hämoglobin, Serumalbumin, Eiweißkonzentration) erfasst.
Die Eignung der Assessments bewerteten wir anhand folgender Kriterien: Durchführbarkeit (bei ≥ 95 % der Patienten durchführbar), Sicherheit (< 95 % Stürze oder andere unerwünschte Ereignisse) und der Pearson-Korrelationen zwischen den funktionellen Tests und dem Goldstandard 6-Minuten-Gehtest sowie den Laborparametern und dem Mini Nutritional Assessment-Short Form.
Ergebnisse
Es wurden 124 Patienten (82 ± 4 Jahre, 48 % Frauen, 5 ± 2 Komorbiditäten, 9 ± 3 Medikamente) nach TAVI (n = 59), AVI (n = 21) und PCI (n = 44) konsekutiv in die Studie eingeschlossen.
Etwa zwei Drittel aller Patienten der Gesamtpopulation waren als gebrechlich zu klassifizieren, bei einer mittleren Punktzahl von 2,9 ± 1,4. Annähernd die Hälfte der Patienten zeigte eine eingeschränkte körperliche Leistungsfähigkeit aufgrund einer reduzierten 6-Minuten-Gehstrecke (48 % < 350 m) sowie eine eingeschränkte Mobilität im Timed-Up-and-Go-Test (55 % > 10 s). Es wurden eine mittlere Gehstrecke von 339 ± 131 m und eine durchschnittliche Zeit im Timed-Up-and-Go-Test von 11,4 ± 6,3 s erzielt. Darüber hinaus wies ein Viertel der Patienten eine eingeschränkte Ganggeschwindigkeit (< 0,8 m/s) auf und etwa 35 % von Ihnen zeigten eine reduzierte Handkraft (Frauen/Männer < 16/27 kg). Im Mittel wurde eine Geschwindigkeit von 1,0 ± 0,2 m/s im Gait Speed Test sowie eine Handkraft von 24 ± 9 kg im Hand Grip Test erreicht. Ein Risiko einer Mangelernährung konnte bei 38 % (< 12 Punkte) der Patienten nachgewiesen werden bei einer mittleren Punktzahl von 11,8 ± 2,2 im Mini Nutritional Assessment-Short Form.
Im Vergleich zwischen den einzelnen Subpopulationen bestanden keine statistisch signifikanten Unterschiede in den Ergebnissen der funktionellen Assessments. Bezüglich des Ernährungsstatus wiesen allerdings die Patienten nach AVI einen statistisch signifikant niedrigeren Punktewert im Mini Nutritional Assessment-Short Form (10,3 ± 3,0 Punkte) auf als die Patienten nach TAVI (12,0 ± 1,8 Punkte) und PCI (12,1 ± 2,1 Punkte), wobei etwa 57 % der Patienten nach AVI, 38 % nach TAVI und 50 % nach PCI ein Risiko einer Mangelernährung zeigten.
Mit Ausnahme der Tests auf der Kraftmessplatte waren alle Assessments durchführbar und sicher. Während 86 % der Patienten den bipedalen Stand mit geschlossenen Augen auf der Kraftmessplatte durchführen konnten und damit nahezu den Grenzwert von 95 % erreichten, war der unipedale Stand mit 12 % an durchführbaren Messungen weit von diesem entfernt.
Der Gait Speed Test (r = 0,79), Timed-Up-and-Go-Test (r = 0,68) und Hand Grip Test (r = 0,33) korrelierten signifikant mit dem 6-Minuten-Gehtest, Hämoglobin (r = 0,20) und Albumin (r = 0,24) korrelierten mit dem Mini Nutritional Assessment-Short Form.
Schlussfolgerung
Über die bestehende Multimorbidität und Multimedikation hinaus wiesen die untersuchten Patienten vor allem eine eingeschränkte Mobilität und ein Risiko einer Mangelernährung auf, wobei die Subpopulation nach AVI besonders betroffen war.
Um den Bedürfnissen hochbetagter Rehabilitanden nach kathetergestützer Intervention gerecht zu werden, ist eine individuelle Behandlung der einzelnen Defizite erforderlich, mit besonderer Berücksichtigung der Komorbiditäten sowie der geriatrischen Kofaktoren. Aufgrund des multidisziplinären Ansatzes erfüllt die kardiologische Rehabilitation bereits die Voraussetzung, hochbetagte Patienten bedarfsgerecht zu behandeln, jedoch mangelt es an Assessments, um die individuellen Defizite der Patienten zu identifizieren
Der Gait Speed Test, der Timed-Up-and-Go-Test und der Hand Grip Test sollten daher in den klinischen Alltag der kardiologischen Rehabilitation implementiert werden, um die körperliche Funktion und Leistungsfähigkeit älterer Patienten detailliert zu beurteilen. In Kombination dieser Assessments mit dem Mini Nutritional Assessment-Short Form können die individuellen funktionellen und nutritiven Bedürfnisse der Patienten während der Rehabilitation erkannt und mit geeigneten Maßnahmen die weitere Ausbildung geriatrischer Syndrome gemindert werden.
Portal Wissen = Wandel
(2021)
Wandel macht alles anders. Seien wir ehrlich: Eigentlich ist so gut wie alles ständig in Transformation. Selbst gewaltige Bergmassive, die anmuten wie eine zu Stein gewordene Ewigkeit, werden irgendwann zu Staub zermahlen. Ist Wandel selbst also das einzig Konstante? Der griechische Philosoph Heraklit jedenfalls war dieser Ansicht. Er sagte: „Nichts ist beständiger als der Wandel.“
Wandel macht Angst. Eine Veränderung, die wir nicht erklären können, versetzt uns in Aufruhr – wie ein Zaubertrick, den wir nicht durchschauen. Viren, die mutieren, Ökosysteme, die kollabieren, Sterne, die vergehen – sie alle scheinen das fragile Gleichgewicht, das unser Dasein ermöglicht, zu gefährden. Dass wir nur zu oft selbst Stein des Anstoßes für gefährliche Verwandlungen sind, hat die Menschheit spät erkannt.
Wandel macht Hoffnung. Wandel hat Menschen schon immer fasziniert und herausgefordert, seinen Ursprung und sein Wesen zu erforschen. Durchaus mit Erfolg. Vieles verstehen wir besser als Generationen zuvor. Doch gut genug? Mitnichten. Alexander von Humboldt meinte: „Jedes Naturgesetz, das sich dem Beobachter offenbart, lässt auf ein höheres, noch unerkanntes schließen.“ Es gibt noch viel zu tun.
Das aktuelle Heft der „Portal Wissen“ steht im Zeichen des Wandels. Wir haben mit einer Astrophysikerin gesprochen, die ihr Glück in der Erforschung der Entstehung und des Wandels der Sterne gefunden hat. Gleich mehrfach schauen wir auf den ganz irdischen Klimawandel und seine Folgen: Eine Geowissenschaftlerin hat uns erklärt, wie die Erderwärmung sich auf die Stabilität von Gebirgen auswirkt; ein Wirtschaftsforscher zeigt, warum die CO2-Steuer einen entscheidenden Beitrag zur Wirtschaftswende bedeuten könnte, und ein Jurist macht deutlich, dass der Ruf nach einem Recht auf Klimaschutz bislang noch weitgehend ungehört verhallt. Wie menschliche Landnutzung sich auf die biologische Artenvielfalt auswirkt, untersuchen Nachwuchswissenschaftlerinnen und -wissenschaftler im Graduiertenkolleg „BioMove“; sie haben uns Einblicke in ihre Arbeiten rund um Feldhase, Wasserfloh und Stockente gegeben. Andere Forschende nehmen Wandel eher in menschlichen Zusammenhängen in den Blick. So diskutieren ein Germanist und ein Medienwissenschaftler über die Folgen der Digitalisierung in Wissenschaft und Bildung. Eine Gruppe von Ernährungswissenschaftlern des DIfE und Sportwissenschaftlern der Uni Potsdam geht der Frage nach, welche Faktoren dafür verantwortlich sind, dass unser Körper sich im Alter wandelt – und warum manche Menschen schneller Muskeln verlieren als andere. Und wir haben einen Blick ins KIDZ geworfen, ein Zentrum, das unkonzentrierten Kindern dabei hilft, an sich selbst zu wachsen.
Natürlich lassen wir bei all dem Wandel die Vielfalt der Forschung an der Uni Potsdam nicht aus den Augen. Ein Besuch im Labor des Projekts „OptiZeD“ lässt erahnen, welche Möglichkeiten optische Sensoren für die personalisierte Medizin von morgen bieten, während eine Bildungsforscherin erklärt, warum kulturelle Vielfalt ein Gut ist, von dem unsere Bildung profitieren kann. Außerdem berichtet eine Kulturwissenschaftlerin von der Faszination von Comics, drei junge Firmengründer von ihrer Idee einer besseren Vernetzung von Handwerkern und eine Psychologin davon, wie es ist, Gewalt in all ihren Facetten zu erforschen. Sie alle sind Teil des hoffnungsvollen Wandels, den Wissenschaft auf den Weg bringt! Viel Spaß bei der Lektüre!
Das 14. Herbsttreffen Patholinguistik mit dem Schwerpunktthema »Klick für Klick: Schritte in der digitalen Sprachtherapie« fand am 14.11.2020 als Online-Veranstaltung statt. Das Herbsttreffen wird seit 2007 jährlich vom Verband für Patholinguistik e.V. (vpl) in Kooperation mit dem Deutschen Bundesverband für akademische Sprachtherapie und Logopädie (dbs) und der Universität Potsdam durchgeführt. Der vorliegende Tagungsband beinhaltet die Hauptvorträge zum Schwerpunktthema sowie die Posterpräsentationen zu weiteren Themen aus der sprachtherapeutischen Forschung und Praxis.
Durch das anhaltende Rückschmelzen von Gletschern werden mehr Sedimentdepots freigesetzt, wodurch diese anfälliger für Erosion werden. Erhöhte Sedimentaustragsraten gefährden die Wasserqualität sowie die Wasserversorgung durch Stauraumverlandung. Um diese Gefahren und deren Abläufe besser verstehen zu können, müssen Erosionsprozesse vor allem in hochalpinen Einzugsgebieten erforscht werden. In dieser Bachelorarbeit wurden Sedimentkonzentrationen sowie weitere Umgebungsvariablen (Abfluss, Niederschlag und Temperatur) im Rofental, Ötztaler Alpen und in einem stark vergletscherten Teileinzugsgebiet des Rofentals gemessen. Um den Zusammenhang zwischen der Sedimentkonzentration und den gemessenen Umgebungsbedingungen zu ermitteln, wurde das Quantile Regression Forest Modell verwendet. Dabei wurden die Variablen zu unterschiedlichen Zeitstufen aggregiert, wodurch vergangene hydroklimatische Bedingungen berücksichtigt werden konnten. Mit der Kenntnis über den Einfluss der verschiedenen Einflussfaktoren konnte die Sedimentkonzentration rückwirkend mithilfe eines Monte Carlo Ansatzes kontinuierlich modelliert werden, wodurch Aussagen über die jährlichen Sedimentexportraten getätigt werden konnten. Weiterhin wurde auch die Trübung, welche als Indikator für die Sedimentkonzentration angesehen werden kann, gemessen. Durch die Bestimmung der Korrelation zwischen modellierten Daten und der gemessenen Trübung konnte der Aussagegehalt des Modells beurteilt werden. Es konnte gezeigt werden, dass das Quantile Regression Forest Modell geeignet ist, um die Sedimentdynamik im Rofental zu rekonstruieren. Es stellte sich weiterhin heraus, dass der Abfluss in beiden Untersuchungsgebieten den größten Einfluss auf die Sedimentdynamik hat, wobei sich die Relevanz verschiedener Variablen in beiden Untersuchungsgebieten stark unterschied. Gemessene Trübungsdaten und die modellierten Sedimentkonzentrationen korrelierten stark positiv, wobei Murgänge, Messfehler und die Anzapfung neuer Sedimentdepots zur Verschlechterung der Modellgüte führten.
Die Quantifizierung der Biomasse von Pflanzen mithilfe effizienter Messmethoden hat für verschiedene Wissenschaftsbereiche eine große Bedeutung. Die vorliegende Arbeit soll es ermöglichen, über die einzelbaumbasierte Schätzung der oberirdischen Biomasse einer Apfel- und einer Kirschkultur am Forschungsstandort Marquardt (Potsdam) auf die Menge des in ihr enthaltenen Wasserstoffs zu schließen. Hierzu wurde das Volumen von 13 Kirsch- und 11 Apfelbäumen bestimmt, indem sie in Segmente unterteilt, diese einzeln vermessen und in Durchmesserklassen eingeteilt wurden. Des Weiteren wurden die Dichte der Zweige und die mittlere Laubmasse bestimmt. Zur Berechnung der Biomasse wurde zusätzlich ein Literaturwert der Holzdichte der entsprechenden Baumarten herangezogen. Es wurde die Verteilung der Holzbiomasse auf die einzelnen Durchmesserklassen untersucht und einfach zu erhebende Baumparameter, sowie Daten eines Terrestrischen Laserscanners als Prädiktorvariablen für eine Regressionsanalyse herangezogen. Die experimentell ermittelten Dichtewerte zeigten eine Zunahme mit steigendem Zweigdurchmesser. Dabei wichen sie beim Kirschbaumholz leicht, beim Apfelbaumholz stärker vom Literaturwert ab. Die Erhebungen zur Laubmasse wurden unabhängig von den vermessenen Bäumen gemacht und die Ergebnisse unterlagen großer Varianz, weshalb kein Zusammenhang zwischen Holz- und Laubbiomasse hergestellt und nur durchschnittliche Werte ermittelt werden konnten. Der Anteil der verschiedenen Durchmesserklassen an der Gesamtmasse erwies sich als stark variabel und eine Schätzung der Biomasse aus dem Gewicht weniger kräftiger Baumsegmente daher als nicht geeignet. Eine zuverlässige und effiziente Abschätzung der oberirdischen verholzten Biomasse kann jedoch durch die Anwendung der erstellten Modelle erreicht werden. Für die vorliegende Population gleichaltriger und ähnlich großer Individuen wurden mit einer linearen Regression die besten Ergebnisse erzielt. Während die auf Laserdaten basierenden Variablen kaum mit der Holzbiomasse korrelierten, zeigten lineare Modelle mit dem Stammdurchmesser d bzw. d² als Prädiktor bei beiden Baumarten eine hohe Signifikanz (p - Wert < 0.001) und sehr gute Anpassung (R² > 0.8).
-Christoph Markschies: Geleitwort
-Ulrich Päßler: Christian Gottfried Ehrenberg: Lebensbilder eines Naturforschers
-Mathias Grote: „Aus dem Kleinen bauen sich die Welten“ – Christian Gottfried Ehrenbergs ökologische Mikrobiologie avant la lettre
-Anne Greenwood MacKinney: Die Inszenierung naturforschender Gelehrsamkeit beim Sammeln: Christian Gottfried Ehrenbergs und Wilhelm Hemprichs nordafrikanische Forschungsreise (1820 – 1825)
-Ulrich Päßler: Reisen im Nahen Osten. Zeichnungen
-Ulrich Päßler: Christian Gottfried Ehrenberg und die Biogeographie: Die russisch-sibirische Reise mit Alexander von Humboldt (1829)
-Ulrich Päßler: Russisch-Sibirische Reise. Zeichnungen
-Wolf-Henning Kusber, Regine Jahn: Christian Gottfried Ehrenbergs Zeichnungen: Eine frühe wissenschaftliche Dokumentation mikroskopischer Organismen
-Ferdinand Damaschun: Christian Gottfried Ehrenberg und die Entwicklung der Mikroskop-Technik im 19. Jahrhundert
-Ulrich Päßler: Die Reise ins Kleinste der Natur. Zeichnungen
-Katrin Böhme: Das große Ganze: Christian Gottfried Ehrenberg und die Gesellschaft Naturforschender Freunde zu Berlin
In der vorliegenden Arbeit wurde sich mit der Frage beschäftigt, ob und wenn ja inwiefern das spanische que, neben seinen klassischen Verwendungsweisen als Pronomen und Konjunktion, als Diskursmarker (DM) fungieren kann, also ob que in bestimmten Kontexten seinen propositionalen Gehalt verliert und rein diskursive Funktionen übernimmt.
Es wurden 128 Beispiele von satzinitialen que untersucht, welche sich zunächst nicht eindeutig als grammatisches Element klassifizieren lassen. Die Beispiele entstammen einem Korpus, welches auf einem auf Grundlage der zweiten Staffel der Netflix-Serie “Élite” erstellten Transkript basiert. Das Material wurde anhand von fünf auf Grundlage der Forschungsliteratur erstellten Kriterien analysiert und je nach Erfüllung oder Nicht-Erfüllung in die Kategorien “nicht pragmatikalisiert” (NP), “teilweise pragmatikalisiert” (TP) und “pragmatikalisiert” (P) eingeordnet. Innerhalb jeder dieser Kategorien wurde(n) die entsprechende(n) grammatische(n) bzw. pragmatische(n) Funktion(en) spezifiziert und die Ergebnisse in einem Raster zusammengetragen. Für die Funktionszuordnung in der Kategorie (P) wurde hierbei auf die DM-Klassifizierung von Martín Zorraquino und Portolés 1999 zurückgegriffen und hierbei teilweise noch einmal weiter spezifiziert.
Bei der Analyse haben sich 89 als P, 34 als TP und fünf Beispiele als NP herausgestellt. Von den 89 als P eingestuften que wurde der Großteil (84) als “comentador” beschrieben - als DM, der einen Kommentar einführt. So wurden insgesamt 72 que als DM eingestuft, die einen erklärenden Kommentar einleiten.
Es wurde hiermit eine objektive Einstufung von que als DM erreicht, welche gleichzeitig erste Aufschlüsse über die spezifischen Funktionen von que als DM gibt. Die Nutzung konkreter Kriterien zur Analyse von potentiellen DM gewährleistet Objektivität und leistet einen Beitrag zur Systematisierung der teils von Uneinigkeiten und Interpretationen geprägten DM-Forschung.
Der Bildungshausbau ist Thema aktueller Debatten in der Stadtentwicklung und Stadtplanung sowie in der Pädagogik. Viele Expert*innen beschäftigen sich in Studien mit Fragen zu gutem und gelingendem Schulbau. Die Anforderungen der Gesellschaft an Bildungshäuser verändern sich, wenn in ganztägigen Schulformen nicht nur Unterricht, sondern auch Freizeitbetreuung für die Schülerinnen und Schüler stattfinden soll. Gleichzeitig soll Schule ein Ort der Begegnung und Kommunikation, des sozialen Lernens und der Kooperation sein. Schule ist in vielfacher Hinsicht in Bewegung. Um mit den Veränderungen und Ansprüchen Schritt zu halten, steht der Bildungshausbau immer wieder vor Herausforderungen. Einerseits werden Leuchtturmprojekte geschaffen, andererseits entstehen nach wie vor Bildungsbauten, die den gegenwärtigen Anforderungen und zukünftigen Entwicklungen nicht gerecht werden.
An dieser Stelle setzt die vorliegende Arbeit an, die nicht neue Normen zu gutem Schulbau vorlegt, sondern in einer qualitativen empirischen Studie nach den pädagogischen Vorstellungen von Beteiligten im Bildungshausbau und den typischen Entwicklungen im Planungsprozess fragt. Der vorliegenden Fallstudie wurde die dokumentarische Methode als Auswertungsverfahren zugrunde gelegt. Gegenstand der Untersuchung waren zwei Bildungsbauten eines Großbauprojektes. Im Zuge der Auswertung erfolgten eine Analyse der Projektstrukturen und eine Analyse der Deutungsmuster der befragten Akteur*innen, die in einer zusammen¬führenden Ergebnisdarstellung in Form eines Handlungs-Struktur-Gefüges mündeten.
Es werden Einblicke in Zusammenhänge von Handlungen der Beteiligten und Projektstrukturen gegeben, wie sie sich gegenseitig beeinflussen oder im Prozessverlauf verändern. Die Auswertung zeigt, dass Transferproblematiken zwischen Wissenschaft und Praxis nach wie vor bestehen. Besonderes Gewicht bei Planungsentscheidungen haben finanzielle, zeitliche und architektonische Strukturen. Nur wenige pädagogische Vorstellungen bzw. Deutungsmuster können in Erscheinung treten.
Trotz der hohen innovationspolitischen Bedeutung der außeruniversitären Forschungseinrichtungen (AUF) sind sie bisher selten Gegenstand empirischer Untersuchungen. Keine der bisher vorliegenden Arbeiten legt ihren Fokus auf die Zusammenarbeit von Wissenschaftler:innen in Forschungsteams, obwohl wissenschaftliche Zusammenarbeit ein weitgehend unerforschtes Gebiet ist. Dies verwundert insofern, da gerade innovative und komplexe Aufgaben, wie sie im Bereich der Forschung bestehen, das kreative Potenzial Einzelner sowie eine gut funktionierende Kooperation der einzelnen Individuen benötigen. Die Zusammenarbeit von Wissenschaftler:innen in den AUF findet in einem kompetitiven Umfeld statt. Einerseits stehen die AUF auf Organisationsebene im Wettbewerb zueinander und konkurrieren um Forschungsgelder und wissenschaftliches Personal. Andererseits ist die kompetitive Einwerbung von Drittmitteln für Wissenschaftler:innen essentiell, um Leistungen, gemessen an hochrangigen Publikationen und Drittmittelquoten, für die eigene Karriere zu erbringen. Ein zunehmender Anteil an Drittmittelfinanzierung in den Einrichtungen hat zudem Auswirkungen auf die Personalpolitik und die Anzahl befristeter Arbeitsverhältnisse. Gleichzeitig wird Forschungsförderung häufig an Kollaborationen von Wissenschaftler:innen geknüpft und bei Publikationen und Forschungsergebnissen zeigen Studien, dass diese überwiegend das Resultat von mehreren Personen sind. Dieses Spannungsfeld zwischen Zusammenarbeit und Wettbewerb wird verstärkt durch die fehlenden Möglichkeiten für den wissenschaftlichen Nachwuchs in der Wissenschaft zu bleiben. Auch wenn die Bundesregierung auf diese Herausforderungen reagiert, muss der Einzelne seinen Weg zwischen Zusammenarbeit und Konkurrenz finden.
Zielsetzung dieser Arbeit ist es, nachfolgende Forschungsfragen zu beantworten:
1. Wie können naturwissenschaftliche Forschungsteams in AUF charakterisiert werden?
2. Wie agiert die einzelne Forscherin/ der einzelne Forscher im Spannungsfeld zwischen Kooperation und Wettbewerb?
3. Welche Potentiale und Hemmnisse lassen sich auf Individual-, Team- und Umweltebene für eine erfolgreiche Arbeit von Forschungsteams in AUF ausmachen?
Um die Forschungsfragen beantworten zu können, wurde eine empirische Untersuchung im Mixed Method Design, bestehend aus einer deutschlandweiten Onlinebefragung von 574 Naturwissenschaftler:innen in AUF und qualitativen Interviews mit 122 Teammitgliedern aus 20 naturwissenschaftlichen Forschungsteams in AUF, durchgeführt.
Die Ergebnisse zeigen, dass die Teams eher als Arbeitsgruppen bezeichnet werden können, da v.a. in der Grundlagenforschung kein gemeinsames Ziel als vielmehr ein gemeinsamer inhaltlicher Rahmen vorliegt, in dem die Forschenden ihre individuellen Ziele verfolgen. Die Arbeit im Team wird überwiegend als positiv und kooperativ beschrieben und ist v.a. durch gegenseitige Unterstützung bei Problemen und weniger durch einen thematisch wissenschaftlichen Erkenntnisprozess geprägt. Dieser findet vielmehr in Form kleiner Untergruppen innerhalb der Arbeitsgruppe und vor allem in enger Abstimmung mit der Teamleitung (TL) statt. Als wettbewerbsverschärfend werden vor allem organisationale Rahmenbedingungen, wie Befristungen und der Flaschenhals, thematisiert.
Die TL nimmt die zentrale Rolle im Team ein, trägt die wissenschaftliche, finanzielle und personelle Verantwortung und muss den Forderungen der Organisation gerecht werden. Promovierende konzentrieren sich fast ausschließlich auf ihre Qualifizierungsarbeit. Bei Postdocs ist ein Spannungsfeld zu erkennen, da sie eigene Projekte und Ziele verfolgen, die neben den Anforderungen der TL bestehen. Die Gatekeeperfunktion der TL wird gestärkt durch ihre Rolle bei der Weitergabe von karriererelevanten Informationen im Team, z.B. bei anstehenden Konferenzen. Sie hat die wichtigen Kontakte, sorgt für die Vernetzung des Teams und ist für die Netzwerkpflege zuständig. Der wissenschaftliche Nachwuchs verlässt sich bei seinen Aufgaben und den karriererelevanten Faktoren sehr auf ihre Unterstützung. Nicht-wissenschaftliche Mitarbeitende gilt es stärker zu berücksichtigen, dies sowohl in ihrer Funktion in den Teams als auch in der Gesamtorganisation. Sie sind die zentralen Ansprechpersonen des wissenschaftlichen Personals und sorgen für eine Kontinuität bei der Wissensspeicherung und -weitergabe. Für die Organisationen gilt es, unterstützende Rahmen-, Arbeits- und Aufgabenbedingungen für die TL zu schaffen und den wissenschaftlichen Nachwuchs bei einer frühzeitigen Verantwortung für wissenschaftliche und karriererelevante Aufgaben zu unterstützen. Dafür bedarf es verbesserter Personalentwicklungskonzepte und -angebote. Darüber hinaus gilt es, Kooperationsmöglichkeiten innerhalb der Einrichtung und zwischen den Gruppen zu schaffen, z.B. durch offene Räume und Netzwerkmöglichkeiten, und innovative Arbeitsumgebungen zu fördern, um neue Formen einer innovationsfreundlichen Wissenschaftskultur zu etablieren.
Militärgeschichte und Wissensgeschichte bilden zwei in den vergangenen Jahrzehnten international prosperierende Forschungsfelder, die bislang aber selten miteinander in Dialog getreten sind. Das Themenheft nimmt dies zum Anlass, exemplarisch die Potentiale wissensgeschichtlicher Perspektiven für die (früh-)neuzeitliche Militärgeschichte auszuloten und dabei zugleich den bislang oft unreflektierten Zäsurcharakter der Jahre um 1800 kritisch zu beleuchten. Gab es eine eigene militärische Wissenskultur oder inwieweit partizipierte das Militär an den zivilen Wissenskulturen seiner sozialen Umwelt? Welche Akteure, welche Praktiken und welche Medien spielten eine Rolle bei der Verwissenschaftlichung des Militärischen im Wandel von der Kriegskunst zur Kriegswissenschaft? Gerade der geweitete analytische Horizont der Wissensgeschichte ermöglicht es, der Vielfalt der Wissensformen Rechnung zu tragen und entsprechende Entwicklungen angemessen in ihren historischen Kontexten zu verorten. Darüber hinaus bietet der epochenübergreifende Zuschnitt die Chance, nicht nur Brüche, sondern auch mögliche Kontinuitäten zwischen frühneuzeitlichem und neuzeitlichem Militärwesen sowie dessen Beziehungen zum Wissen aufzuzeigen und etwaige Ungenauigkeiten oder historiographisch bedingte Verkürzungen durch neue Akzentsetzungen zu korrigieren.
Die Vielfältigkeit des Winkelbegriffs ist gleichermaßen spannend wie herausfordernd in Hinblick auf seine Zugänge im Mathematikunterricht der Schule. Ausgehend von verschiedenen Vorstellungen zum Winkelbegriff wird in dieser Arbeit ein Lehrgang zur Vermittlung des Winkelbegriffs entwickelt und letztlich in konkrete Umsetzungen für den Schulunterricht überführt.
Dabei erfolgt zunächst eine stoffdidaktische Auseinandersetzung mit dem Winkelbegriff, die von einer informationstheoretischen Winkeldefinition begleitet wird. In dieser wird eine Definition für den Winkelbegriff unter der Fragestellung entwickelt, welche Informationen man über einen Winkel benötigt, um ihn beschreiben zu können. So können die in der fachdidaktischen Literatur auftretenden Winkelvorstellungen aus fachmathematischer Perspektive erneut abgeleitet und validiert werden. Parallel dazu wird ein Verfahren beschrieben, wie Winkel – auch unter dynamischen Aspekten – informationstechnisch verarbeitet werden können, so dass Schlussfolgerungen aus der informationstheoretischen Winkeldefinition beispielsweise in dynamischen Geometriesystemen zur Verfügung stehen.
Unter dem Gesichtspunkt, wie eine Abstraktion des Winkelbegriffs im Mathematikunterricht vonstatten gehen kann, werden die Grundvorstellungsidee sowie die Lehrstrategie des Aufsteigens vom Abstrakten zum Konkreten miteinander in Beziehung gesetzt. Aus der Verknüpfung der beiden Theorien wird ein grundsätzlicher Weg abgeleitet, wie im Rahmen der Lehrstrategie eine Ausgangsabstraktion zu einzelnen Winkelaspekten aufgebaut werden kann, was die Generierung von Grundvorstellungen zu den Bestandteilen des jeweiligen Winkelaspekts und zum Operieren mit diesen Begriffsbestandteilen ermöglichen soll. Hierfür wird die Lehrstrategie angepasst, um insbesondere den Übergang von Winkelsituationen zu Winkelkontexten zu realisieren. Explizit für den Aspekt des Winkelfeldes werden, anhand der Untersuchung der Sichtfelder von Tieren, Lernhandlungen und Forderungen an ein Lernmodell beschrieben, die Schülerinnen und Schüler bei der Begriffsaneignung unterstützen.
Die Tätigkeitstheorie, der die genannte Lehrstrategie zuzuordnen ist, zieht sich als roter Faden durch die weitere Arbeit, wenn nun theoriebasiert Designprinzipien generiert werden, die in die Entwicklung einer interaktiven Lernumgebung münden. Hierzu wird u. a. das Modell der Artifact-Centric Activity Theory genutzt, das das Beziehungsgefüge aus Schülerinnen und Schülern, dem mathematischen Gegenstand und einer zu entwickelnden App als vermittelndes Medium beschreibt, wobei der Einsatz der App im Unterrichtskontext sowie deren regelgeleitete Entwicklung Bestandteil des Modells sind. Gemäß dem Ansatz der Fachdidaktischen Entwicklungsforschung wird die Lernumgebung anschließend in mehreren Zyklen erprobt, evaluiert und überarbeitet. Dabei wird ein qualitatives Setting angewandt, das sich der Semiotischen Vermittlung bedient und untersucht, inwiefern sich die Qualität der von den Schülerinnen und Schülern gezeigten Lernhandlungen durch die Designprinzipien und deren Umsetzung erklären lässt. Am Ende der Arbeit stehen eine finale Version der Designprinzipien und eine sich daraus ergebende Lernumgebung zur Einführung des Winkelfeldbegriffs in der vierten Klassenstufe.
Aus dem Inhalt:
– Replik auf Felix Brönners Beitrag im MRM – MenschenRechtsMagazin Heft 1/2 2019 „Koloniale Kontinuitäten im Menschenrechtsdiskurs“ S. 24 – 37 (Teil 1)
– Der Nachweis von Verletzungen der Menschenrechte durch Satellitenbilder – Dargestellt am Beispiel der Praxis von Untersuchungskommissionen des Menschenrechtsrates der Vereinten Nationen
– Kinder als Menschenrechtsverteidiger:innen – Anforderungen an ein förderliches Umfeld für das Engagement von Kinder
Starkregen in Berlin
(2021)
In den Sommern der Jahre 2017 und 2019 kam es in Berlin an mehreren Orten zu Überschwemmungen in Folge von Starkregenereignissen. In beiden Jahren führte dies zu erheblichen Beeinträchtigungen im Alltag der Berliner:innen sowie zu hohen Sachschäden. Eine interdisziplinäre Taskforce des DFG-Graduiertenkollegs NatRiskChange untersuchte (1) die meteorologischen Eigenschaften zweier besonders eindrücklicher Unwetter, sowie (2) die Vulnerabilität der Berliner Bevölkerung gegenüber Starkregen.
Eine vergleichende meteorologische Rekonstruktion der Starkregenereignisse von 2017 und 2019 ergab deutliche Unterschiede in der Entstehung und den Überschreitungswahrscheinlichkeiten der beiden Unwetter. So war das Ereignis von 2017 mit einer relativ großen räumlichen Ausdehnung und langer Dauer ein untypisches Starkregenereignis, während es sich bei dem Unwetter von 2019 um ein typisches, kurzzeitiges Starkregenereignis mit ausgeprägter räumlicher Heterogenität handelte. Eine anschließende statistische Analyse zeigte, dass das Ereignis von 2017 für längere Niederschlagsdauern (>=24 h) als großflächiges Extremereignis mit Überschreitungswahrscheinlichkeiten von unter 1 % einzuordnen ist (d.h. Wiederkehrperioden >=100 Jahre). Im Jahr 2019 wurden dagegen ähnliche Überschreitungswahrscheinlichkeiten nur lokal und für kürzere Zeiträume (1-2 h) berechnet.
Die Vulnerabilitätsanalyse basiert auf einer von April bis Juni 2020 in Berlin durchgeführten Onlinebefragung. Diese richtete sich an Personen, die bereits von vergangenen Starkregenereignissen betroffen waren und thematisierte das Schadensereignis selbst, daraus entstandene Beeinträchtigungen und Schäden, Risikowahrnehmung sowie Notfall- und Vorsorgemaßnahmen. Die erhobenen Umfragedaten (n=102) beziehen sich vornehmlich auf die Ereignisse von 2017 und 2019 und zeigen, dass die Berliner Bevölkerung sowohl im Alltag (z.B. bei der Beschaffung von Lebensmitteln) als auch im eigenen Haushalt (z.B. durch Überschwemmungsschäden) von den Unwettern beeinträchtigt war. Zudem deuteten die Antworten der Betroffenen auf Möglichkeiten hin, die Vulnerabilität der Gesellschaft gegenüber Starkregen weiter zu reduzieren - etwa durch die Unterstützung besonders betroffener Gruppen (z.B. Pflegende), durch gezielte Informationskampagnen zum Schutz vor Starkregen oder durch die Erhöhung der Reichweite von Unwetterwarnungen. Eine statistische Analyse zur Effektivität privater Notfall- und Vorsorgemaßnahmen auf Grundlage der Umfragedaten bestätigte vorherige Studienergebnisse.
So gab es Anhaltspunkte dafür, dass durch das Umsetzen von Vorsorgemaßnahmen wie beispielsweise das Installieren von Rückstauklappen, Barriere-Systemen oder Pumpen Starkregenschäden reduziert werden können.
Die Ergebnisse dieses Berichts unterstreichen die Notwendigkeit für ein integriertes Starkregenrisikomanagment, das die Risikokomponenten Gefährdung, Vulnerabilität und Exposition ganzheitlich und auf mehreren Ebenen (z.B. staatlich, kommunal, privat) betrachtet.
Digitalisierung ermöglicht es uns, mit Partnern (z.B. Unternehmen, Institutionen) in einer IT-unterstützten Umgebung zu interagieren und Tätigkeiten auszuführen, die vormals manuell erledigt wurden. Ein Ziel der Digitalisierung ist dabei, Dienstleistungen unterschiedlicher fachlicher Domänen zu Prozessen zu kombinieren und vielen Nutzergruppen bedarfsgerecht zugänglich zu machen. Hierzu stellen Anbieter technische Dienste bereit, die in unterschiedliche Anwendungen integriert werden können.
Die Digitalisierung stellt die Anwendungsentwicklung vor neue Herausforderungen. Ein Aspekt ist die bedarfsgerechte Anbindung von Nutzern an Dienste. Zur Interaktion menschlicher Nutzer mit den Diensten werden Benutzungsschnittstellen benötigt, die auf deren Bedürfnisse zugeschnitten sind. Hierzu werden Varianten für spezifische Nutzergruppen (fachliche Varianten) und variierende Umgebungen (technische Varianten) benötigt. Zunehmend müssen diese mit Diensten anderer Anbieter kombiniert werden können, um domänenübergreifend Prozesse zu Anwendungen mit einem erhöhten Mehrwert für den Endnutzer zu verknüpfen (z.B. eine Flugbuchung mit einer optionalen Reiseversicherung).
Die Vielfältigkeit der Varianten lässt die Erstellung von Benutzungsschnittstellen komplex und die Ergebnisse sehr individuell erscheinen. Daher werden die Varianten in der Praxis vorwiegend manuell erstellt. Dies führt zur parallelen Entwicklung einer Vielzahl sehr ähnlicher Anwendungen, die nur geringes Potential zur Wiederverwendung besitzen. Die Folge sind hohe Aufwände bei Erstellung und Wartung. Dadurch wird häufig auf die Unterstützung kleiner Nutzerkreise mit speziellen Anforderungen verzichtet (z.B. Menschen mit physischen Einschränkungen), sodass diese weiterhin von der Digitalisierung ausgeschlossen bleiben.
Die Arbeit stellt eine konsistente Lösung für diese neuen Herausforderungen mit den Mitteln der modellgetriebenen Entwicklung vor. Sie präsentiert einen Ansatz zur Modellierung von Benutzungsschnittstellen, Varianten und Kompositionen und deren automatischer Generierung für digitale Dienste in einem verteilten Umfeld. Die Arbeit schafft eine Lösung zur Wiederverwendung und gemeinschaftlichen Nutzung von Benutzungsschnittstellen über Anbietergrenzen hinweg. Sie führt zu einer Infrastruktur, in der eine Vielzahl von Anbietern ihre Expertise in gemeinschaftliche Anwendungen einbringen können.
Die Beiträge bestehen im Einzelnen in Konzepten und Metamodellen zur Modellierung von Benutzungsschnittstellen, Varianten und Kompositionen sowie einem Verfahren zu deren vollständig automatisierten Transformation in funktionale Benutzungsschnittstellen. Zur Umsetzung der gemeinschaftlichen Nutzbarkeit werden diese ergänzt um eine universelle Repräsentation der Modelle, einer Methodik zur Anbindung unterschiedlicher Dienst-Anbieter sowie einer Architektur zur verteilten Nutzung der Artefakte und Verfahren in einer dienstorientierten Umgebung.
Der Ansatz bietet die Chance, unterschiedlichste Menschen bedarfsgerecht an der Digitalisierung teilhaben zu lassen. Damit setzt die Arbeit Impulse für zukünftige Methoden zur Anwendungserstellung in einem zunehmend vielfältigen Umfeld.
Zum Einfluss von Adaptivität auf die Wahrnehmung von Komplexität in der Mensch-Technik-Interaktion
(2021)
Wir leben in einer Gesellschaft, die von einem stetigen Wunsch nach Innovation und Fortschritt geprägt ist. Folgen dieses Wunsches sind die immer weiter fortschreitende Digitalisierung und informatische Vernetzung aller Lebensbereiche, die so zu immer komplexeren sozio-technischen Systemen führen. Ziele dieser Systeme sind u. a. die Unterstützung von Menschen, die Verbesserung ihrer Lebenssituation oder Lebensqualität oder die Erweiterung menschlicher Möglichkeiten. Doch haben neue komplexe technische Systeme nicht nur positive soziale und gesellschaftliche Effekte. Oft gibt es unerwünschte Nebeneffekte, die erst im Gebrauch sichtbar werden, und sowohl Konstrukteur*innen als auch Nutzer*innen komplexer vernetzter Technologien fühlen sich oft orientierungslos. Die Folgen können von sinkender Akzeptanz bis hin zum kompletten Verlust des Vertrauens in vernetze Softwaresysteme reichen. Da komplexe Anwendungen, und damit auch immer komplexere Mensch-Technik-Interaktionen, immer mehr an Relevanz gewinnen, ist es umso wichtiger, wieder Orientierung zu finden. Dazu müssen wir zuerst diejenigen Elemente identifizieren, die in der Interaktion mit vernetzten sozio-technischen Systemen zu Komplexität beitragen und somit Orientierungsbedarf hervorrufen.
Mit dieser Arbeit soll ein Beitrag geleistet werden, um ein strukturiertes Reflektieren über die Komplexität vernetzter sozio-technischer Systeme im gesamten Konstruktionsprozess zu ermöglichen. Dazu wird zuerst eine Definition von Komplexität und komplexen Systemen erarbeitet, die über das informatische Verständnis von Komplexität (also der Kompliziertheit von Problemen, Algorithmen oder Daten) hinausgeht. Im Vordergrund soll vielmehr die sozio-technische Interaktion mit und in komplexen vernetzten Systemen stehen. Basierend auf dieser Definition wird dann ein Analysewerkzeug entwickelt, welches es ermöglicht, die Komplexität in der Interaktion mit sozio-technischen Systemen sichtbar und beschreibbar zu machen.
Ein Bereich, in dem vernetzte sozio-technische Systeme zunehmenden Einzug finden, ist jener digitaler Bildungstechnologien. Besonders adaptiven Bildungstechnologien wurde in den letzten Jahrzehnten ein großes Potential zugeschrieben. Zwei adaptive Lehr- bzw. Trainingssysteme sollen deshalb exemplarisch mit dem in dieser Arbeit entwickelten Analysewerkzeug untersucht werden. Hierbei wird ein besonderes Augenmerkt auf den Einfluss von Adaptivität auf die Komplexität von Mensch-Technik-Interaktionssituationen gelegt. In empirischen Untersuchungen werden die Erfahrungen von Konstrukteur*innen und Nutzer*innen jener adaptiver Systeme untersucht, um so die entscheidenden Kriterien für Komplexität ermitteln zu können. Auf diese Weise können zum einen wiederkehrende Orientierungsfragen bei der Entwicklung adaptiver Bildungstechnologien aufgedeckt werden. Zum anderen werden als komplex wahrgenommene Interaktionssituationen identifiziert. An diesen Situationen kann gezeigt werden, wo aufgrund der Komplexität des Systems die etablierten Alltagsroutinen von Nutzenden nicht mehr ausreichen, um die Folgen der Interaktion mit dem System vollständig erfassen zu können. Dieses Wissen kann sowohl Konstrukteur*innen als auch Nutzer*innen helfen, in Zukunft besser mit der inhärenten Komplexität moderner Bildungstechnologien umzugehen.
Das Professionswissen einer Lehrkraft gilt als Voraussetzung für erfolgreichen Unterricht. Trotz großer Unterschiede der Professionswissensmodelle ist die Forschung sich aus theoretischer Sicht weitestgehend einig darüber, dass das fachliche und fachdidaktische Wissen wichtige Bestandteile des Professionswissens und damit bedeutsam für Unterrichtserfolg sind. Zurecht gibt es daher die Forderung, dass Lehrkräfte unter anderem ein ausgeprägtes fachliches Wissen benötigen, das sie in den verschiedensten Situationen ihres Berufslebens, wie z.B. dem Erklären von Konzepten und dem Planen von Unterricht einsetzen. Die Forschung untersucht aus diesem Grund schon seit über 30 Jahren die Bedeutung des Fachwissens einer Lehrkraft. Dabei werden die Betrachtungen des Fachwissens immer differenzierter. So hat sich in vielen Forschungsansätzen der Physikdidaktik eine Dreiteilung des Fachwissens in schulisches Wissen, vertieftes Schulwissen und universitäres Wissen durchgesetzt. Während das Schulwissen als jenes Wissen verstanden wird, das in der Schule gelehrt und gelernt wird, beschreibt die Facette des universitären Wissens die stark akademisch geprägte Wissensform, die zukünftige Physiklehrkräfte in den Fachveranstaltungen an der Universität erwerben sollen. Das vertiefte Schulwissen ist hingegen eine spezielle Form des fachlichen Wissens, die aus Forschungssicht als besonders wichtig für Lehrkräfte angenommen wird. Zusammengenommen sollen angehende Physiklehrkräfte alle genannten Facetten des Fachwissens, also Schulwissen, vertieftes Schulwissen und universitäres Wissen, während des Lehramtsstudiums Physik erwerben. Neben dem fachlichen Wissen benötigt eine Lehrkraft als wichtigen Bestandteil des Professionswissens auch noch fachdidaktisches Wissen, welches ebenfalls während des Studiums erworben werden soll. Gleichzeitig geht man in der Forschung davon aus, dass für die Entwicklung des fachdidaktischen Wissens fachliches Wissen eine Grundvoraussetzung ist. Es ist jedoch empirisch nahezu ungeklärt, wie sich das beschriebene Fachwissen und das fachdidaktische Wissen im Verlauf des Lehramtsstudiums Physik entwickeln oder wie sich diese Wissensformen gegenseitig beeinflussen. Darüber hinaus ist unklar, welche Herausforderungen sich aus der Leistungsheterogenität der Studienanfänger:innen ergeben. Bisherige Untersuchungen aus der Studienerfolgsforschung legen nahe, dass besonders das Vorwissen prognostisch für Studienerfolg ist. Die vorliegende Arbeit untersucht daher zunächst, wie sich das fachliche Wissen (Schulwissen, vertieftes Schulwissen, universitäres Wissen) von Lehrkräften im Verlauf des Bachelor- und Masterstudiums entwickelt. In einem nächsten Schritt wurde untersucht, wie sich Studierende mit einem geringen, mittleren bzw. hohen Fachwissen zum Beginn des Studiums über das Bachelorstudium entwickeln. Darüber hinaus wurde die Entwicklung des fachdidaktischen Wissens betrachtet und Zusammenhänge zum fachlichen Wissen in den Blick genommen. Durchgeführt wurde die vorliegende Studie im Längsschnitt im Verlauf von drei Jahren an 11 Hochschulen mit 145 Bachelorstudierenden und 73 Masterstudierenden. Die Bachelorstudierenden haben jährlich an einer Testung des fachlichen und fachdidaktischen Wissens teilgenommen. Die Masterstudierenden nahmen jeweils vor und nach einem einsemestrigen Schulpraktikum an den Erhebungen teil. Zur Testung wurde jeweils ein schriftliches Testinstrument verwendet. Das weiterentwickelte Fachwissensinstrument wurde zusätzlich ausführlichen Validierungsuntersuchungen unterzogen. Die Ergebnisse zeigen, dass sich das Schulwissen, das vertiefte Schulwissen und das universitäre Wissen sowohl im Bachelor- als auch Masterstudium signifikant weiterentwickeln. Auch für das fachdidaktische Wissen können signifikante Zuwächse über das Bachelor- und Masterstudium berichtet werden. Interessant ist dabei, dass eine starke Korrelation zwischen dem fachlichen Wissen zu Beginn des Studiums und dem Zuwachs des fachdidaktischen Wissens vom ersten zum dritten Semester erkennbar ist. Es liegen also erste Hinweise dafür vor, dass – wie in der Forschung vermutet – das fachliche Wissen eine Voraussetzung für die Entwicklung von fachdidaktischem Wissen ist. Die angesprochene Leistungsheterogenität zu Beginn des Studiums stellt dabei jedoch ein Hindernis für die Entwicklung des fachlichen Wissens dar. So holt die Gruppe der zu Beginn schwächeren Studierenden nicht einmal das Mittelfeld im Lauf des Studiums ein. Gleichzeitig ist zu beobachten, dass die Gruppe der stärksten Studierenden im Vergleich zu den übrigen Studierenden vom ersten zum dritten Semester überproportional dazulernt. Insgesamt bleibt das heterogene Leistungsbild im Verlauf des Studiums erhalten, was die Forderung nach Unterstützung für leistungsschwächere Studierende gerade zu Beginn des Studiums betont. Wie sich innerhalb der vorliegenden Untersuchung zeigte, könnte insbesondere ein ausgeprägtes mathematisches Vorwissen hilfreich sein, um fachliches Wissen zu entwickeln. Die bisher angebotenen Vorkurse scheinen dem Bedarf nicht gerecht zu werden und so könnte es lohnenswert sein, zusätzliche Veranstaltungen auch in Bezug auf fachliches Wissen in der gesamten Studieneingangsphase anzubieten. Forschungsergebnisse deuten darauf hin, dass insbesondere schwächere Studierende von einer klaren Strukturierung innerhalb dieser zusätzlichen Kurse profitieren könnten. Auch ein allgemeines Vorstudium könnte helfen, die Vorkenntnisse anzugleichen.
Die vorliegende Studie beschäftigt sich mit der Planung und Durchführung des Lernprozesses von Schauspielern, wobei das Hauptaugenmerk auf dem Einsatz von Lernstrategien liegt. Es geht darum, welcher Strategien sich professionell Lernende bedienen, um die für die Berufsausübung erforderliche Textsicherheit zu erlangen, nicht um die Optimierung des Lernerfolges.
Die Literaturrecherche machte deutlich, dass aktuelle Studien zum Lernen von Erwachsenen vor allem im berufsspezifischen Kontext angesiedelt sind und sich auf den Erwerb von Kompetenzen, Problemlösestrategien und gesellschaftliche Teilhabe beziehen. Dem Lernen von Schauspielern liegt aber keine Absicht einer Verhaltensänderung oder eines konkreten Wissenszuwachses zugrunde.
Für Schauspieler ist der Auftritt Bestandteil ihrer Berufskultur. Angesichts der Tatsache, dass präzisem Faktenwissen als Grundlage für kompetentes, überzeugendes Präsentieren entscheidende Bedeutung zukommt, sind die Ergebnisse der Studie auch für Berufsgruppen relevant, die öffentlich auftreten müssen, wie z. B. für Priester, Juristen und Lehrende. Das gilt ebenso für Schüler und Studenten, die Referate halten und/oder Arbeiten präsentieren müssen.
Für die empirische Untersuchung werden zwölf renommierte Schauspieler mittels problemzentriertem Interview befragt, anschließend wird eine qualitative Inhaltsanalyse durchgeführt.
In der Auswertung der Daten kann ein deutlicher Zusammenhang zwischen Körper und Sprechpraxis nachgewiesen werden. Ebenso ergibt die Analyse, wie wichtig Bewegung für den Lernprozess ist. Es können Ergebnisse in Bezug auf kognitive, metakognitive und ressourcenorientierte Strategien generiert werden, wobei der Lernumgebung und dem Lernen mit Kollegen entscheidende Bedeutung zukommt.
Forschendes Lernen und die digitale Transformation sind zwei der wichtigsten Einflüsse auf die Entwicklung der Hochschuldidaktik im deutschprachigen Raum. Während das forschende Lernen als normative Theorie das sollen beschreibt, geben die digitalen Werkzeuge, alte wie neue, das können in vielen Bereichen vor.
In der vorliegenden Arbeit wird ein Prozessmodell aufgestellt, was den Versuch unternimmt, das forschende Lernen hinsichtlich interaktiver, gruppenbasierter Prozesse zu systematisieren. Basierend auf dem entwickelten Modell wurde ein Softwareprototyp implementiert, der den gesamten Forschungsprozess begleiten kann. Dabei werden Gruppenformation, Feedback- und Reflexionsprozesse und das Peer Assessment mit Bildungstechnologien unterstützt. Die Entwicklungen wurden in einem qualitativen Experiment eingesetzt, um Systemwissen über die Möglichkeiten und Grenzen der digitalen Unterstützung von forschendem Lernen zu gewinnen.
In den letzten Jahren erlebte der Rechtspopulismus in Europa einen Aufstieg. Die ‚Alternative für Deutschland‘ (AfD) erhielt bei der deutschen Bundestagswahl 2017 beispielsweise 12,7 % der abgegebenen Stimmen und war darüber hinaus gerade im Osten des Landes erfolgreich. Im Rahmen dieser Arbeit wird vergleichend untersucht, welche sprachlichen Manipulationsstrategien der AfD dazu beitragen und wie sie wirken. Die Arbeit gliedert sich grob in zwei Teile: die Analyse des Sprachgebrauchs der AfD und schließlich der Vergleich mit jenem der Nationalsozialist:innen. Ziel der Arbeit ist es nicht, die AfD als Kopie der NSDAP zu entlarven, sondern ihre sprachlichen Manipulationsstrategien im historischen Kontext ergebnisoffen zu analysieren und so ein tieferes Verständnis dieser zu ermöglichen, um eine Grundlage für die zukünftige Erarbeitung möglicher Gegenstrategien zu schaffen.
Dabei stellt sich die Verwendung von diskriminierenden Sprechakten als wesentlicher Teilaspekt der Strategie heraus. So kann aus den Ergebnissen geschlussfolgert werden, dass die Polarisierung der Gesellschaft in zwei Teile (Ingroup und Outgroup) sowie die damit verbundene Diskriminierung der Outgroup als Ziel des Sprachgebrauchs der AfD bezeichnet werden können. Auf diesem Weg kann eine zunehmende Radikalisierung des Sprachgebrauchs innerhalb der letzten Jahre festgestellt werden.
Im zweiten Teil der Arbeit werden im Vergleich mit den Nationalsozialist:innen zahlreiche Parallelen deutlich: Über gemeinsame Stilmittel wie Metaphorik, Verwendung von Superlativen oder bestimmten Begrifflichkeiten hinaus ist hier vor allem die Diskriminierung eines konkreten Feindbildes sowie die angestrebte Spaltung der Bevölkerung zu nennen. Zugleich gilt es auch, die deutlichen Unterschiede zwischen dem Sprachgebrauch im Nationalsozialismus und jenem der AfD zu akzentuieren, um eine ebenso leichtfertige wie unangemessene Gleichsetzung zu verhindern. Zentral ist hier die Eindeutigkeit des Sprachgebrauchs. Die Vergleiche mit verschiedenen Quellen aus dem Dritten Reich verdeutlichen, dass der Sprachgebrauch im Nationalsozialismus direkter und viel radikaler war. Die AfD ist hingegen oftmals darauf bedacht, ihre Aussagen nur augenscheinlich eindeutig zu formulieren, sich insgesamt aber immer eine Möglichkeit des sprachlichen Zurückruderns offen zu halten. Ein offensichtlicher Grund dürften die unterschiedlichen gesellschaftlichen Bedingungen zu beiden Zeiten sein. Für die AfD ist es heute schwieriger, eine ausreichend große Masse an mindestens unsicheren Menschen zu mobilisieren. Begründet werden kann dies mit einer im Vergleich zur Weimarer Republik über Jahrzehnte hinweg gesetzlich, politisch und gesellschaftlich etablierten und sehr stabilen Demokratie. Deshalb ist die AfD darauf angewiesen, eine mehrdeutige Sprache zu verwenden, die ihnen im Bedarfsfall eine Rechtfertigung und somit einen Weg zurück ermöglicht. Darüber hinaus ermöglicht ihnen ein solcher Sprachgebrauch aber auch, sich einerseits gegenüber den Institutionen der Demokratie (beispielsweise dem Verfassungsschutz) zu rechtfertigen und andererseits insbesondere der konservativen Wählerschaft das Gefühl zu geben, dass sie keine rechtsextreme Partei wählen.
Aus den Ergebnissen der Arbeit lässt sich darüber hinaus die These ableiten, dass eine Veränderung des Sprachgebrauchs allein nicht dazu führt, dass Menschen einer Ideologie folgen. Der historische Vergleich deutet aber darauf hin, dass ein diskriminierender Sprachgebrauch zur Entstehung eines Nährbodens einer solchen Ideologie beitragen kann, wenn der gesellschaftliche und politische Rahmen es zulässt. Diesen Rahmen versucht die AfD Stück für Stück in ihrem Sinne zu verschieben. In den letzten Jahren gelang es ihr zunehmend, den öffentlichen Diskurs zu ihren Gunsten mitzubestimmen und zu verändern. Dafür ist der manipulative Gebrauch von Sprache entscheidend. Durch ihn sind sie in der Lage, die ›gefühlte‹ Wahrheit im Kampf gegen Fakten siegen zu lassen und Diskurse wie die Klima-Debatte oder die Diskussionen um Maßnahmen gegen die Coronapandemie zu beeinflussen.
Die Arbeit macht aber auch deutlich, wie kompliziert das Vorhaben der Polarisierung in einer heterogenen Gesellschaft wie der heutigen deutschen ist. Sogar innerhalb der AfD kommt es immer häufiger zu Uneinigkeiten.
Arbeit, Religion, Ruf
(2021)
Die Arbeit als Dienstmädchen stellte im Europa des 19. Jahrhunderts die weitverbreitetste Erwerbstätigkeit von Frauen dar. Oft erwies sie sich als die einzige Möglichkeit, trotz mangelnder Schulbildung und fehlender beruflicher Qualifikationen einen Lebensunterhalt zu bestreiten. In der Regel bewarben sich junge Mädchen, die vor der Gründung eines eigenen Haushalts Geld verdienen wollten. Aber auch ältere Frauen, die unverheiratet blieben, waren teils ihr Leben lang auf den Beruf als Dienstbotin angewiesen.
In den jüdischen Bürgerhaushalten der Niederlande, insbesondere in den zu dieser Zeit blühenden jüdischen Gemeinden in Amsterdam und anderen Großstädten, sah dies nicht anders aus. Auch dort putzten, kochten und stickten Dienstmädchen. Sie nahmen sich der Kindererziehung an und interagierten mit KollegInnen und ArbeitgeberInnen. Vor allem wegen eines Mangels an schriftlichen Quellen ist bisher jedoch wenig über dieses Kapitel jüdischer und weiblicher Erwerbsgeschichte bekannt.
Die vorliegende Studie wirft mit Hilfe von Stellenanzeigen für und von jüdischen Dienstmädchen Licht auf diese Berufsgruppe in den Jahren zwischen 1894 und 1925. Es wird ein Korpus von 540 Inseraten aus der vielgelesenen niederländischen Wochenzeitung Nieuw Israelietisch Weekblad diskursanalytisch untersucht, was neue Erkenntnisse über Leben und Arbeit der Dienstbotinnen zu Tage fördert. Die Anzeigen thematisieren sowohl das gesellschaftliche Ansehen der Frauen, ihre Aufgaben, Qualifikationen und finanziellen Ansprüche sowie ihre Religiosität. Durch einen Vergleich von Anzeigen aus drei Jahrzehnten kann die Studie aufzeigen, wie sich Einstellungen gegenüber dem Dienstmädchenberuf veränderten und sowohl Angestellte als auch ArbeitgeberInnen im Laufe der Zeit neue Maßstäbe an die häusliche Arbeit anlegten.
Digitale Forschungsdaten gewinnen zunehmend an Bedeutung und stellen neue Herausforderungen an wissenschaftliche Einrichtungen und ihre Forschenden. Der Begriff Forschungsdatenmanagement umfasst alle Aktivitäten, die mit der Aufbereitung, Speicherung, Archivierung und Veröffentlichung von Forschungsdaten verbunden sind. Da der Umgang mit Forschungsdaten generische, fachliche, rechtliche und technische Aspekte betrifft, erfordert es eine Begleitung der Forschenden durch ein umfangreiches Spektrum an Services, von Information und Beratung bis hin zu fachspezifischen Standards und IT-Infrastrukturen.
Im vorliegenden Bericht werden zunächst die Ausgangslage und die Begrifflichkeiten rund um Forschungsdatenmanagement geklärt und anschließend die wichtigsten nationalen und internationalen Strategien und Entwicklungen vorgestellt. Dabei bilden Richtlinien und Empfehlungen für Forschungsdaten(management) den Handlungsrahmen für alle Beteiligte hin zu einem nachhaltigen Forschungsdatenmanagement. Bundeslandinitiativen schaffen die Grundlage und unterstützen den Kulturwandel zu offenen Daten.
Eine Forschungsdaten-Strategie für Brandenburg muss die Bedeutung von digitalen Forschungsdaten als wissenschaftliches Gut in den Vordergrund stellen, indem dafür das Bewusstsein geschaffen wird und konkrete Vorgaben und Leitlinien auf Landes- und Einrichtungsebene vereinbart werden. Gute wissenschaftliche Praxis wird durch eine geeignete Infrastruktur unterstützt, welche die heterogenen Bedarfe und Voraussetzungen aller Beteiligten berücksichtigt. Ziele sollten die Institutionalisierung von Forschungsdatenmanagement an den Hochschulen und Kooperationen zwischen den Einrichtungen Brandenburgs sein.
Nicht im Trüben fischen
(2021)