Refine
Year of publication
- 2019 (70) (remove)
Document Type
- Doctoral Thesis (70) (remove)
Language
- German (70) (remove)
Is part of the Bibliography
- yes (70)
Keywords
- 20. Jahrhundert (1)
- AMOC (1)
- Aldehyd (1)
- Aldehydoxidase (1)
- Allgemeine Landrecht für die Preußischen Staaten von 1794 (1)
- Anthropologie (1)
- Antikommunismus (1)
- Aromaten (1)
- Authentizität (1)
- Bedrohungsanalyse (1)
Institute
- Historisches Institut (8)
- Institut für Chemie (8)
- Öffentliches Recht (7)
- Bürgerliches Recht (5)
- Department Erziehungswissenschaft (4)
- Institut für Philosophie (4)
- Sozialwissenschaften (4)
- Hasso-Plattner-Institut für Digital Engineering GmbH (3)
- Institut für Biochemie und Biologie (3)
- Department Psychologie (2)
Als erster Staatssekretär des 1949 gegründeten Bundesministeriums der Justiz war Walter Strauß maßgeblich für dessen personellen Aufbau verantwortlich. Während seiner Amtszeit, die erst 1963 endete, diente Strauß unter fünf verschiedenen Ministern. Damit verkörperte er die Kontinuität der Arbeit und galt nicht von ungefähr als der eigentliche 'Herrscher der Rosenburg', dem Bonner Amtssitz des Ministeriums. Durch seinen Führungsstil, der die Forderung nach Qualität mit einem geradezu paternalistischen Verantwortungsgefühl verband, prägte der Gründungsstaatssekretär den Geist des Hauses für lange Zeit. Obwohl er jüdischer Herkunft war und im Nationalsozialismus zum Kreis der rassisch Verfolgten gehört hatte, griff Strauß bei der Auswahl des Personals allerdings in hohem Maße auf die Mitarbeit von Personen zurück, die durch ihre Tätigkeit im 'Dritten Reich' belastet waren. Warum dies so war, sucht der Autor nicht nur anhand biografischer Prägungen, die Strauß im Kaiserreich, in der Weimarer Republik, dem Nationalsozialismus und der Besatzungszeit erfahren hatte, sondern auch durch eine umfassende Darstellung der wesentlichen Merkmale und Kennzeichen seiner Personalpolitik zu ergründen: Wie weit reichte sein Einfluss Welche Rolle spielte er bei Auswahl und Beförderungen, in erster Linie der Beamten des höheren Dienstes, in Abgrenzung zu anderen Akteuren Und in welchem Maße war er bei seinen Entscheidungen durch institutionelle Rahmenbedingungen eingeschränkt 366 pp
Kosmologie beschreibt die Entwicklung des Universums als Ganzes. Kosmologische Entdeckungen in Theorie und Praxis haben daher unser modernes wissenschaftliches Weltbild entscheidend geprägt. Die Vermittlung eines modernen Weltbildes durch Unterricht ist ein häufiger Wunsch in der naturwissenschaftlichen Bildungsdiskussion. Dennoch existieren weiterhin Forschungs- und Entwicklungsbedarfe. Kosmologische Themen finden sich häufig in den Medien und sind gleichzeitig weiter vom Alltag entfernt, so dass sich hier besonders leicht wissenschaftlich inkorrekte Vorstellungen entwickeln können, die zu Problemen im Unterricht führen können.
Das Ziel dieser wissenschaftlichen Arbeit ist es, zu diesem Forschungsgebiet beizutragen und die Voraussetzungen hinsichtlich vorhandener Vorkenntnisse und Präkonzepte in Kosmologie, mit denen Schülerinnen und Schüler in den Unterricht kommen, zu untersuchen und anschließend mit denen anderer Länder zu vergleichen. Dies erfolgt anhand einer qualitativen Inhaltsanalyse eines offenen Fragebogens. Auf dieser Grundlage wird schließlich ein Multiple-Choice Fragebogen entwickelt, angewendet und evaluiert.
Die Ergebnisse zeigen große Wissenslücken im Bereich der Kosmologie auf und geben erste Hinweise auf vorhandene Unterschiede zwischen den Ländern. Es existieren ebenfalls einige teils weit verbreitete wissenschaftlich inkorrekte Vorstellungen wie beispielsweise die Assoziation des Urknalls mit einer Explosion, der Urknall verursacht durch eine Kollision von Teilchen oder größeren Objekten, oder die Vorstellung der Ausdehnung des Universums als neue Entdeckungen und/oder Wissen. Des Weiteren gab nur etwa jeder Fünfte das korrekte Alter des Universums oder die Ausdehnung des Universums als einen der drei Belege der Urknalltheorie an, während fast 40% keinen einzigen Beleg nennen konnten. Für den geschlossenen Fragebogen konnten gute Hinweise für verschiedene Validitätsaspekte herausgearbeitet werden und es existieren erste Hinweise darauf, dass der Fragebogen Wissenszuwachs messen kann und damit wahrscheinlich zur Untersuchung der Wirksamkeit von Lerneinheiten eingesetzt werden kann. Auch ein entsprechendes Modell zur Verständnisentwicklung der Ausdehnung des Universums zeigte sich vielversprechend.
Diese Arbeit liefert insgesamt einen Forschungsbeitrag zum Schülervorwissen und Vorstellungen in der Kosmologie und deren Large Scale Assessment. Dies eröffnet die Möglichkeit zukünftiger Forschungen im Bereich von Gruppenvergleichen insbesondere hinsichtlich objektiver Ländervergleiche sowie der Untersuchungen der Wirksamkeit von einzelnen Lerneinheiten als auch Vergleiche verschiedener Lerneinheiten untereinander.
Übergänge im Bildungssystem sind zentrale Stationen für die Generierung von sozialer Ungleichheit. Während die Bildungswege und die Bedeutung der sozialen Ungleichheit für den Schulbereich umfangreich untersucht wurden, liegen kaum Studien zu den nachschulischen Bildungsverläufen von Hochschulzugangsberechtigten und dem Einfluss der sozialen Herkunft bis zur Aufnahme einer Promotion vor. Daher ist es das Ziel der vorliegenden Arbeit, die Gestaltung nachschulischer Bildungsverläufe zu untersuchen sowie die Bedeutung der sozialen Herkunft vom Abitur bis zur Promotionsaufnahme zu analysieren. Den beiden Forschungsfragen wurde in vier Teilstudien nachgegangen. In Teilstudie 1 wurde die Relevanz von Merkmalen des Bildungsverlaufes für die Promotionsaufnahme untersucht. Der Schwerpunkt der drei folgenden Teilstudien lag auf der Bedeutung der sozialen Herkunft bei Aufnahme einer Promotion beziehungsweise der sozialen Ungleichheit in den relevanten Selektionsstufen des nachschulischen Bildungsverlaufs bis zur Promotionsaufnahme. In Teilstudie 2 wurden diesbezüglich soziale Herkunftseffekte bei der für eine Promotionsaufnahme bedeutsamen Wahl der Hochschulform untersucht, in Teilstudie 3 die Mechanismen hinter sozialen Herkunftseffekten bei Promotionsaufnahme analysiert und in Teilstudie 4 wurde soziale Ungleichheit bei Studienaufnahme und Promotionsaufnahme vergleichend betrachtet. Als Datengrundlage wurde die Längsschnittstudie BIJU (Bildungsverläufe und psychosoziale Entwicklung im Jugend- und jungen Erwachsenenalter) herangezogen. Die Befunde der Dissertation verweisen auf die Relevanz sozialer Ungleichheiten vom Eintritt in die Hochschule bis zum Übergang in die Promotion. Auch wenn ein abnehmender Herkunftseffekt vom Übertritt ins Studium zum Übertritt in die Promotion vorliegt, sind soziale Herkunftseffekte bei dem späten Bildungsübergang noch sichtbar. Zudem zeigt sich die Bedeutung von Pfadabhängigkeiten in Bildungsverläufen sowie von Leistungsunterschieden für eine Promotionsaufnahme.
Carbonfasern haben sich in der Luft- und Raumfahrt etabliert und gewinnen in Alltagsanwendungen wie dem Automobilbereich, Windkraft- und Sportbereich durch ihre hohen Zugfestigkeiten, insbesondere ihrer hohen E-Moduli, und ihrer geringen Dichte immer mehr an Bedeutung. Auf Grund ihrer hohen Kosten, welche sich zur Hälfte aus der Precursorherstellung, inklusive seiner Synthese und seinem Verspinnprozess, dem Lösungsspinnverfahren, ergeben, erhalten zunehmend alternative und schmelzspinnbare Precursoren Interesse. Für die Carbonfaserherstellung wird fast ausschließlich Polyacrylnitril (PAN) verwendet, das vor dem Schmelzen irreversible exotherme Zyklisierungsreaktionen aufweist, welchen sich seine Zersetzung anschließt. Eine Möglichkeit der Reduzierung der Schmelztemperatur von Polymeren ist die Einbringung von Comonomeren zur Erhöhung des freien Volumens und die Reduzierung der intermolekularen Wechselwirkungen als interne Weichmacher. Wie am Fraunhofer IAP gezeigt wurde, kann mittels 2-Methoxyethylacrylat (MEA) die Schmelztemperatur zu neuartigen PAN-basierten Precursoren verringert werden. Um den PAN-co-MEA-Precursor für die nachfolgenden Prozessschritte der Carbonfaserherstellung zu verwenden, müssen die thermoplastischen Fasern in thermisch stabile Fasern ohne thermoplastisches Verhalten überführt werden. Es wurde ein neuer Prozessschritt (Prästabilisierung) eingeführt, welcher unter alkalischen Bedingungen zur Abspaltung der Comonomerseitenkette führt. Neben der Esterhydrolyse finden Reaktionen statt, welche an diesem Material noch nicht hinreichend untersucht wurden. Weiterhin stellt sich die Frage nach der Kinetik der Prästabilisierung und der Ermittlung einer geeigneten Prozessführung.
Hierzu wurde die Prästabilisierung in den Labormaßstab überführt und die möglichen Zusammensetzungen des aus DMSO und einer KOH-Lösung bestehenden Reaktionsmediums evaluiert. Weiterhin wurde die Behandlung bei verschiedenen Prästabilisierungszeiten von maximal 30 min und Temperaturen von 40, 50 und 60 °C durchgeführt, um primär mittels NMR-Spektroskopie die chemischen Strukturänderungen aufzuklären. Die Esterhydrolyse des Comonomers, welche zur Abspaltung des 2-Methoxyethanols führt, wurde mittels 1H-NMR-spektroskopischer Untersuchungen detektiert.
Es wurde ein Modell aufgestellt, das die chemisch-physikalischen Strukturänderungen während der Prästabilisierung aufzeigt. Die zuerst ablaufende Reaktion ist die Esterhydrolyse am Comonomer, welche vom Faserrand nach innen verläuft und durch die Präsenz des DMSO in Kombination mit der KOH-Lösung (Superbase) initiiert wird. Der zeitliche Reaktionsverlauf der Esterhydrolyse kann in drei Bereiche eingeteilt werden. Der erste Bereich ab dem Prästabilisierungsbeginn wird durch die Diffusion der basischen Anionen in die Faser, der zweite Bereich durch die Reaktion an der Estergruppe des Comonomers und der dritte Bereich durch letzte Reaktionen im Faserinneren und diffusiven Prozessen der Produkte und Edukte charakterisiert. Der zweite Bereich kann mit einer Reaktion pseudo 1. Ordnung abgebildet werden, da in diesem Bereich bereits eine ausreichende Diffusion der Edukte in die Faser stattgefunden hat. Bei 50 °C spielt die Diffusion im ersten Bereich im Vergleich zur Reaktion eine untergeordnete Rolle. Mit Erhöhung der Temperatur auf 60 °C kann eine im Verhältnis geringere Diffusions- als Reaktionsgeschwindigkeit beobachtet werden. Die Nebenreaktionen wurden mittels 13C-CP/MAS-NMR-spektroskopischen, elementaranlaytischen Untersuchungen sowie Doppelbrechungsmessungen charakterisiert. Während der alkalischen Esterhydrolyse beginnt die Reduzierung der Nitrilgruppen unter der Bildung von primären Carbonsäureamiden und Carbonsäuren. Zur Beschreibung dieser Umsetzung wurde eine Methode entwickelt, welche die Addition von 13C-CP/MAS-NMR-Spektren der Modellsubstanzen PAN, PAM und PAA beinhaltet. Weitere stattfindende Reaktionen sind die Bildung von konjugierten Doppelbindungen, welche insbesondere auf eine Zyklisierung der Nitrile hinweisen. Die nasschemisch initiierte Zyklisierung der Nitrilgruppen kann zu kürzeren Stabilisierungszeiten und einem besser kontrollierbaren Stabilisierungsprozess durch geringere Wärmefreisetzung und schlussendlich zu einer Kostenersparnis des gesamten Verfahrens führen. Die Umsetzung der Nitrilgruppen konnte mit einer Reaktion pseudo 1. Ordnung gut abgebildet werden. DMSO initiiert die Esterhydrolyse, wobei die KOH-Konzentration einen höheren Einfluss auf die Reaktionsgeschwindigkeit der Ester- und Nitrilhydrolyse als die DMSO-Konzentration besitzt. Beide Reaktionen zeigen eine vergleichbare Abhängigkeit von der Temperatur. Die Erhöhung der Prästabilisierungszeit und der KOH- bzw. DMSO-Konzentration führt zur Migration niedermolekularer Bestandteile des Fasermaterials an die Oberfläche und der Bildung punktueller Ablagerungen bis hin zu miteinander verbundenen Einzelfasern. Eine weitere Erhöhung der Prästabilisierungszeit bzw. der Konzentration führt zu einem steigenden Carbonsäureanteil und zur Quellung des Fasermaterials, wodurch die Ablagerungen in das Reaktionsmedium diffundieren. Die Ablagerungen enthalten Chlor, welches durch den Waschvorgang mit HCl in das Materialsystem gelangt ist und durch Parameteranpassungen reduziert wurde. Die schmelzbaren Fasern konnten durch die Prästabilisierung erfolgreich über eine Kern-Mantel-Struktur in nicht-thermoplastische Fasern überführt werden.
Zur Ermittlung eines geeigneten Prozessfensters für nachfolgende thermische Beanspruchungen der prästabilisierten Fasern wurden drei Kriterien identifiziert, anhand welcher die Evaluation erfolgte. Das erste Kriterium beinhaltet die Notwendigkeit der vollständigen Aufhebung der thermoplastischen Eigenschaft der Fasern. Als zweites Kriterium diente die Fasermorphologie. Anhand von REM-Aufnahmen wurden Faserbündel mit separierten Einzelfasern ohne Ablagerungen für die nachfolgende Stabilisierung ausgewählt. Das dritte Kriterium bezieht sich auf eine möglichst geringe Umsetzung der Nitrilgruppen, um Prästabilisierungsbedingungen mit Nebenreaktionen zu vermeiden.
Aus den Untersuchungen konnte eine Prästabilisierungstemperatur von 60 °C als geeignet identifiziert werden. Weiterhin führen hoch alkalische Zusammensetzungen des Reaktionsmediums mit KOH-Konzentrationen von 1, 1,5 und 2 M, vorzugsweise 1,5 M und 50 vol% DMSO mit Reaktionszeiten von unter 10 min zu geeigneten Fasern. Ein MEA-Anteil unterhalb von 2 mol% bewirkt eine Überführung in die Unschmelzbarkeit. Thermisch stabile und für die nachfolgende Stabilisierung geeignete Fasern besitzen weiterhin 68 – 80 mol% Nitrilgruppen, 20 – 25 mol% Carbonsäuren, bis zu 15 mol% primäre Carbonsäureamide und zyklisierte Strukturen.
Untersuchungen an neuartigen sauerstoffsubstituierten Donoren und Akzeptoren für Singulettsauerstoff
(2019)
Im Verlauf dieser Arbeit wurden Aromaten wie Naphthaline und Anthracene mit Singulettsauerstoff, einer reaktiven Form des gewöhnlichen Sauerstoffs, zu sogenannten Endoperoxiden umgesetzt. Die hier eingesetzten Systeme wurden mit funktionellen Gruppen modifiziert, die über eine Sauerstoffbrücke mit dem Aromaten verknüpft sind. Die daraus entstandenen Endoperoxide sind meist besonders labil und konnten in dieser Arbeit isoliert und umfassend untersucht werden.
Hierbei wurde zum einen das Reaktionsverhalten untersucht. Es konnte gezeigt werden, dass die Aromaten in Abhängigkeit ihrer funktionellen Gruppen unterschiedlich schnell mit Singulettsauerstoff reagieren. Die so ermittelten Reaktivitäten wurden zusätzlich durch theoretische Berechnungen gestützt.
Die resultierenden Endoperoxide wurden unter verschiedenen Bedingungen wie erhöhter Temperatur oder einem sauren bzw. basischen Milieu auf ihre Stabilität hin untersucht. Dabei konnte gezeigt werden, dass die auf Naphthalinen basierenden Endoperoxiden den gebundenen Singulettsauerstoff in guten Ausbeuten oft schon bei sehr niedrigen Temperaturen (−40 bis 0 °C) freisetzen. Diese Verbindungen können daher als milde Quellen dieser reaktiven Sauerstoffspezies eingesetzt werden. Weiterhin konnten bei den Anthracenendoperoxiden Zerfallsmechanismen aufgeklärt und andere reaktive Sauerstoffspezies wie Wasserstoffperoxid oder Persäuren nachgewiesen werden.
Zu den Modifikationen der Aromaten gehören auch Glucosereste. Dadurch könnten sich die hier hergestellten Endoperoxide als vielversprechende Verbindungen in der Krebstherapie herausstellen, da Krebszellen deutlich stärker als gesunde Zellen kohlenhydratreiche Verbindungen für ihren Stoffwechsel benötigen. Bei der Spaltung von Endoperoxiden mit Glucosesubstituenten werden ebenfalls reaktive Sauerstoffspezies frei, die so zum Zelltod führen könnten.
Die Beschäftigten des französischen Uhrenherstellers LIP machten 1973 europaweit Furore: Im Kampf gegen Entlassungen stellten sie Verhandlungsroutinen und Hierarchien infrage und nahmen Produktion und Verkauf von Armbanduhren in die eigene Hand. Wenige Jahre später gründeten die »LIPs« mehrere Produktionsgenossenschaften.
Jens Beckmann untersucht diese Auseinandersetzungen von ihren Anfängen bis zum Arbeitsalltag in den 1980er Jahren. Er zeigt, welche Vorstellungen von Selbstverwaltung sich hier niederschlugen, und nimmt eine gründliche Kontextualisierung in Branche und Region vor – von der Revolte der 1968er Jahre bis zu Kurzarbeit und Sozialplänen.
Thermoresponsive Zellkultursubstrate für zeitlich-räumlich gesteuertes Auswachsen neuronaler Zellen
(2019)
Ein wichtiges Ziel der Neurowissenschaften ist das Verständnis der komplexen und zugleich faszinierenden, hochgeordneten Vernetzung der Neurone im Gehirn, welche neuronalen Prozessen, wie zum Beispiel dem Wahrnehmen oder Lernen wie auch Neuropathologien zu Grunde liegt. Für verbesserte neuronale Zellkulturmodelle zur detaillierten Untersuchung dieser Prozesse ist daher die Rekonstruktion von geordneten neuronalen Verbindungen dringend erforderlich. Mit Oberflächenstrukturen aus zellattraktiven und zellabweisenden Beschichtungen können neuronale Zellen und ihre Neuriten in vitro strukturiert werden. Zur Kontrolle der neuronalen Verbindungsrichtung muss das Auswachsen der Axone zu benachbarten Zellen dynamisch gesteuert werden, zum Beispiel über eine veränderliche Zugänglichkeit der Oberfläche.
In dieser Arbeit wurde untersucht, ob mit thermoresponsiven Polymeren (TRP) beschichtete Zellkultursubstrate für eine dynamische Kontrolle des Auswachsens neuronaler Zellen geeignet sind. TRP können über die Temperatur von einem zellabweisenden in einen zellattraktiven Zustand geschaltet werden, womit die Zugänglichkeit der Oberfläche für Zellen dynamisch gesteuert werden kann. Die TRP-Beschichtung wurde mikrostrukturiert, um einzelne oder wenige neuronale Zellen zunächst auf der Oberfläche anzuordnen und das Auswachsen der Zellen und Neuriten über definierte TRP-Bereiche in Abhängigkeit der Temperatur zeitlich und räumlich zu kontrollieren. Das Protokoll wurde mit der neuronalen Zelllinie SH-SY5Y etabliert und auf humane induzierte Neurone übertragen. Die Anordnung der Zellen konnte bei Kultivierung im zellabweisenden Zustand des TRPs für bis zu 7 Tage aufrecht erhalten werden. Durch Schalten des TRPs in den zellattraktiven Zustand konnte das Auswachsen der Neuriten und Zellen zeitlich und räumlich induziert werden. Immunozytochemische Färbungen und Patch-Clamp-Ableitungen der Neurone demonstrierten die einfache Anwendbarkeit und Zellkompatibilität der TRP-Substrate.
Eine präzisere räumliche Kontrolle des Auswachsens der Zellen sollte durch lokales Schalten der TRP-Beschichtung erreicht werden. Dafür wurden Mikroheizchips mit Mikroelektroden zur lokalen Jouleschen Erwärmung der Substratoberfläche entwickelt. Zur Evaluierung der generierten Temperaturprofile wurde eine Temperaturmessmethode entwickelt und die erhobenen Messwerte mit numerisch simulierten Werten abgeglichen. Die Temperaturmessmethode basiert auf einfach zu applizierenden Sol-Gel-Schichten, die den temperatursensitiven Fluoreszenzfarbstoff Rhodamin B enthalten. Sie ermöglicht oberflächennahe Temperaturmessungen in trockener und wässriger Umgebung mit hoher Orts- und Temperaturauflösung. Numerische Simulationen der Temperaturprofile korrelierten gut mit den experimentellen Daten. Auf dieser Basis konnten Geometrie und Material der Mikroelektroden hinsichtlich einer lokal stark begrenzten Temperierung optimiert werden. Ferner wurden für die Kultvierung der Zellen auf den Mikroheizchips eine Zellkulturkammer und Kontaktboard für die elektrische Kontaktierung der Mikroelektroden geschaffen.
Die vorgestellten Ergebnisse demonstrieren erstmalig das enorme Potential thermoresponsiver Zellkultursubstrate für die zeitlich und räumlich gesteuerte Formation geordneter neuronaler Verbindungen in vitro. Zukünftig könnte dies detaillierte Studien zur neuronalen Informationsverarbeitung oder zu Neuropathologien an relevanten, humanen Zellmodellen ermöglichen.
Die vorliegende Forschungsarbeit untersucht den Umgang mit Dilemmata von Topmanagern. Dilemmata sind ein alltägliches Geschäft im Topmanagement. Die entsprechenden Akteure sind daher immer wieder mit diesen konfrontiert und mit ihnen umzugehen, gehört gewissermaßen zu ihrer Berufsbeschreibung. Hinzu kommen Dilemmata im nicht direkt geschäftlichen Bereich, wie zum Beispiel jene zwischen Familien- und Arbeitszeit. Doch stellt dieses Feld ein kaum untersuchtes Forschungsgebiet dar. Während Dilemmata in anderen Bereichen eine zunehmende Aufmerksamkeit erfuhren, wurden deren Besonderheiten im Topmanagement genauso wenig differenziert betrachtet wie zugehörige Umgangsweisen. Theorie und Praxis stellen bezüglich Dilemmata von Topmanagern vor allem einen Gegensatz dar, beziehungsweise fehlt es an einer theoretischen Fundierung der Empirie. Diesem Umstand wird mittels dieser Studie begegnet. Auf der Grundlage einer differenzierten und breiten Erfassung von Theorien zu Dilemmata, so diese auch noch nicht auf Topmanager bezogen wurden, und einer empirischen Erhebung, die im Mittelpunkt dieser Arbeit stehen, soll das Feld Dilemmata von Topmanagern der Forschung geöffnet werden. Empirische Grundlage sind vor allem narrative Interviews mit Topmanagern über ihre Dilemmata-Wahrnehmung, ausgemachte Ursachen, Umgangsweisen und Resultate. Dies erlaubt es, Topmanagertypen sowie Dilemmata-Arten, mit denen sie konfrontiert sind oder waren, analytisch herauszuarbeiten. Angesichts der Praxisrelevanz von Dilemmata von Topmanagern wird jedoch nicht nur ein theoretisches Modell zu dieser Thematik erarbeitet, es werden auch Reflexionen auf die Praxis in Form von Handlungsempfehlungen vorgenommen. Schließlich gilt es, die allgemeine Theorie zu Dilemmata, ohne konkreten Bezug zu Topmanagern, mit den theoretischen Erkenntnissen dieser Studie auf empirischer Basis zu kontrastieren. Dabei wird im Rahmen der empirischen Erfassung und Auswertung dem Ansatz der Grounded-Theory-Methodologie gefolgt.
Der historische Spielfilm zählt zu den populärsten Formen geschichtskultureller Artikulation. Als solche ist er Gegenstand kontroverser Diskussionen über einen angemessenen didaktischen Umgang. Vor diesem Hintergrund ist es das Ziel der vorliegenden Arbeit, ein integratives, theoretisch und empirisch abgesichertes Analysemodell zu entwickeln, das nach den Tiefenstrukturen historischen Erzählens im Medium des Spielfilms fragt und dabei unterschiedliche Erscheinungsformen historischer Spielfilme berücksichtigt. Die Überlegungen bewegen sich deshalb in einem interdisziplinären Spannungsfeld von Theorien zum historischen Erzählen und Konzepten der Literatur- und Filmwissenschaft. Die Diskussion und Synthese dieser unterschiedlichen Konzepte geht dabei – auf der Grundlage einer großen Materialbasis – vom Gegenstand aus und ist induktiv angelegt. Als Orientierung für die praktische Arbeit werden am Ende der einzelnen Kapitel Toolkits entwickelt, die zu einer vertieften Auseinandersetzung mit historischen Spielfilmen anregen sollen.
Die Wissenschaftsfreiheit ist ein Grundrecht, dessen Sinn und Auslegung im Rahmen von Reformen des Hochschulsystems nicht nur der Justiz, sondern auch der Wissenschaft selbst immer wieder Anlass zur Diskussion geben, so auch im Zuge der Einführung des so genannten Qualitätsmanagements von Studium und Lehre an deutschen Hochschulen. Die vorliegende Dissertationsschrift stellt die Ergebnisse einer empirischen Studie vor, die mit einer soziologischen Betrachtung des Qualitätsmanagements unterschiedlicher Hochschulen zu dieser Diskussion beiträgt.
Auf Grundlage der Prämisse, dass Verlauf und Folgen einer organisationalen Innovation nur verstanden werden können, wenn der alltägliche Umgang der Organisationsmitglieder mit den neuen Strukturen und Prozessen in die Analyse einbezogen wird, geht die Studie von der Frage aus, wie Akteurinnen und Akteure an deutschen Hochschulen die Qualitätsmanagementsysteme ihrer Organisationen nutzen. Die qualitative inhaltsanalytische Auswertung von 26 Leitfaden-Interviews mit Prorektorinnen und -rektoren, Qualitätsmanagement-Personal und Studiendekaninnen und -dekanen an neun Hochschulen ergibt, dass die Strategien der Akteursgruppen an den Hochschulen im Zusammenspiel mit strukturellen Aspekten unterschiedliche Dynamiken entstehen lassen, mit denen Implikationen für die Lehrfreiheit verbunden sind: Während die Autonomie der Lehrenden durch das Qualitätsmanagement an einigen Hochschulen unterstützt wird, sind sowohl Autonomie als auch Verantwortung für Studium und Lehre an anderen Hochschulen Gegenstand andauernder Konflikte, die auch das Qualitätsmanagement einschließen.
§ 217 StGB reiht sich in andere kriminalpolitische Projekte des Gesetzgebers ein, die sich dem Einwand des fehlenden Rechtsgutsbezugs ausgesetzt sehen.
Die Untersuchung zeigt auf, dass der Gesetzgeber mit der Einführung des § 217 StGB den Zweck des Strafrechts als „ultima-ratio“ des Rechtsgüterschutzes verfehlt hat. Auch wenn er mit der Norm den Schutz von Leben und Autonomie bezweckt hat, ist ihm die Umsetzung des Schutzes dieser Rechtsgüter nicht gelungen. Die Vorschrift dient vielmehr dem Zweck der Verhinderung einer Suizidkultur. Nach der systemkritischen Rechtsgutslehre kann ein solcher „moralischer“ Zweck jedoch kein strafrechtlich zu schützendes Rechtsgut darstellen.
Da eine Aufhebung der Vorschrift durch das Bundesverfassungsgericht wenig wahrscheinlich erscheint, schließt sich der Rechtsgutsdiskussion eine praxisorientierte Auslegung der Norm unter dem Gesichtspunkt des überindividuellen Zwecks, der Verhinderung einer Suizidkultur, an.
Die männliche Taille ist ein in der Forschung bisher ausgesparter Bereich, von welchem jedoch für die Entwicklung der Männermode wesentliche Impulse ausgingen. Im Zentrum von Julia Burdes Buch steht der sich mit der Mode wandelnde männliche Modekörper als Diskurs der Schneiderei im 18. und 19. Jahrhundert. Burde zeigt, wie sich die Männermode von einem erst sichelförmig durchgebogenen, dann schmal taillierten Körper - modelliert aus Watte und Stoff - zu einem modernen Körper in gerade geschnittener Kleidung entwickelte, von dessen Anatomie sich das Schnittmuster losgelöst hat. Anhand zeitgenössischer Quellen wird dabei deutlich, wie Herrenschneider Körper im Zuschnitt konstruierten und Mode durch gezieltes Lancieren von Modeberichten beeinflussten.
Immer wieder gelingt es Konzernen durch geschickte gesellschaftsrechtliche Konstrukte, ihre Verantwortlichkeit für wettbewerbsrechtliche Verstöße auszugliedern oder sich dieser gänzlich zu entziehen.
Dem begegnet das Europäische Wettbewerbsrecht in Bußgeldverfahren seit einiger Zeit mit der Zusammenfassung rechtlich selbständiger Gesellschaften zu einem Unternehmen als »wirtschaftliche Einheit«.
Diese Untersuchung widmet sich der methodischen Grundlegung dieses wettbewerbsrechtlichen Unternehmensbegriffs. Sie geht zudem der Frage nach, ob er sich auf das Deutsche Wettbewerbsrecht, insbesondere auf kartellrechtliche Schadensersatzklagen übertragen lässt.
The Atlantic Meridional Overturning Circulation (AMOC) is likely the most well-known system of ocean currents on Earth, redistributing heat, nutrients and carbon over a large part of the Earth’s surface and affecting global climate as a result. Due to enhanced freshwater fluxes into the subpolar North Atlantic as a response to global warming, the AMOC is expected, and may have already started, to weaken and these changes will likely have global impacts. It is therefore of considerable relevance to improve our understanding of past and future AMOC changes. My thesis tries to answer some of the open questions in this field by giving strong evidence that the AMOC has already weakened over the last century, by narrowing future projections of this slowdown and
by studying the impacts on global surface warming.
While there have been various studies trying to reconstruct the strength of the overturning circulation in the past, often based on model simulations in combination with observations (Jackson et al., 2016, Kanzow et al., 2010) or proxies (Frajka-Williams, 2015, Latif et al., 2006), the results so far, due to lack of direct measurements, have been inconclusive. In the first paper I build on previous work that links the anomalously low sea surface temperatures (SSTs) in the North Atlantic with the reduced meridional heat transport due to a weaker AMOC. Using the output of a high-resolution global climate model, I derive a characteristic spatial and seasonal SST fingerprint of an AMOC slowdown and an improved SST-based AMOC index. The same fingerprint is seen in
the observational SSTs since the late 19th Century, giving strong evidence that since then the AMOC has slowed down. In addition, the reconstruction of the historical overturning strength with the new AMOC index agrees well with and extends the results of earlier studies as well as the direct measurements from the RAPID project and shows a strong decline of the AMOC by about 15% (3±1 Sv) since the mid-20th Century (Caesar et al., 2018).
The reconstruction of the historical overturning strength with the AMOC index enables us to weight future AMOC projections based on their skill in modeling the historical AMOC as described in the second paper of this thesis (Olson et al., 2018). Using Bayesian model averaging we considerably narrow the projections of the CMIP5 ensemble to a decrease of -4.0 Sv and -6.8 Sv between the years 1960-1999 and 2060-2099 for the RCP4.5 and RCP8.5 emission scenarios, respectively. These values fit to, yet are at the lower end of, previously published estimates.
In the third paper I examine how the AMOC slowdown affects the global mean surface temperature (GMST) with a focus on how it will change the ocean heat uptake (OHC). Accounting for the effect of changes in the radiative forcing on the GMST, I test how AMOC variations correlate with the residual part of surface temperature changes in the past. I find that the correlation is positive which fits the understanding that the deep-water formation that is important in driving the AMOC cools the deep ocean and therefore warms the surface (Caesar et al., 2019). The future weakening of the overturning circulation could therefore delay global surface warming.
Due to nonlinear behavior and scale specific changes it can be difficult to study the dominant processes and modes that drive climate variability. In the fourth paper we develop and test a new technique based on the wavelet multiscale correlation (WMC) similarity measure to study climate variability on different temporal and spatial scales (Agarwal et al., 2018). In a fifth contribution to my thesis this method is applied to the observed sea surface temperatures. The results reconfirm well-known relations between SST anomalies such as the El Niño-Southern Oscillation (ENSO) and the Pacific Decadal Oscillation (PDO) on inter-annual and decadal timescales, respectively. They
furthermore give new insights into the characteristics and origins of long-range teleconnections, for example, that the teleconnection between ENSO and Indian Ocean dipole exist mainly between the northern part of the ENSO tongue and the equatorial Indian Ocean, and provides therefore valuable knowledge about the regions that are necessary to include when modeling regional climate variability at a certain scale (Agarwal et al., 2019).
In summary, my PhD thesis investigates past and future AMOC variability and its effects on global mean surface temperature by utilizing a combination of observational sea surface data and the output of historical and future climate model simulations from both the high-resolution CM2.6 model as well as the CMIP5 ensemble. It further includes the development and validation of a new method to study climate variability, that, applied to the observed sea surface temperatures, gives new insight about teleconnections in the Earth System. My findings provide evidence that the AMOC has already slowed down, will continue to do so in the future, and will impact the global mean temperature. Further impacts of an AMOC slowdown may include increased sea-level rise at the U.S. east coast (Ezer, 2015), heat extremes in Europe (Duchez et al., 2016) and increased storm activity in the North Atlantic region (Jackson et al., 2015), all of which have significant socio-economic implications.
Die vorliegende Dissertation zielt generell darauf ab, die Anwendung der dialektischen Methodologie auf den Bereich der Sprachphilosophie zu rechtfertigen und eine systematische Bearbeitung eines begrenzten Teils der Sprachphilosophie mithilfe der Dialektik durchzuführen. Um diese Herangehensweise, die in der Forschung kaum oder gar nicht vertreten ist, aufzuklären und festzustellen, werde ich zuerst auf die philosophischen Überlegungen von zwei Autoren zurückgreifen: Hegel und Wittgenstein.
Hegel und Wittgenstein sind, auf den ersten Blick, Autoren, die kaum Gemeinsamkeiten haben, außer dass sie sich beide mit der Philosophie als Fach beschäftigt und unvermeidlich ein gemeinschaftliches Thema, die Sprache, behandelt haben, wobei jedoch weder eine inhaltliche noch eine methodologische Verbindung hervorgehoben werden könnte. Die erste Voraussetzung dieser Dissertation, in Bezug auf die Geschichte der Idee, besteht darin, darauf hinzudeuten, dass der hegelsche Geistesbegriff und Wittgensteins Lebensform zwei Ansätze und Resultat einer philosophischen Bemühung sind, die gemeinsam die notwendige Auflösung bzw. Überwindung skeptischer Argumentation vornehmen. Tatsächlich hat Wittgenstein in seinen Philosophischen Untersuchungen eine Argumentation entwickelt, die als „Paradox des Regelfolgens“ bezeichnet und in der sekundären Literatur (hauptsächlich bei Kripke) als eine Art skeptische Argumentation betrachtet wurde. Demnach wird Wittgensteins Theorie der Sprache entweder als eine Auflösung dieses Skeptizismus oder einfach als ein skeptischer Text selbst ausgelegt (Brandom). Das erste Ziel meiner Dissertation besteht darin, zu zeigen, dass dieses Paradox als skeptische Argumentation allerdings unvollständig geblieben ist dass dieses Paradox als der erster entscheidender Moment zu der höchsten Form der skeptischen Herausforderung, der Antinomie, betrachtet werden kann. Eine vollständige skeptische Argumentation heißt, dass die alleinige Auflösung des Paradoxes, der Dispositionalismus und die Negation dieser Theorie, beide beweisbar sind. Ich werde also versuchen, aus der in den PU dargestellten Auflösung des Paradoxes des Regelfolgens die Vervollständigung einer Antinomie des Begriffes der Normativität in Bezug auf die Sprachregeln festzulegen, ähnlich der von Kant entwickelten kosmologischen Antinomie (Thesis cum Antithesis). Das zweite Ziel meiner Dissertation besteht folglich darin, zu zeigen, 1. dass die kantische Auflösung der Antinomie unwirksam bezüglich der Antinomie der Normativität ist, 2. dass diese Antinomie eine notwendige Auseinandersetzung mit einem radikalen Skeptizismus bedeutet und dass wir logisch gezwungen sind, nicht nur irgendeine Theorie der Sprachphilosophie neu zu bestimmen, sondern unsere Methodologie – das heißt die Anwendung der üblichen Normen der Rationalität – selbst grundsätzlich tiefer gehend in Frage zu stellen, und 3. dass die hegelsche Dialektik sich als die methodologische Auflösung einer solchen radikalen skeptischen Herausforderung bzw. als die Auflösung einer Antinomie überhaupt ergibt. Anlässlich dieser methodologischen Revidierung wird auf die hegelsche Dialektik zurückgegriffen.
Dennoch begrenzt sich der Zweck dieser Dissertation nicht darauf, eine Interpretation von Hegels Dialektik oder eine Überwindung von Wittgensteins Lebensform darzustellen, vielmehr geht es darum, auf die Problematik und die Grundsätze des Begriffs der Lebensform bzw. des theoretischen Geistes zurückzugreifen und kraft Hegels Dialektik darüber hinauszuführen, um den Platz und die Funktion der Sprache besser zu verstehen. Diese Arbeit erfolgt vielmehr im Rahmen eines wissenschaftlichen Projekts, oder anders gesagt, sie nutzt die methodologischen Resultate von zwei Autoren der Philosophie, um ein wissenschaftliches Programm vorzustellen. Der Anspruch dieser Arbeit ist dementsprechend, durch das Zurückgreifen auf Hegels Dialektik eine neue Erkenntnis über die Sprache zu gewinnen, wobei die beiden kontradiktorischen Momente der Kognition – die Normativität, die durch das Bewusstsein erfolgt und diejenige, die durch Dispositionen erfolgt –, konstruktiv verbinden sind. Der konkrete Gewinn dieser Methodologie ist es demnach, eine Sprachphilosophie überhaupt als System festlegen zu können, ein System, das es ermöglicht, sprachliche Phänomene in all ihren Aspekten in kohärenter Weise zu fassen. Inhaltlich betrachtet zielt dieses Programm darauf ab, die allgemeine Stufe des Begriffs der Sprache als Moment des Begriffs des Geistes dialektisch abzuleiten, d. h. den richtigen Sinn der Sprache festzulegen. Eine vollständige Bearbeitung der Sprachphilosophie mithilfe der Dialektik konnte ich allerdings nicht durchführen, und der Umfang der mithilfe der Dialektik hergeleiteten Sprachkategorien begrenzt sich auf die Lehre der Einbildungskraft, die die Lehre der allgemeinen Semiologie und der Grammatik einschließt.
Wie Computer heimisch wurden
(2019)
Mit der Einführung des Personal Computers Ende der 1970er-Jahre wurde ein neuer Markt für Konsument_innen von Computertechnologie geschaffen. Im Gegensatz zu den vorherrschenden Erzählungen über geniale Erfinder, tüchtige Unternehmer und Visionäre der Computerkultur im Silicon Valley nimmt Sophie Ehrmanntraut auch jenen Teil der amerikanischen Gesellschaft in den Blick, der Computer bis dahin nur aus den Nachrichten oder Science-Fiction-Romanen kannte. Ihre Studie zeigt: Die ersten Reaktionen der potenziellen Kundschaft waren ernüchternd – der Umgang mit Computern musste gelernt werden. Doch nicht zuletzt gezieltes Marketing verwandelte schließlich die Rechenmaschine vom selektiven Arbeitsinstrument zum Massenmedium der Informationsgesellschaft.
Das Leistungsstörungsrecht des polnischen Obligationsgesetzbuchs von 1933 und das deutsche Recht
(2019)
Als Folge der mehr als 120-jährigen Teilungszeit galten in Polen nach 1918 fünf verschiedene Zivilrechte. Die Verabschiedung eines Obligationsgesetzbuches 1933 war ein wesentlicher Schritt zur innerstaatlichen Rechtsvereinheitlichung. Die Bedeutung des deutschen Rechts in diesem Prozess wird in dem vorliegenden Buch am Beispiel des Leistungsstörungsrechts untersucht. Anhand ausgewählter Faktoren werden die Rahmenbedingungen damaliger polnischer Gesetzgebung beleuchtet, die durch die unterschiedliche Entwicklung der ehemaligen drei Teilungsgebiete geprägt waren. Die Autorin nimmt auch auf die Biographien der Gesetzesautoren Bezug. Eine Auswertung des damaligen deutschen Schrifttums zeigt zudem, dass das Gesetz in der deutschen Rechtswissenschaft positiv wahrgenommen wurde.
In der Dissertationsarbeit mit dem Titel „Eine Hypothese über die Grundlagen von Moral und einige Implikationen“ unternimmt die Autorin den Versuch, die anthropologischen Prämissen moralischen Handelns herauszuarbeiten. Es wird eine Hypothese aufgestellt und erläutert, die behauptet, dass moralisches Handeln nur dann verständlich wird, wenn der Handelnde erstens die Fähigkeit der Phantasie aufweist, zweitens auf Erfahrungen (mittels seines Gedächtnisses) zugreifen kann und durch Konversation mit anderen Personen interagierte und interagiert, denn nur auf der Basis dieser drei Grundlagen von Moral können sich diejenigen Fähigkeiten ent¬wickeln, die als Voraussetzungen moralischen Handeln gesehen werden müssen: Selbstbewusstsein, Freiheit, die Entwicklung eines Wir-Gefühls, die Genese eines moralischen Ideals und die Fähigkeit, sich im Entscheiden und Handeln nach diesem Ideal richten zu können. Außerdem werden in dieser Dissertation einige Implikationen dieser Hypothese auf individueller und zwischenmenschlicher Ebene diskutiert.