Refine
Year of publication
- 2022 (70) (remove)
Document Type
- Doctoral Thesis (70) (remove)
Language
- German (70) (remove)
Is part of the Bibliography
- yes (70)
Keywords
- Kunstgeschichte (3)
- Antisemitismusforschung (2)
- Bundeswehr (2)
- Dokumentarische Methode (2)
- Epigrafik (2)
- Friedhof (2)
- Holocaust (2)
- Judaistik (2)
- Jüdische Studien (2)
- Kalter Krieg (2)
Institute
- Historisches Institut (15)
- Bürgerliches Recht (6)
- Department Erziehungswissenschaft (6)
- Institut für Biochemie und Biologie (6)
- Öffentliches Recht (5)
- Institut für Jüdische Studien und Religionswissenschaft (4)
- Institut für Chemie (3)
- Institut für Ernährungswissenschaft (3)
- Institut für Künste und Medien (3)
- Department Grundschulpädagogik (2)
Dass das Wohlergehen künftig lebender Individuen moralische Berücksichtigung verdient, ist unbestritten. Sowohl im Rahmen des öffentlichen Diskurses als auch in der akademischen Umwelt- oder Zukunftsethik wird diese Ansicht vertreten.Durch das Problem der Nicht-Identität wird sie jedoch auf empfindliche Weise in Frage gestellt: Wie kann eine Handlung wie die Verschwendung begrenzt verfügbarer Ressourcen falsch sein, wenn die faktisch davon betroffenen künftig lebenden Individuen nur durch sie in die Existenz gelangen konnten? Gilt dann nicht, dass diese Handlung für niemanden schlecht ist und keine Schädigung darstellt? Dieses Buch verfolgt das Ziel zu verdeutlichen, wie das moralische Unrecht, das künftig lebende Individuen durch Handlungen gegenwärtig lebender Akteur:innen erfahren – trotz des Faktums der Nicht-Identität – mithilfe eines nicht-personenbezogenen Prinzips identifiziert und das Problem der Nicht-Identität somit gelöst werden kann.
Kontrafaktik der Gegenwart
(2022)
Nicht-realistisches Erzählen ist hochpopulär, wurde aber häufig des politischen Eskapismus verdächtigt. Diese Studie bietet einen fiktionstheoretischen Zugang zum Erzählverfahren der Kontrafaktik und zeigt dessen Nähe zum politischen Schreiben auf. Analysen kontrafaktischer Werke von Christian Kracht, Kathrin Röggla, Juli Zeh und Leif Randt demonstrieren die Vielfalt und Relevanz politischer Realitätsvariationen in der Gegenwartsliteratur.
Die Zeit um 1600 markiert eine Zäsur in der Ausbildung junger Adliger, da neben der etablierten humanistischen Ausbildung zunehmend moderne Fremdsprachen und die institutionalisierte Ausbildung standesspezifischer Inhalte wie Fechten, Tanzen und Reiten an Bedeutung gewannen. Im vorliegenden Band werden die Ausbildungsgänge der Söhne dreier südwestdeutscher Freiherren- und Grafenfamilien in der Zeit des Späthumanismus untersucht. Dabei werden standesspezifische Bildungsstrategien herausgearbeitet und familiäre sowie konfessionelle Unterschiede aufgezeigt. Die Familien der Reichsgrafen orientierten sich – soweit es ihr Budget zuließ – einerseits am Fürstenstand, andererseits waren sie bestrebt, eigene Akzente zu setzen, sei es aus standespolitischen Erwägungen oder, weil sie eigenen Traditionen verpflichtet waren. Die systematische Auswertung breiter Quellenbestände förderte dabei auch eine Fülle an Informationen zu weiteren Wissensgebieten wie etwa der Reise-, Medizin-, Musikgeschichte oder der Alltagskultur zutage.
Die allergische Kontaktdermatitis ist eine immunologisch bedingte Hauterkrankung mit insbesondere in den westlichen Industrienationen hoher und weiter ansteigender Prävalenz. Es handelt sich hierbei um eine Hypersensitivitätsreaktion vom Typ IV, die sich nach Allergenkontakt durch Juckreiz, Rötung, Bläschenbildung und Abschälung der Haut äußert. Zahlreiche Xenobiotika besitzen das Potenzial, Kontaktallergien auszulösen, darunter Konservierungsstoffe, Medikamente, Duftstoffe und Chemikalien. Die wirksamste Maßnahme zur Eindämmung der Erkrankung ist die Expositionsprophylaxe, also die Vermeidung des Kontakts mit den entsprechenden Substanzen. Dies wiederum setzt die Kenntnis des jeweiligen sensibilisierenden Potenzials einer Substanz voraus, dessen Bestimmung aus diesem Grund eine hohe toxikologische Relevanz besitzt. Zu diesem Zweck existieren von der OECD veröffentlichte Testleitlinien, welche auf entsprechend validierten Testmethoden basieren. Goldstandard bei der Prüfung auf hautsensibilisierendes Potenzial war über lange Zeit der murine Lokale Lymphknotentest. Seit der 7. Änderung der EU-Kosmetikrichtlinie, welche Tierversuche für Kosmetika und deren Inhaltsstoffe untersagt, wurden vermehrt Alternativmethoden in die OECD-Testleitlinien implementiert.. Die bestehenden in vitro Methoden sind jedoch alleinstehend nur begrenzt aussagekräftig, da sie lediglich singuläre Mechanismen bei der Entstehung einer Kontaktallergie abbilden. Die Entwicklung von Testmethoden, welche mehrere dieser Schlüsselereignisse berücksichtigen, erscheint daher richtungsweisend. Einen vielversprechenden Ansatz liefert hierbei der Loose-fit coculture-based sensitisation assay (LCSA), welcher eine Kokultur aus primären Keratinozyten und PBMC darstellt. Bei der Kokultivierung von Immunzellen mit anderen Zelltypen stellt sich allerdings die Frage, inwiefern die Nutzung von Zellen derselben Spender*innen (autologe Kokultur) bzw. verschiedener Spender*innen (allogene Kokultur) einen Einfluss nimmt. Zu diesem Zweck wurden im Rahmen dieser Arbeit Hautzellen spenderspezifisch aus gezupften Haarfollikeln isoliert und der LCSA mit den generierten HFDK in autologen und allogenen Ansätzen verglichen. Zusätzlich wurde auch ein Vergleich zwischen der Nutzung von HFDK und NHK, welche aus humaner Vorhaut isoliert wurden, im LCSA durchgeführt. Dabei ergaben sich keine signifikanten Unterschiede zwischen autologen und allogenen Kokulturen bzw. zwischen der Verwendung von HFDK und NHK. Die Verwendung allogener Zellen aus anonymem Spendermaterial sowie die Nutzung von Keratinozyten aus unterschiedlichen Quellen scheint im Rahmen des LCSA problemlos möglich. Einige der getesteten Kontaktallergene, darunter DNCB und NiCl2, erwiesen sich im LCSA jedoch als problematisch und konnten nicht zufriedenstellend als sensibilisierend detektiert werden. Daher wurde eine Optimierung der Kokultur durch Verwendung ex vivo differenzierter Langerhans Zellen (MoLC) angestrebt, welche ein besseres Modell primärer epidermaler Langerhans Zellen darstellen als die dendritischen Zellen aus dem LCSA. Zusätzlich wurden weitere, den Erfolg der Kokultur beeinflussende Faktoren, wie die Art und Zusammensetzung des Mediums und die Kokultivierungsdauer, untersucht und angepasst. Das schlussendlich etablierte Kokultivierungsprotokoll führte zu einer maßgeblich verstärkten Expression von CD207 (Langerin) auf den MoLC, was auf eine wirkungsvolle Interaktion zwischen Haut- und Immunzellen in der Kokultur hindeutete. Des Weiteren konnten DNCB und NiCl2 im Gegensatz zum LCSA durch Verwendung des kostimulatorischen Moleküls CD86 sowie des Reifungsmarkers CD83 als Ausleseparameter eindeutig als Kontaktallergene identifiziert werden. Die Untersuchungen zur Kokultur von MoLC und HFDK wurden jeweils vergleichend in autologen und allogenen Ansätzen durchgeführt. Ähnlich wie beim LCSA kam es aber auch hier zu keinen signifikanten Unterschieden, weder hinsichtlich der Expression von Charakterisierungs- und Aktivierungsmarkern auf MoLC noch hinsichtlich der Zytokinsekretion in den Zellkulturüberstand. Die Hinweise aus zahlreichen Studien im Mausmodell, dass Zellen des angeborenen Immunsystems zur Erkennung von und Aktivierung durch allogene Zellen bzw. Gewebe in der Lage sind, bestätigten sich im Rahmen dieser Arbeit dementsprechend nicht. Aus diesem Grund wurden abschließend CD4+ T-Lymphozyten, die Effektorzellen des adaptiven Immunsystems, in die Kokultur aus MoLC und autologen bzw. allogenen HFDK integriert. Überraschenderweise traten auch hier keine verstärkten Aktivierungen in allogener Kokultur im Vergleich zur autologen Kokultur auf. Die Nutzung autologer Primärzellen scheint im Rahmen der hier getesteten Methoden nicht notwendig zu sein, was die Validierung von Kokulturen und deren Implementierung in die OECD-Testleitlinien erleichtern dürfte. Zuletzt wurde eine Kokultivierung primärer Haut- und Immunzellen auch im 3D-Vollhautmodell durchgeführt, wobei autologe MoLC in die Epidermisäquivalente entsprechender Modelle integriert werden sollten. Obwohl die erstellten Hautmodelle unter Verwendung autologer Haarfollikel-generierter Keratinozyten und Fibroblasten eine zufriedenstellende Differenzierung und Stratifizierung aufwiesen, gestaltete sich die Inkorporation der MoLC als problematisch und konnte im Rahmen dieser Arbeit nicht erreicht werden.
Das vorliegende Werk stellt sich anhand einer longitudinal angelegten Fallstudie einem Forschungsdesiderat: der mehrsprachigen Erwerbskonstellation Kurmancî-Kurdisch und Deutsch. Über einen Zeitraum von etwa acht Monaten werden die Sprachentwicklung und Sprachkompetenz von sechs Kindern im Vorschulalter in Kurmancî-Kurdisch und in Deutsch mit diversen Instrumenten erfasst und analysiert, wobei auch die weiteren Sprachen der Studienkinder sorgfältig herausarbeitet und im Zusammenhang mit ihren ersten beiden Sprachen erläutert werden. Die Studie setzt sich auch mit dem Einfluss der Familiensprachpraxis auf die Sprachentwicklung und Sprachkompetenz auseinander. In diesem Zusammenhang wird außerdem die Rolle der bislang einmaligen bilingualen kurdisch-deutschen Kindertagesstätte Pîya mit in die Analyse einbezogen. Entsprechend vielfältig und vielsichtig sind die Ergebnisse dieser Studie.
Voilà une Parisienne!
(2022)
Stereotype sind als kulturgenerierende und dabei stark normierende Figurationen omnipräsent. Maria Weilandt betrachtet sie unter einem literatur- und kunstkomparatistischen Blickwinkel nicht als starre und unveränderliche Entitäten, sondern als Ensemble verflochtener Erzählungen. Anhand des Stereotyps der Pariserin im 19. und beginnenden 20. Jahrhundert entwickelt sie ein eigenes Analysekonzept. Neben literarischen Texten und Kunstwerken beleuchtet sie dabei auch die sogenannte Parisienne als Werbefigur der Pariser Warenhauskultur sowie als Repräsentation eines spezifischen intersektionalen Konzepts von Nation, etwa im Rahmen der Weltausstellung 1900.
Duales Lernen
(2022)
Die betriebliche oder „arbeitsplatzorientierte Grundbildung (AoG)“ ist ein noch junges Forschungsgebiet der wissenschaftlichen Erwachsenenbildung. Neuerdings wenden sich auch betriebliche Kursangebote an die „Bildungsverlierer“ unseres Schulsystems, die mit z.T. massiven Problemen die Haupt- oder Sonderschule verlassen. Diese qualitative Studie ist dem Bereich der subjektwissenschaftlichen Lernforschung zuzuordnen. Sie rekonstruiert die subjektiven Lernbegründungen der formal gering literalisierten Beschäftigten, wenn sie an Grundbildungskursen am Arbeitsplatz teilnehmen. Die Studie zeigt auf, dass erhebliche lernbiografisch begründete Widerstände überwunden werden müssen, um – eingebettet in Anerkennungsverhältnisse im Kurs – zu persönlich bedeutsamem produktivem Lernen vorzudringen. Zunächst sind Freiwilligkeit und Teilnehmendenorientierung in Kursen häufig in Frage gestellt. Mehr oder weniger reflektierte Lernwiderstände mit defensiven Lerngründen werden insofern vom Autor als subjektiv sinnvolle Handlungsstrategien verstanden. Als lebenslang tätiger Praktiker erläutert der Autor, wie die Resultate der Studie für eine gute Praxis betrieblicher Grundbildung genutzt werden können.
Das Totenfürsorgerecht
(2022)
Die vorliegende Untersuchung befasst sich mit den allgegenwärtigen Fragen, welches rechtliche Schicksal der menschliche Körper nach dem Tod nimmt, ob der Leichnam vererbt wird und wer in welchem Umfang über ihn bestimmen darf. Die Autorin gelangt zu dem Ergebnis, dass das Totenfürsorgerecht als wesentlicher Bestandteil des - im Grundgesetz als Staatszielbestimmung zu verankernden - sog. postmortalen Persönlichkeitsschutzes auf die Wahrung der Pietät ziele und zuvörderst dem Willen des Verstorbenen verpflichtet sei. Bei unbekanntem Verstorbenenwillen dürfe der Totenfürsorgeberechtigte aber in einigen wenigen Bereichen auch eigene Entscheidungen über den ihm anvertrauten Leichnam treffen. Der Umgang mit dem Leichnam lasse sich bislang keinem bekannten Rechtsinstitut zuordnen und stelle Gewohnheitsrecht dar. Gegenwärtig herrsche Rechtsunsicherheit. Zur Behebung des gesetzgeberischen Defizits schlägt die Autorin ein Bundesgesetz vor und unterbreitet hierfür einen Gesetzesvorschlag.
Queer Curating
(2022)
Dieses Buch ist für alle, die mutig genug sind, sich selbst und das Zeigen von Kunst zu stören. Beatrice Miersch entwirft radikal-relationale Alternativen zu zeitgenössischen Ausstellungspraktiken. Um sich der gesellschaftlichen Verantwortung im Rahmen des Ausstellens von Kunst zu stellen, erprobt sie queer-feministische, kulturwissenschaftliche und selbstreflektierende Methoden in der Praxis und Theorie des Kuratierens. Momente kuratorischer Störung werden zu produktiv-schöpferischen Momenten der Unterbrechung, mit denen sie reflektierte, offene, engagierte und vulnerable Perspektiven auf das Ausstellen eröffnet und tradierte Strukturen durchbricht.
Epigenetische Mechanismen spielen eine entscheidende Rolle bei der Pathogenese von Colitis ulcerosa (CU). Ihr Einfluss auf das beobachtete Ungleichgewicht zwischen pro- und anti-inflammatorischen Cytokinen ist hingegen weitgehend unerforscht. Einige der wichtigsten immunmodulatorischen Cytokine sind die Mitglieder der heterodimeren Interleukin- (IL-) 12-Familie, die durch das Kombinieren einer der drei α-Ketten (IL-12p35, IL-27p28, IL-23p19) mit den ß-Untereinheiten IL-12p40 oder EBI3 (Epstein-Barr Virus-induziertes Gen 3) charakterisiert sind. IL-35 (IL-12p35/EBI3) spielt eine bedeutende anti-inflammatorische Rolle bei verschiedenen Erkrankungen, wohingegen seine Level bei chronischen Entzündungen erniedrigt sind. Eine mögliche Ursache könnte eine transkriptionelle Stilllegung über epigenetische Modifikationen sein. Tatsächlich konnte durch die Stimulation mit dem DNA-Methyltransferase-Inhibitor (DNMTi) Decitabin (DAC; Dacogen®) eine Induktion von EBI3 in humanen Epithelzellen aus gesundem Colon (HCEC) erreicht werden, die als Modell für ein lokales Entzündungsgeschehen dienten. Diese Regulation über DNA-Methylierung konnte in weiteren humanen Zellen unterschiedlichen Ursprungs sowie durch Stimulation von HCEC-Zellen mit zwei weiteren DNMTi, dem Cytosin-Analogon Azacytidin (AZA; Vidaza®) und dem natürlich vorkommenden, epigenetisch wirksamen Polyphenol Epigallocatechingallat (EGCG), verifiziert werden. Die kombinierte Inkubation mit Tumor-Nekrose-Faktor α (TNFα) resultierte jeweils in einer über-additiven Induktion von EBI3.
Weiterführende Untersuchungen zeigten, dass TNFα trotz Beeinflussung der epigenetischen DNMT- und Ten-eleven Translocation- (TET-) Enzyme keinen Einfluss auf die globalen Methylierungs- oder Hydroxymethylierungslevel hatte, jedoch eine genspezifische DNA-Hypomethylierung im EBI3-Promotor induzierte. Durch Nutzung verschiedener Inhibitoren konnte darüber hinaus nachgewiesen werden, dass der beobachtete synergistische Effekt der gemeinsamen DAC und TNFα-Stimulation hauptsächlich über NFκB (Nuclear factor “kappa-light-chain-enhancer” of activated B-cells) vermittelt wird. Ein Teil verläuft dabei über p38 MAPK (mitogen-activated protein kinases), während die JNK- (c-Jun N-terminale Kinasen-) und ERK- (extracellular-signal-regulated kinases) Signalwege keine Rolle spielen.
In der vorliegenden Arbeit wurde zudem gezeigt, dass die DNA-Hypomethylierung während eines entzündlichen Zustandes auch in einer erhöhten EBI3-Proteinexpression resultiert. Die Höhe der immunologisch detektierten Banden wies auf eine Dimerbildung sowohl im Zelllysat als auch im Überstand hin. Humane Colonepithelzellen sind demnach in der Lage, Cytokine zu bilden und zu sezernieren, was die Bedeutung von Nicht-Immunzellen bei der lokalen Immunantwort unterstreicht. Mittels Genexpressionsanalysen wurden IL-12p35 und IL-23p19 als mögliche Bindungspartner identifiziert. Aufgrund kreuzreaktiver Antikörper ist ein direkter Nachweis der EBI3-Dimere derzeit nicht möglich. Die stattdessen genutzte Kombination verschiedener Methoden dient als geeigneter Ersatz für die problematischen Antikörper-basierten Analysen wie Immunpräzipitation oder ELISA. Durch molekularbiologische, immunologische und massenspektrometrische Methoden konnte IL-35 identifiziert werden, während IL-39 (IL-23p19/EBI3) nicht detektiert wurde. Dies ist in Einklang mit den Erkenntnissen mehrerer Forschungsgruppen, die eine Bildung des nativen humanen Dimers aus IL-23p19 und EBI3 bezweifeln. Des Weiteren wurde die biologische Aktivität des behandlungsinduzierten IL 35-Proteins durch einen Funktionsassay nachgewiesen.
Neben einer DNMTi-bedingten transkriptionellen Aktivierung konnte eine Regulation von EBI3 über Histonacetylierungen gezeigt werden. Der EBI3-induzierende Effekt des Histondeacetylasen-Inhibitors (HDACi) Trichostatin A (TSA) wurde durch SAHA (suberoylanilide hydroxamic acid (Vorinostat; Zolinza®)) verifiziert. Ähnlich zu der Stimulation mit den hypomethylierenden Substanzen wurde ein synergistischer Effekt bei paralleler Inkubation mit TNFα beobachtet, der in einer gesteigerten Bildung des EBI3-Proteins resultierte.
Um die Befunde in einem komplexeren in vivo-Modell zu untersuchen, wurde eine chronische Colitis in Ebi3-defizienten Mäusen und dem dazugehörigen Wildtypstamm C57BL/6 durch zyklische Applikation von Natriumdextransulfat (Dextran sodium sulfate (DSS)) induziert. Der Vergleich klinischer Parameter wie Mortalitätsrate und Körper- sowie Milzgewicht wies bei Abwesenheit von Ebi3 signifikant stärkere colitische Symptome auf. Dies bestätigte die zentrale Rolle von Ebi3 in der Colitisentwicklung und deutete auf eine bevorzugte Bildung des anti-inflammatorisch wirkenden IL-35 statt des pro-inflammatorischen IL-39 in den Wildtyptieren hin. Durch zusätzliche therapeutische Behandlung der C57BL/6-Mäuse nach der DSS-Gabe konnte die in der Literatur beschriebene positive Wirkung von SAHA auf die Colitismanifestation bestätigt werden. Im Gegensatz dazu war der HDACi in den Ebi3-defizienten Tieren nicht in der Lage, die colitischen Parameter zu verbessern beziehungsweise verschlimmerte den Krankheitsphänotyp. Expressionsanalysen von Up- und Downstream-Target-Genen lieferten weitere Hinweise darauf, dass bei Anwesenheit von Ebi3 IL-35 statt IL-39 gebildet wird, was in Einklang mit den in vitro-Untersuchungen steht.
Die vorliegende Arbeit konnte durch den Vergleich der C57BL/6-Mäuse mit den Ebi3-defizienten Tieren neue Erkenntnisse über die Wirkungsweise von SAHA erbringen. Histonacetylierende Bedingungen verbessern colitische Symptome über einen Mechanismus, der die epigenetische Induktion von Ebi3 mit nachfolgender IL-35-Bildung involviert. Durch Kooperation der epigenetischen Mechanismen Hypomethylierung und Histonacetylierung wurde der stärkste Effekt auf die EBI3-Induktion bewirkt.
Insgesamt konnte in der vorliegenden Arbeit durch in vitro- und in vivo-Analysen die epigenetische und NFκB-vermittelte Induktion von EBI3 über DNA-Demethylierung und Histonacetylierung mit nachfolgender IL-35-Bildung und –Sezernierung nachgewiesen werden. Da IL-35 in der Lage ist, colitische Symptome zu mildern, stellt die epigenetische Reaktivierbarkeit von EBI3 durch DNMTi und HDACi eine vielversprechende Alternative für die derzeit genutzten, oft nicht oder nur kurzfristig wirksamen Therapien bei der Behandlung einer CU dar. Einer übermäßigen Immunantwort während schubweiser entzündlicher Phasen könnte entgegengewirkt und Komplikationen wie die Bildung Colitis-assoziierter Karzinome verhindert werden.
Der Jüdische Friedhof in Potsdam am Pfingstberg wurde 1743 angelegt und kontinuierlich bis in die NS-Zeit belegt. Bis Anfang des 21. Jahrhunderts gab es vereinzelte Begräbnisse mit Bezug zur alten Jüdischen Gemeinde Potsdams; mehrere Gedenkanlagen wurden errichtet. Mit mehr als 500 historischen Grabanlagen, seinem Ensemble aus Friedhofsbauten sowie aufgrund seiner Landschaftsarchitektur gehört dieser Ort heute zum UNESCO-Welterbe.
Teil 1 von Anke Geißler-Grünbergs Studie ist der Geschichte des Friedhofs gewidmet. Nach einem Blick auf die Rolle der Jüdischen Gemeinde Potsdams als Eigentümerin des Friedhofs erfolgt unter Auswertung von umfangreichem Archivmaterial eine detaillierte Darstellung der Geschichte des „Guten Ortes“. Eine Untersuchung sämtlicher Grabmale auf unterschiedliche Gestaltungsmerkmale visualisiert und rekonstruiert die Veränderungen in der erhaltenen Sepulkralkultur. Abschließend richtet sich der Fokus auf den Umgang mit dem Friedhof als Ort der Erinnerung.
Teil 2 bietet die Dokumentation von 370 Grabanlagen. Um den Friedhof in seiner Gesamtheit abzubilden, wurde die 1992 erfolgte Teildokumentation der 158 Grabsteine des gesamten ältesten Begräbnisfeldes ergänzend hinzugenommen. Mit mehr als 1.000 Fotos wird hier ein einmaliges Zeugnis der Brandenburger Juden dokumentiert.
Wie kam es zu dem ikonischen Überschuss des christlichen Heiligenbildes? Janine Luge-Winter geht dieser Frage nach, indem sie die verschiedenen Argumente byzantinischen Bildapologien des 8. und 9. Jahrhunderts und der modernen Ikonentheorien des 20. Jahrhunderts erstmals in ihrer Studie versammelt, miteinander vergleicht und kontextualisiert. Sie zeigt, dass das Mehr der Ikone deren besonderer Sichtbarkeit ist, die eine Überwindung der Undarstellbarkeit des Undarstellbaren evoziert, indem sie das Undarstellbare konkret als solches akzeptiert. Verständlich wird dies nur, wenn die Ikone als »etwas anderes« als ein repräsentationales oder mimetisches Bild anerkannt wird.
Proteine erfüllen bei einer Vielzahl von Prozessen eine essenzielle Rolle. Um diese Funktionsweisen zu verstehen, bedarf es der Aufklärung derer Struktur und deren Bindungsverhaltens mit anderen Molekülen wie Proteinen, Peptiden, Kohlenhydraten oder kleinen Molekülen. Im ersten Teil dieser Arbeit wurden der Wildtyp und die Punktmutante N126W eines Kohlenhydrat-bindenden Proteins aus dem hitzestabilen Bakterium C. thermocellum untersucht, welches Teil eines Komplexes ist, der Kohlenhydrate wie Cellulose erkennen, binden und abbauen kann. Dazu wurde dieses Protein mit E.coli Bakterien hergestellt und durch Metallchelat- und Größenausschlusschromatographie gereinigt. Die Proteine konnten isotopenmarkiert mittels Kernspinresonanz-Spektroskopie (NMR) untersucht werden. H/D-Austauschexperimente zeigten leicht und schwer zugängliche Stellen im Protein für eine mögliche Ligandenwechselwirkung. Anschließend konnte eine Interaktion beider Proteine mit Cellulosefragmenten festgestellt werden. Diese interagieren über zwischenmolekulare Kräfte mit den Seitenketten von aromatischen Aminosäuren und über Wasserstoffbrückenbindungen mit anderen Resten. Weiterhin wurde die Calcium-Bindestelle analysiert und es konnte gezeigt werden, das diese nach der Proteinherstellung mit einem Calcium-Ion besetzt ist und dieses mit dem Komplexbildner EDTA entfernbar ist, jedoch wieder reversibel besetzt werden kann. Zum Schluss wurde mittels zweier Methoden versucht (grafting from und grafting to), das Protein mit einem temperatursensorischen Polymer (Poly-N-Isopropylacrylamid) zu koppeln, um so Eigenschaften wie Löslichkeit oder Stabilität zu beeinflussen. Es zeigte sich, das während die grafting from Methode (Polymer wächst direkt vom Protein) zu einer teilweisen Entfaltung und Destabilisierung des Proteins führte, bei der grafting to Methode (Polymer wird separat hergestellt und dann an das Protein gekoppelt) das Protein seine Stabilität behielt und nur wenige Polymerketten angebaut waren. Der zweite Teil dieser Arbeit beschäftigte sich mit der Interaktion von zwei LIM-Domänen des Proteins Paxillin und der zytoplasmatischen Domäne der Peptide Integrin-β1 und Integrin-β3. Diese spielen eine wichtige Rolle bei der Bewegung von Zellen. Dabei interagieren sie mit einer Vielzahl an anderen Proteinen, um fokale Adhäsionen (Multiproteinkomplexe) zu bilden. Bei der Herstellung des Peptids Integrin-β3 zeigte sich durch Größenausschlusschromatographie und Massenspektrometrie ein Abbau, bei dem verschiedene Aminosäuregruppen abgespalten werden. Dieser konnte durch eine Zugabe des Serinprotease-Inhibitors AEBSF verhindert werden. Anschließend wurde die direkte Interaktion der Proteine untereinander mittels NMR untersucht. Dabei zeigte sich, das Integrin-β1 und Integrin-β3 an die gleiche Position binden, nämlich an den flexiblen Loop der LIM3-Domäne von Paxillin. Die Dissoziationskonstanten zeigten, dass Integrin-β1 mit einer zirka zehnfach höheren Affinität im Vergleich zu Integrin-β3 an Paxillin bindet. Während Paxillins Bindestelle an Integrin-β1 in der Mitte des Peptids liegt, ist bei Integrin-β3 der C-Terminus essenziell. Daher wurden die drei C-terminalen Aminosäuren entfernt und erneut Bindungsstudien durchgeführt, welche gezeigt haben, das die Affinität dadurch fast vollständig unterbunden wurde. Final wurde der flexible Loop der LIM3-Domäne in zwei andere Aminosäuresequenzen mutiert, um die Bindung auf der Paxillin-Seite auszulöschen. Jedoch zeigten sowohl Zirkulardichroismus-Spektroskopie als auch NMR-Spektroskopie, dass die Mutationen zu einer teilweisen Entfaltung der Domäne geführt haben und somit nicht als geeignete Kandidaten für diese Studien identifiziert werden konnten.
Die vorliegende Dissertation verfolgt das Ziel, die diagnostischen Möglichkeiten für das Stö-rungsbild der erworbenen Dyslexie bei deutschsprachigen Personen mit Dyslexie (PmD) zu erweitern und zu spezifizieren.
In der Literatur werden verschiedene Sprachverarbeitungsmodelle diskutiert, die den kognitiven Prozess der Schriftsprachverarbeitung zu erklären versuchen. Alle Überlegungen, Erhebungen und Analysen dieser Dissertation fußen auf den theoretischen Annahmen des kognitiven Zwei-Routen-Lesemodells, welches zwischen lexikalisch-semantischer und segmentaler, sub-lexikalischer Verarbeitung beim Lesen unterscheidet und so die voneinander unabhängigen Fähigkeiten zum Lesen bekannter und unbekannter Wörter abbilden kann. Mit dem im Rahmen der Dissertation entwickelten, kognitiv orientierten Diagnostikverfahren DYMO (Dyslexie Mo-dellorientiert) soll durch die Erhebung der Lesefähigkeiten von PmD eine möglichst genaue modelltheoretische Verortung der Lesebeeinträchtigung erreicht und eine Grundlage für die Planung einer lesebezogenen Therapie geschaffen werden. Dabei werden auch Modellkomponenten des Zwei-Routen-Lesemodells berücksichtigt, die bisher im deutschsprachigen Raum noch nicht etabliert sind. Dazu zählen Unterkomponenten der Visuellen Analyse, die für die Identifikation von Buchstaben und das Kodieren von Buchstabenpositionen verantwortlich sind und Unterkomponenten der segmentalen Leseroute, die den einzelheitlichen Leseprozess auf dieser Modellroute schrittweise abbilden. Das Itemmaterial aus DYMO ist nach diversen psycholinguistisch kontrollierten Variablen kontrolliert. Hierbei werden auch Variablen berücksichtigt, die bisher in der Dyslexiediagnostik für deutschsprachige PmD nicht systematisch erfasst werden können, wie die Wortlänge und die graphematische Komplexität von Pseudowörtern.
Die erste dieser Dissertation zugrundeliegende Publikation (Originalarbeit I) befasst sich mit den Parametern und Modellkomponenten, die für eine umfassende modelltheoretisch basierte Di-agnostik bei erworbener Dyslexie entscheidend sind. Es werden außerdem Überlegungen zu Fehlertypen-Kategorisierung angestellt.
Die zweite Publikation (Originalarbeit II) stellt das Testverfahren DYMO dar. Das dazugehörige Handbuch liefert detaillierte Informationen zum Aufbau und der Konstruktion des Testverfah-rens, zur Durchführung und Auswertung der einzelnen Untertests und zur Einstufung einer Leistung in einen Leistungsbereich. Anhand von ausführlich beschriebenen Fallbeispielen zweier PmD werden die Durchführung, Auswertung, Interpretation und das Ableiten von Therapiezielen dargestellt. Die Ergebnisse dieser Fallbeschreibungen verdeutlichen die diagnostische Ergänzung durch DYMO und zeigen, dass das explizite Untersuchen der Unterkomponenten der Visuellen Analyse und der segmentalen Leseroute sowie der Einbezug der Variablen Wortlänge und gra-phematische Komplexität den Lesebefund spezifizieren und den Therapieeinstieg konkretisieren können.
Die dritte Publikation (Originalarbeit III) zeigt in einer systematischen Vergleichsstudie anhand einer Fallserie von zwölf PmD die Unterschiede zwischen dem Diagnostikverfahren DYMO und einem weiteren kognitiv basierten Diagnostikverfahren. Es wird diskutiert, inwieweit DYMO eine sinnvolle Ergänzung im Diagnostikprozess erworbener Dyslexien darstellen kann. Außerdem werden leicht und schwer beeinträchtigte PmD in Gruppenanalysen verglichen, um zu prüfen, ob DYMO insbesondere bei leicht beeinträchtigten PmD eine Ergänzung bieten kann. Aufgrund des komplexeren Itemmaterials von DYMO (beispielsweise aufgrund der Kontrolle der Wortlänge) wurde angenommen, dass leicht beeinträchtigte PmD in DYMO-Untertests auffälligere Leseleistungen zeigen als in Aufgaben des gegenübergestellten anderen Diagnostikverfahrens. Diese Hypothese konnte teilweise bestätigt werden. Leicht beeinträchtigte PmD zeigten häufiger Längeneffekte als schwer beeinträchtigte PmD. Insgesamt fiel der Gruppenunterschied jedoch nicht so deutlich aus, wie erwartet.
Mit dem kriteriumsorientiert normierten und finalisierten Material von DYMO wurden 17 PmD getestet. Ausführliche Befunde für jede einzelne PmD mit darauffolgenden Therapieimplikationen zeigen, dass insbesondere die Spezifizierung eines segmentalen Lesedefizits bei einer schwer beeinträchtigten Leistung im Lesen von Pseudowörtern zur erweiterten Aussage bezüglich des modelltheoretischen Störungsortes beitragen kann. Dies verdeutlicht die hohe Aussagekraft der DYMO-Untertests und die Relevanz einer spezifischen und detaillierten modellbasierten Befunderhebung für eine explizite, individuelle Therapieplanung bei erworbenen Dyslexien.
Abzug unter Beobachtung
(2022)
Mehr als vier Jahrzehnte lang beobachteten die Streitkräfte und Militärnachrichtendienste der NATO-Staaten die sowjetischen Truppen in der DDR. Hierfür übernahm in der Bundesrepublik Deutschland der Bundesnachrichtendienst (BND) die militärische Auslandsaufklärung unter Anwendung nachrichtendienstlicher Mittel und Methoden. Die Bundeswehr betrieb dagegen taktische Fernmelde- und elektronische Aufklärung und hörte vor allem den Funkverkehr der „Gruppe der sowjetischen Streitkräfte in Deutschland“ (GSSD) ab. Mit der Aufstellung einer zentralen Dienststelle für das militärische Nachrichtenwesen, dem Amt für Nachrichtenwesen der Bundeswehr, bündelte und erweiterte zugleich das Bundesministerium für Verteidigung in den 1980er Jahren seine analytischen Kapazitäten. Das Monopol des BND in der militärischen Auslandsaufklärung wurde von der Bundeswehr dadurch zunehmend infrage gestellt.
Nach der deutschen Wiedervereinigung am 3. Oktober 1990 befanden sich immer noch mehr als 300.000 sowjetische Soldaten auf deutschem Territorium. Die 1989 in Westgruppe der Truppen (WGT) umbenannte GSSD sollte – so der Zwei-plus-Vier-Vertrag – bis 1994 vollständig abziehen. Der Vertrag verbot auch den drei Westmächten, in den neuen Bundesländern militärisch tätig zu sein. Die für die Militäraufklärung bis dahin unverzichtbaren Militärverbindungsmissionen der Westmächte mussten ihre Dienste einstellen. Doch was geschah mit diesem „alliierten Erbe“? Wer übernahm auf deutscher Seite die Aufklärung der sowjetischen Truppen und wer kontrollierte den Truppenabzug?
Die Studie untersucht die Rolle von Bundeswehr und BND beim Abzug der WGT zwischen 1990 und 1994 und fragt dabei nach Kooperation und Konkurrenz zwischen Streitkräften und Nachrichtendiensten. Welche militärischen und nachrichtendienstlichen Mittel und Fähigkeiten stellte die Bundesregierung zur Bewältigung des Truppenabzugs zur Verfügung, nachdem die westlichen Militärverbindungsmissionen aufgelöst wurden? Wie veränderten sich die Anforderungen an die militärische Auslandsaufklärung des BND? Inwieweit setzten sich Konkurrenz und Kooperation von Bundeswehr und BNDbeim Truppenabzug fort? Welche Rolle spielten dabei die einstigen Westmächte? Die Arbeit versteht sich nicht nur als Beitrag zur Militärgeschichte, sondern auch zur deutschen Nachrichtendienstgeschichte.
Pädagog*innen der Primarstufe nehmen an spezifischen bewegungsorientierten Weiterbildungen teil. Zahlreiche Untersuchungen im Kontext von Fort- und Weiterbildungen stellen dar, unter welchen Bedingungen sich Teilnahmen förderlich oder hinderlich auswirken. In didaktisch-konzeptionellen Überlegungen werden häufig Fragen diskutiert, wie äußere Umstände, etwa in Bezug auf zeitliche, räumliche oder inhaltliche Dimensionen, zu gestalten sind, damit Bildungsangebote im Schulsystem bestimmte Wirkungen erzielen. Unter welchen Bedingungen erfolgt sozusagen günstiger Weise eine Vermittlung von spezifischen Inhalten an Lehrer*innen, damit über diese ein Transfereffekt von (system-)relevantem Wissen in das Schulsystem erfolgen kann?
In dieser Forschungsarbeit soll nicht ein Bedingungsdiskurs im Vordergrund stehen, auf dessen Grundlage wirkungsvolle Vermittlungsstrategien für Bildungsangebote diskutiert werden. Im Zentrum steht die Frage nach je eigenen Teilnahme- und Lernbegründungen von Pädagog*innen, und wie sie sich zu ihrer Weiterbildung ins Verhältnis setzen. Dieser Zugang verändert die Perspektive auf die Thematik und erlaubt die Auseinandersetzung mit Subjekten im Rahmen eines Begründungsdiskurses. Im Zuge einer empirisch-qualitativen Studie werden narrative Interviews mit elf Absolvent*innen einer bewegungsorientierten Weiterbildung geführt, die Auswertung der Daten erfolgt mit der Dokumentarischen Methode. Die Rekonstruktionsergebnisse werden in Form von zwei Fallbeschreibungen und durch vier typische, in der Studie entwickelte, Begründungsfiguren dargestellt: die Figur Lernen, die Figur Wissensmanagement, die Figur Neugierige Suche und die Figur Körperliche Aktivität. Neben der Rekonstruktion von Teilnahme- und Lernbegründungsmustern wird deutlich, dass Teilnehmen und Lernen keine unterschiedlichen Zugangslogiken in Bezug auf Bedeutungs-Begründungs-Zusammenhänge verfolgen. Vielmehr sind sowohl expansive als auch defensive Lernbegründungen im Zuge von Teilnahmebegründungen identifizierbar.
Das Ziel dieser Arbeit ist die Entwicklung eines Industrie 4.0 Reifegradindex für produzierende Unternehmen (KMU und Mittelstand) mit diskreter Produktion. Die Motivation zu dieser Arbeit entstand aus dem Zögern vieler Unternehmen – insbesondere KMU und Mittelstand – bei der Transformation in Richtung Industrie 4.0. Im Rahmen einer Marktstudie konnte belegt werden, dass 86 Prozent der befragten produzierenden Unternehmen kein für ihr Unternehmen geeignetes Industrie 4.0 Reifegradmodell gefunden haben, mit dem sie ihren Status Quo bewerten und Maßnahmen für einen höheren Grad der Reife ableiten könnten. Die Bewertung bestehender Reifegradmodelle zeigte Defizite hinsichtlich der Industrie 4.0 Abdeckung, der Betrachtung der sozio-technischen Dimensionen Mensch, Technik und Organisation sowie der Betrachtung von Management und Unternehmenskultur. Basierend auf den aktuellen Industrie 4.0 Technologien und Handlungsbereichen wurde ein neues, modular aufgebautes Industrie 4.0 Reifegradmodell entwickelt, das auf einer ganzheitlichen Betrachtung aller sozio-technischen Dimensionen Mensch, Technik und Organisation sowie deren Schnittstellen basiert. Das Modell ermittelt neben dem Overall Industry 4.0 Maturity Index (OI4MI) vier weitere Indizes zur Bewertung der Industrie 4.0 Reife des Unternehmens. Das Modell wurde bei einem Unternehmen validiert und steht nun als Template für darauf aufbauende Forschungsarbeiten zur Verfügung.
Die aktuelle COVID-19-Pandemie zeigt deutlich, wie sich Infektionskrankheiten weltweit verbreiten können. Neben Viruserkrankungen breiten sich auch multiresistente bakterielle Erreger weltweit aus. Dementsprechend besteht ein hoher Bedarf, durch frühzeitige Erkennung Erkrankte zu finden und Infektionswege zu unterbrechen.
Herkömmliche kulturelle Verfahren benötigen minimalinvasive bzw. invasive Proben und dauern für Screeningmaßnahmen zu lange. Deshalb werden schnelle, nichtinvasive Verfahren benötigt.
Im klassischen Griechenland verließen sich die Ärzte unter anderem auf ihren Geruchssinn, um Infektionen und andere Krankheiten zu differenzieren. Diese charakteristischen Gerüche sind flüchtige organische Substanzen (VOC), die im Rahmen des Metabolismus eines Organismus entstehen. Tiere, die einen besseren Geruchssinn haben, werden trainiert, bestimmte Krankheitserreger am Geruch zu unterscheiden. Allerdings ist der Einsatz von Tieren im klinischen Alltag nicht praktikabel. Es bietet sich an, auf technischem Weg diese VOCs zu analysieren.
Ein technisches Verfahren, diese VOCs zu unterscheiden, ist die Ionenmobilitätsspektrometrie gekoppelt mit einer multikapillaren Gaschromatographiesäule (MCC-IMS). Hier zeigte sich, dass es sich bei dem Verfahren um eine schnelle, sensitive und verlässliche Methode handelt.
Es ist bekannt, dass verschiedene Bakterien aufgrund des Metabolismus unterschiedliche VOCs und damit eigene spezifische Gerüche produzieren. Im ersten Schritt dieser Arbeit konnte gezeigt werden, dass die verschiedenen Bakterien in-vitro nach einer kurzen Inkubationszeitzeit von 90 Minuten anhand der VOCs differenziert werden können. Hier konnte analog zur Diagnose in biochemischen Testreihen eine hierarchische Klassifikation der Bakterien erfolgen.
Im Gegensatz zu Bakterien haben Viren keinen eigenen Stoffwechsel. Ob virusinfizierte Zellen andere VOCs als nicht-infizierte Zellen freisetzen, wurde an Zellkulturen überprüft. Hier konnte gezeigt werden, dass sich die Fingerprints der VOCs in Zellkulturen infizierter Zellen mit Respiratorischen Synzytial-Viren (RSV) von nicht-infizierten Zellen unterscheiden.
Virusinfektionen im intakten Organismus unterscheiden sich von den Zellkulturen dadurch, dass hier neben Veränderungen im Zellstoffwechsel auch durch Abwehrmechanismen VOCs freigesetzt werden können.
Zur Überprüfung, inwiefern sich Infektionen im intakten Organismus ebenfalls anhand VOCs unterscheiden lassen, wurde bei Patienten mit und ohne Nachweis einer Influenza A Infektion als auch bei Patienten mit Verdacht auf SARS-CoV-2 (Schweres-akutes-Atemwegssyndrom-Coronavirus Typ 2) Infektion die Atemluft untersucht. Sowohl Influenza-infizierte als auch SARS-CoV-2 infizierte Patienten konnten untereinander und von nicht-infizierten Patienten mittels MCC-IMS Analyse der Atemluft unterschieden werden.
Zusammenfassend erbringt die MCC-IMS ermutigende Resultate in der schnellen nichtinvasiven Erkennung von Infektionen sowohl in vitro als auch in vivo.
Die vorliegende kumulative Promotionsarbeit beschäftigt sich mit leistungsstarken Schülerinnen und Schülern, die seit 2015 in der deutschen Bildungspolitik, zum Beispiel im Rahmen von Förderprogrammen wieder mehr Raum einnehmen, nachdem in Folge des „PISA-Schocks“ im Jahr 2000 zunächst der Fokus stärker auf den Risikogruppen lag. Während leistungsstärkere Schülerinnen und Schüler in der öffentlichen Wahrnehmung häufig mit „(Hoch-)Begabten“ identifiziert werden, geht die Arbeit über die traditionelle Begabungsforschung, die eine generelle Intelligenz als Grundlage für Leistungsfähigkeit von Schülerinnen und Schülern begreift und beforscht, hinaus. Stattdessen lässt sich eher in den Bereich der Talentforschung einordnen, die den Fokus weg von allgemeinen Begabungen auf spezifische Prädiktoren und Outcomes im individuellen Entwicklungsverlauf legt. Der Fokus der Arbeit liegt daher nicht auf Intelligenz als Potenzial, sondern auf der aktuellen schulischen Leistung, die als Ergebnis und Ausgangspunkt von Entwicklungsprozessen in einer Leistungsdomäne doppelte Bedeutung erhält.
Die Arbeit erkennt die Vielgestaltigkeit des Leistungsbegriffs an und ist bestrebt, neue Anlässe zu schaffen, über den Leistungsbegriff und seine Operationalisierung in der Forschung zu diskutieren. Hierfür wird im ersten Teil ein systematisches Review zur Operationalisierung von Leistungsstärke durchgeführt (Artikel I). Es werden Faktoren herausgearbeitet, auf welchen sich die Operationalisierungen unterscheiden können. Weiterhin wird ein Überblick gegeben, wie Studien zu Leistungsstarken sich seit dem Jahr 2000 auf diesen Dimensionen verorten lassen. Es zeigt sich, dass eindeutige Konventionen zur Definition schulischer Leistungsstärke noch nicht existieren, woraus folgt, dass Ergebnisse aus Studien, die sich mit leistungsstarken Schülerinnen und Schülern beschäftigen, nur bedingt miteinander vergleichbar sind. Im zweiten Teil der Arbeit wird im Rahmen zwei weiterer Artikel, welche sich mit der Leistungsentwicklung (Artikel II) und der sozialen Einbindung (Artikel III) von leistungsstarken Schülerinnen und Schülern befassen, darauf aufbauend der Ansatz verfolgt, die Variabilität von Ergebnissen über verschiedene Operationalisierungen von Leistungsstärke deutlich zu machen. Damit wird unter anderem auch die künftige Vergleichbarkeit mit anderen Studien erleichtert. Genutzt wird dabei das Konzept der Multiversumsanalyse (Steegen et al., 2016), bei welcher viele parallele Spezifikationen, die zugleich sinnvolle Alternativen für die Operationalisierung darstellen, nebeneinandergestellt und in ihrem Effekt verglichen werden (Jansen et al., 2021). Die Multiversumsanalyse knüpft konzeptuell an das bereits vor längerem entwickelte Forschungsprogramm des kritischen Multiplismus an (Patry, 2013; Shadish, 1986, 1993), erhält aber als spezifische Methode aktuell im Rahmen der Replizierbarkeitskrise in der Psychologie eine besondere Bedeutung. Dabei stützt sich die vorliegende Arbeit auf die Sekundäranalyse großangelegter Schulleistungsstudien, welche den Vorteil besitzen, dass eine große Zahl an Datenpunkten (Variablen und Personen) zur Verfügung steht, um Effekte unterschiedlicher Operationalisierungen zu vergleichen.
Inhaltlich greifen Artikel II und III Themen auf, die in der wissenschaftlichen und gesellschaftlichen Diskussion zu Leistungsstarken und ihrer Wahrnehmung in der Öffentlichkeit immer wieder aufscheinen: In Artikel II wird zunächst die Frage gestellt, ob Leistungsstarke bereits im aktuellen Regelunterricht einen kumulativen Vorteil gegenüber ihren weniger leistungsstarken Mitschülerinnen und Mitschülern haben (Matthäus-Effekt). Die Ergebnisse zeigen, dass an Gymnasien keineswegs von sich vergrößernden Unterschieden gesprochen werden kann. Im Gegenteil, es verringerte sich im Laufe der Sekundarstufe der Abstand zwischen den Gruppen, indem die Lernraten bei leistungsschwächeren Schülerinnen und Schülern höher waren. Artikel III hingegen betrifft die soziale Wahrnehmung von leistungsstarken Schülerinnen und Schülern. Auch hier hält sich in der öffentlichen Diskussion die Annahme, dass höhere Leistungen mit Nachteilen in der sozialen Integration einhergehen könnten, was sich auch in Studien widerspiegelt, die sich mit Geschlechterstereotypen Jugendlicher in Bezug auf Schulleistung beschäftigen. In Artikel III wird unter anderem erneut das Potenzial der Multiversumsanalyse genutzt, um die Variation des Zusammenhangs über Operationalisierungen von Leistungsstärke zu beschreiben. Es zeigt sich unter unterschiedlichen Operationalisierungen von Leistungsstärke und über verschiedene Facetten sozialer Integration hinweg, dass die Zusammenhänge zwischen Leistung und sozialer Integration insgesamt leicht positiv ausfallen. Annahmen, die auf differenzielle Effekte für Jungen und Mädchen oder für unterschiedliche Fächer abzielen, finden in diesen Analysen keine Bestätigung.
Die Dissertation zeigt, dass der Vergleich unterschiedlicher Ansätze zur Operationalisierung von Leistungsstärke — eingesetzt im Rahmen eines kritischen Multiplismus — das Verständnis von Phänomenen vertiefen kann und auch das Potenzial hat, Theorieentwicklung voranzubringen.
Respiratorische Erkrankungen stellen zunehmend eine relevante globale Problematik dar. Die Erweiterung bzw. Modifizierung von Applikationswegen möglicher Arzneimittel für gezielte topische Anwendungen ist dabei von größter Bedeutung. Die Variation eines bekannten Applikationsweges durch unterschiedliche technologische Umsetzungen kann die Vielfalt der Anwendungsmöglichkeiten, aber auch die Patienten-Compliance erhöhen. Die einfache und flexible Verfahrensweise durch schnelle Verfügbarkeit und eine handliche Technologie sind heutzutage wichtige Eigenschaften im Entwicklungsprozess eines Produktes. Eine direkte topische Behandlung von Atemwegserkrankungen am Wirkort in Form einer inhalativen Applikation bietet dabei viele Vorteile gegenüber einer systemischen Therapie. Die medizinische Inhalation von Wirkstoffen über die Lunge ist jedoch eine komplexe Herausforderung. Inhalatoren gehören zu den erklärungsbedürftigen Applikationsformen, die zur Erhöhung der konsequenten Einhaltung der Verordnung so einfach, wie möglich gestaltet werden müssen. Parallel besitzen und nutzen weltweit annähernd 68 Millionen Menschen die Technologie eines inhalativen Applikators zur bewussten Schädigung ihrer Gesundheit in Form einer elektronischen Zigarette. Diese bekannte Anwendung bietet die potentielle Möglichkeit einer verfügbaren, kostengünstigen und qualitätsgeprüften Gesundheitsmaßnahme zur Kontrolle, Prävention und Heilung von Atemwegserkrankungen. Sie erzeugt ein Aerosol durch elektrothermische Erwärmung eines sogenannten Liquids, das durch Kapillarkräfte eines Trägermaterials an ein Heizelement gelangt und verdampft. Ihr Bekanntheitsgrad zeigt, dass eine beabsichtigte Wirkung in den Atemwegen eintritt. Diese Wirkung könnte jedoch auch auf potentielle pharmazeutische Einsatzgebiete übertragbar sein. Die Vorteile der pulmonalen Verabreichung sind dabei vielfältig. Im Vergleich zur peroralen Applikation gelangt der Wirkstoff gezielt zum Wirkort. Wenn eine systemische Applikation zu Arzneimittelkonzentrationen unterhalb der therapeutischen Wirksamkeit in der Lunge führt, könnte eine inhalative Darreichung bereits bei niedriger Dosierung die gewünschten höheren Konzentrationen am Wirkort hervorrufen. Aufgrund der großen Resorptionsfläche der Lunge sind eine höhere Bioverfügbarkeit und ein schnellerer Wirkungseintritt infolge des fehlenden First-Pass-Effektes möglich. Es kommt ebenfalls zu minimalen systemischen Nebenwirkungen. Die elektronische Zigarette erzeugt wie die medizinischen Inhalatoren lungengängige Partikel. Die atemzuggesteuerte Technik ermöglicht eine unkomplizierte und intuitive Anwendung. Der prinzipielle Aufbau besteht aus einer elektrisch beheizten Wendel und einem Akku. Die Heizwendel ist von einem sogenannten Liquid in einem Tank umgeben und erzeugt das Aerosol. Das Liquid beinhaltet eine Basismischung bestehend aus Propylenglycol, Glycerin und reinem Wasser in unterschiedlichen prozentualen Anteilen. Es besteht die Annahme, dass das Basisliquid auch mit pharmazeutischen Wirkstoffen für die pulmonale Applikation beladen werden kann. Aufgrund der thermischen Belastung durch die e-Zigarette müssen potentielle Wirkstoffe sowie das Vehikel eine thermische Stabilität aufweisen.
Die potentielle medizinische Anwendung der Technologie einer handelsüblichen e-Zigarette wurde anhand von drei Schwerpunkten an vier Wirkstoffen untersucht. Die drei ätherischen Öle Eucalyptusöl, Minzöl und Nelkenöl wurden aufgrund ihrer leichten Flüchtigkeit und der historischen pharmazeutischen Anwendung anhand von Inhalationen bei Erkältungssymptomen bzw. im zahnmedizinischen Bereich gewählt. Das eingesetzte Cannabinoid Cannabidiol (CBD) hat einen aktuellen Bezug zu dem pharmazeutischen Markt Deutschlands zur Legalisierung von cannabishaltigen Produkten und der medizinischen Forschung zum inhalativen Konsum. Es wurden relevante wirkstoffhaltige Flüssigformulierungen entwickelt und hinsichtlich ihrer Verdampfbarkeit zu Aerosolen bewertet. In den quantitativen und qualitativen chromatographischen Untersuchungen konnten spezifische Verdampfungsprofile der Wirkstoffe erfasst und bewertet werden. Dabei stieg die verdampfte Masse der Leitsubstanzen 1,8-Cineol (Eucalyptusöl), Menthol (Minzöl) und Eugenol (Nelkenöl) zwischen 33,6 µg und 156,2 µg pro Zug proportional zur Konzentration im Liquid im Bereich zwischen 0,5% und 1,5% bei einer Leistung von 20 Watt. Die Freisetzungsrate von Cannabidiol hingegen schien unabhängig von der Konzentration im Liquid im Mittelwert bei 13,3 µg pro Zug zu liegen. Dieses konnte an fünf CBD-haltigen Liquids im Konzentrationsbereich zwischen 31 µg/g und 5120 µg/g Liquid gezeigt werden. Außerdem konnte eine Steigerung der verdampften Massen mit Zunahme der Leistung der e-Zigarette festgestellt werden. Die Interaktion der Liquids bzw. Aerosole mit den Bestandteilen des Speichels sowie weiterer gastrointestinaler Flüssigkeiten wurde über die Anwendung von zugehörigen in vitro Modellen und Einsatz von Enzymaktivitäts-Assays geprüft. In den Untersuchungen wurden Änderungen von Enzymaktivitäten anhand des oralen Schlüsselenzyms α-Amylase sowie von Proteasen ermittelt. Damit sollte exemplarisch ein möglicher Einfluss auf physiologische bzw. metabolische Prozesse im humanen Organismus geprüft werden. Das Bedampfen von biologischen Suspensionen führte bei niedriger Leistung der e-Zigarette (20 Watt) zu keiner bzw. einer leichten Änderung der Enzymaktivität. Die Anwendung einer hohen Leistung (80 Watt) bewirkte tendenziell das Herabsetzen der Enzymaktivitäten. Die Erhöhung der Enzymaktivitäten könnte zu einem enzymatischen Abbau von Schleimstoffen wie Mucinen führen, was wiederum die effektive, mechanische Abwehr gegenüber bakteriellen Infektionen zur Folge hätte. Da eine Anwendung der Applikation insbesondere bei bakteriellen Atemwegserkrankungen denkbar wäre, folgten abschließend Untersuchungen der antibakteriellen Eigenschaften der Liquids bzw. Aerosole in vitro. Es wurden sechs klinisch relevante bakterielle Krankheitserreger ausgewählt, die nach zwei Charakteristika gruppiert werden können. Die drei multiresistenten Bakterien Pseudomonas aeruginosa, Klebsiella pneumoniae und Methicillin-resistenter Staphylococcus aureus können mithilfe von üblichen Therapien mit Antibiotika nicht abgetötet werden und haben vor allem eine nosokomiale Relevanz. Die zweite Gruppe weist Eigenschaften auf, die vordergründig assoziiert sind mit respiratorischen Erkrankungen. Die Bakterien Streptococcus pneumoniae, Moraxella catarrhalis und Haemophilus influenzae sind repräsentativ beteiligt an Atemwegserkrankungen mit diverser Symptomatik. Die Bakterienarten wurden mit den jeweiligen Liquids behandelt bzw. bedampft und deren grundlegende Dosis-Wirkungsbeziehung charakterisiert. Dabei konnte eine antibakterielle Aktivität der Formulierungen ermittelt werden, die durch Zugabe eines Wirkstoffes die bereits antibakterielle Wirkung der Bestandteile Glycerin und Propylenglycol verstärkte. Die hygroskopischen Eigenschaften dieser Substanzen sind vermutlich für eine Wirkung in aerosolierter Form verantwortlich. Sie entziehen die Feuchtigkeit aus der Luft und haben einen austrocknenden Effekt auf die Bakterien. Das Bedampfen der Bakterienarten Streptococcus pneumoniae, Moraxella catarrhalis und Haemophilus influenzae hatte einen antibakteriellen Effekt, der zeitlich abhängig von der Leistung der e-Zigarette war.
Die Ergebnisse der Untersuchungen führen zu dem Schluss, dass jeder Wirkstoff bzw. jede Substanzklasse individuell zu bewerten ist und somit Inhalator und Formulierung aufeinander abgestimmt werden müssen. Der Einsatz der e-Zigarette als Medizinprodukt zur Applikation von Arzneimitteln setzt stets Prüfungen nach Europäischem Arzneibuch voraus. Durch Modifizierungen könnte eine Dosierung gut kontrollierbar gemacht werden, aber auch die Partikelgrößenverteilung kann insoweit reguliert werden, dass die Wirkstoffe je nach Partikelgröße zu einem geeigneten Applikationsort wie Mund, Rachen oder Bronchien transportiert werden. Der Vergleich mit den Eigenschaften anderer medizinischer Inhalatoren führt zu dem Schluss, dass die Technologie der e-Zigarette durchaus eine gleichartige oder bessere Performance für thermisch stabile Wirkstoffe bieten könnte. Dieses fiktive Medizinprodukt könnte aus einer hersteller-unspezifisch produzierten, wieder aufladbaren Energiequelle mit Universalgewinde zum mehrfachen Gebrauch und einer hersteller- und wirkstoffspezifisch produzierten Einheit aus Verdampfer und Arzneimittel bestehen. Das Arzneimittel, ein medizinisches Liquid (Vehikel und Wirkstoff) kann in dem Tank des Verdampfers mit konstanten, nicht variablen Parametern patientenindividuell produziert werden. Inhalative Anwendungen werden perspektivisch wohl nicht zuletzt aufgrund der aktuellen COVID-19-Pandemie eine zunehmende Rolle spielen. Der Bedarf nach alternativen Therapieoptionen wird weiter ansteigen. Diese Arbeit liefert einen Beitrag zum Einsatz der Technologie der elektronischen Zigarette als electronic nicotin delivery system (ENDS) nach Modifizierung zu einem potentiellen pulmonalen Applikationssystem als electronic drug delivery system (EDDS) von inhalativen, thermisch stabilen Arzneimitteln in Form eines Medizinproduktes.
Synthetische Transkriptionsfaktoren bestehen wie natürliche Transkriptionsfaktoren aus einer DNA-Bindedomäne, die sich spezifisch an die Bindestellensequenz vor dem Ziel-Gen anlagert, und einer Aktivierungsdomäne, die die Transkriptionsmaschinerie rekrutiert, sodass das Zielgen exprimiert wird. Der Unterschied zu den natürlichen Transkriptionsfaktoren ist, sowohl dass die DNA-Bindedomäne als auch die Aktivierungsdomäne wirtsfremd sein können und dadurch künstliche Stoffwechselwege im Wirt, größtenteils chemisch, induziert werden können. Optogenetische synthetische Transkriptionsfaktoren, die hier entwickelt wurden, gehen einen Schritt weiter. Dabei ist die DNA-Bindedomäne nicht mehr an die Aktivierungsdomäne, sondern mit dem Blaulicht-Photorezeptor CRY2 gekoppelt. Die Aktivierungsdomäne wurde mit dem Interaktionspartner CIB1 fusioniert. Unter Blaulichtbestrahlung dimerisieren CRY2 und CIB1 und damit einhergehend die beiden Domänen, sodass ein funktionsfähiger Transkriptionsfaktor entsteht. Dieses System wurde in die Saccharomyces cerevisiae genomisch integriert. Verifiziert wurde das konstruierte System mit Hilfe des Reporters yEGFP, welcher durchflusszytometrisch detektiert werden konnte. Es konnte gezeigt werden, dass die yEGFP Expression variabel gestaltet werden kann, indem unterschiedlich lange Blaulichtimpulse ausgesendet wurden, die DNA-Bindedomäne, die Aktivierungsdomäne oder die Anzahl der Bindestellen, an dem sich die DNA-Bindedomäne anlagert, verändert wurden. Um das System für industrielle Anwendungen attraktiv zu gestalten, wurde das System vom Deepwell-Maßstab auf Photobioreaktor-Maßstab hochskaliert. Außerdem erwies sich das Blaulichtsystem sowohl im Laborstamm YPH500 als auch im industriell oft verwendeten Hefestamm CEN.PK als funktional. Des Weiteren konnte ein industrierelevante Protein ebenso mit Hilfe des verifizierten Systems exprimiert werden. Schlussendlich konnte in dieser Arbeit das etablierte Blaulicht-System erfolgreich mit einem Rotlichtsystem kombiniert werden, was zuvor noch nicht beschrieben wurde.
Das Centrosom von Dictyostelium ist acentriolär aufgebaut, misst ca. 500 nm und besteht aus einer dreischichten Core-Struktur mit umgebender Corona, an der Mikrotubuli nukleieren. In dieser Arbeit wurden das centrosomale Protein Cep192 und mögliche Interaktionspartner am Centrosom eingehend untersucht. Die einleitende Lokalisationsuntersuchung von Cep192 ergab, dass es während der gesamten Mitose an den Spindelpolen lokalisiert und im Vergleich zu den anderen Strukturproteinen der Core-Struktur am stärksten exprimiert ist. Die dauerhafte Lokalisation an den Spindelpolen während der Mitose wird für Proteine angenommen, die in den beiden identisch aufgebauten äußeren Core-Schichten lokalisieren, die das mitotische Centrosom formen. Ein Knockdown von Cep192 führte zur Ausbildung von überzähligen Mikrotubuli-organisierenden Zentren (MTOC) sowie zu einer leicht erhöhten Ploidie. Deshalb wird eine Destabilisierung des Centrosoms durch die verminderte Cep192-Expression angenommen. An Cep192 wurden zwei kleine Tags, der SpotH6- und BioH6-Tag, etabliert, die mit kleinen fluoreszierenden Nachweiskonjugaten markiert werden konnten. Mit den so getagten Proteinen konnte die hochauflösende Expansion Microscopy für das Centrosom optimiert werden und die Core-Struktur erstmals proteinspezifisch in der Fluoreszenzmikroskopie dargestellt werden. Cep192 lokalisiert dabei in den äußeren Core-Schichten. Die kombinierte Markierung von Cep192 und den centrosomalen Proteinen CP39 und CP91 in der Expansion Microscopy erlaubte die Darstellung des dreischichtigen Aufbaus der centrosomalen Core-Struktur, wobei CP39 und CP91 zwischen Cep192 in der inneren Core-Schicht lokalisieren. Auch die Corona wurde in der Expansion Microscopy untersucht: Das Corona-Protein CDK5RAP2 lokalisiert in räumlicher Nähe zu Cep192 in der inneren Corona. Ein Vergleich der Corona-Proteine CDK5RAP2, CP148 und CP224 in der Expansion Microscopy ergab unterscheidbare Sublokalisationen der Proteine innerhalb der Corona und relativ zur Core-Struktur. In Biotinylierungsassays mit den centrosomalen Core-Proteinen CP39 und CP91 sowie des Corona-Proteins CDK5RAP2 konnte Cep192 als möglicher Interaktionspartner identifiziert werden.
Die Ergebnisse dieser Arbeit zeigen die wichtige Funktion des Proteins Cep192 im Dictyostelium-Centrosom und ermöglichen durch die Kombination aus Biotinylierungsassays und Expansion Microscopy der untersuchten Proteine ein verbessertes Verständnis der Topologie des Centrosoms.
Die vorliegende Arbeit vertritt die These, dass Hegels Wissenschaft der Logik mit einer Konzeption von Absolutheit Ernst zu machen versucht, nach der es kein Außerhalb des Absoluten geben kann. Dies macht sich bereits im Anfang der Logik bemerkbar: Wenn es nichts außerhalb des Absoluten geben kann, dann darf auch der Anfang nicht außerhalb des Absoluten sein. Folglich kann der Anfang nur mit dem Absoluten gemacht werden. Das Setzen des Anfangs als absolut ist aber gleichzeitig ein Testen des Anfangs auf seine Absolutheit. Diese Prüfung kann der Anfang nicht bestehen. Denn es liegt im Wesen eines Anfangs, nur Anfang und nicht das Ganze und somit nicht das Absolute zu sein. Der Anfang ist am weitesten davon entfernt, das Ganze zu sein, und muss folglich als das Nicht-Absoluteste innerhalb der Logik betrachtet werden. Also ist er beides: Er ist ein Anfang mit dem Absoluten und er ist ein Anfang mit dem Nicht-Absolutesten. Die Logik widerspricht sich bereits in ihrem Anfang. Von diesem Widerspruch muss sie sich befreien. Diese Befreiung treibt den Gang vom Anfang fort. Dies erzeugt den Fortgang der Logik. Die anfängliche Bestimmung hebt sich auf und geht in ihre Folgebestimmung über. Die Folgebestimmung wird ihrerseits absolut gesetzt, kann dieser Setzung aber ebenfalls nicht gerecht werden und hebt sich in ihre Folgebestimmung auf. Eine jede Bestimmung, die auf den Anfang folgt, durchläuft diese Bewegung des Absolutsetzens, Daran-Scheiterns und Sich-Aufhebens, bis – ganz am Ende der Logik – ebendiese Bewegung als dasjenige erkannt wird, was allein vermögend ist, dem Anspruch auf Absolutheit zu genügen. Denn wenn eine jede Bestimmung dieser Bewegung unterworfen ist, dann gibt es kein Außerhalb zu dieser Bewegung. Und also muss sie das gesuchte Absolute sein.
Auf ihrem Weg hin zur wahren Bedeutung des Absoluten kehrt die Logik immer wieder in die Bestimmung ihres Anfangs zurück, um Voraussetzungen einzuholen, die in Zusammenhang mit ihrem Anfang gemacht werden mussten. Für das Einholen dieser Voraussetzungen werden folgende Textstellen von Interesse sein: der Übergang in die Wesenslogik, der Übergang in die Begriffslogik und das Schlusskapitel. Denn auch zuallerletzt, in ihrem Ende kehrt die Logik in ihren Anfang zurück. Entsprechend kann mit Hegel gesagt werden: Das Erste ist auch das Letzte und das Letzte ist auch das Erste.
Im Rahmen dieser Dissertation wurde der Sauerstoff im Grundgerüst der [1,3]-Dioxolo[4.5-f]benzodioxol-Fluoreszenzfarbstoffe (DBD-Fluoreszenzfarbstoffe) vollständig mit Schwefel ausgetauscht und daraus eine neue Klasse von Fluoreszenzfarbstoffen entwickelt, die Benzo[1,2-d:4,5-d']bis([1,3]dithiol)-Fluorophore (S4-DBD-Fluorophore). Insgesamt neun der besonders interessanten, difunktionalisierten Vertreter konnten synthetisiert werden, die sich in ihren elektronenziehenden Gruppen und in ihrer Anordnung unterschieden.
Durch den Austausch von Sauerstoff mit Schwefel kam es zu teilweise auffälligen Veränderungen in den Fluoreszenzparametern, wie eine Abnahme der Fluoreszenzquantenausbeuten und -lebenszeiten aber auch eine deutliche Rotverschiebung in den Absorptions- und Emissionswellenlängen mit großen STOKES-Verschiebungen. Damit sind die S4-DBD-Fluorophore eine wertvolle Ergänzung für die DBD-Farbstoffe.
Die Ursachen für die Abnahme der Lebenszeiten und Quantenausbeuten konnte auf eine hohe Besetzung des Triplett-Zustandes zurückgeführt werden, welcher durch die verstärkten Spin-Bahn-Kopplungen des Schwefels hervorgerufen wird. Zusammen mit dem Arbeitskreis physikalische Chemie der Universität Potsdam konnten auch die photophysikalischen Prozesse über die Transienten-Absorptionsspektroskopie (TAS) aufgeklärt werden.
Eine Strategie zur Funktionalisierung der S4-DBD-Farbstoffe am Thioacetalgerüst konnte entwickelt werden. So gelang es Alkohol-, Propargyl-, Azid-, NHS-Ester-, Carbonsäure-, Maleimid- und Tosyl-Gruppen an S4-DBD-Dialdehyden anzubringen.
Erweiternd wurden molekulare Stäbe auf Basis von Schwefel-Oligo-Spiro-Ketalen (SOSKs) untersucht, bei denen Sauerstoff durch Schwefel ersetzt wurde. Hier konnten die Synthesen der löslichkeitsvermittelnden TER-Muffe und auch des Tetrathiapentaerythritols als Grundbaustein deutlich verbessert werden. Aus diesen konnte ein einfaches SOSK-Polymer hergestellt werden. Weitere Versuche zum Aufbau eines Stabes müssen aber noch untersucht werden. Um einen S-OSK-Stab aufzubauen hat sich dabei die Dithiocarbonat-Gruppe in ersten Versuchen als potenzielle geeignete Schutzgruppe für das Tetrathiapentaerythritol herausgestellt.
Die Vermietung von Immobilien als Problem der Tatbestandsverwirklichung im System der Ertragsteuern
(2022)
The Letting of Real Estate as a Problem of the Fulfillment of Statutory Requirements in the System of Income Taxes. A Value-Oriented Approach to the Specification of Statutory Commercial Elements Using the Example of the Differentiation of Special and Supplementary Services«: The thesis addresses the income tax classification of the letting of real estate as either asset management or a commercial activity. The process of decision-making in practice, which often appears to be very casuistic, is contrasted with a methodical approach, which - by revealing the principles and valuations of income tax law - is intended to lead to consistent results. In doing so, the fundamental findings of legal methodology are elaborated and made fruitful.
Der Verteidigungsausschuss des Deutschen Bundestags steht seit seiner Gründung in rationaler und emotionaler Auseinandersetzung mit Parlament und Öffentlichkeit. Wolfgang Geist untersucht in seiner Langzeitanalyse die wechselnde Stellung des Ausschusses im Bundestag und gegenüber dessen Fraktionen unter den sich wandelnden politischen und gesellschaftlichen Gegebenheiten. So wird deutlich, welche Rolle der Ausschuss – auch in seiner besonderen Tätigkeit als Untersuchungsausschuss – in der Sicherheitspolitik der Bundesrepublik spielte sowie welcher Bedeutung der personellen Zusammensetzung und einzelnen politischen Akteuren zukam. Gleichzeitig hinterfragt er das Schlagwort »Parlamentsarmee«.
In der fortwährenden Diskussion zur Familienbesteuerung bewertet der Autor vor dem Hintergrund des deutschen Verfassungsrechts die geltenden Regelungen und mögliche Reformmodelle rechtlich, steuerpolitisch und ökonomisch. Unter dem besonderen Blickwinkel eines seit mehr als 20 Jahren tätigen Steuerberaters kann der Autor die Wirkung des Splittingtarifs und deren Alternativen ökonomisch gut durchdringen.
Die Ehe und Familie stehen unter dem besonderen Schutz der deutschen staatlichen Ordnung. Diese Schutzpflicht aus Art. 6 Abs. 1 GG geht deutlich über ein Abwehrrecht hinaus. Sie gebietet es, die Ehe zu schützen, ihr einen grundsätzlich unantastbaren Kernbereich privater Lebensführung zu gewähren und innerfamiliär staatlicherseits keine bestimmte innereheliche Arbeits- und Aufgabenverteilung vorzuschreiben.
Die Ehe wird häufig als „Keimzelle“ jeglicher menschlichen Gesellschaft bezeichnet. Das erscheint folgerichtig und historisch bedeutsam. Im heutigen Zeitalter jedoch ist sie mehr oder weniger eine Erwerbs-, Konsum- und Verantwortungsgemeinschaft. Insofern stellt sich vornehmlich die Frage nach einer genügenden Rechtfertigung für die Gewährung eines Splittingtarifs.
Ausgangspunkt der umfassenden systematischen Darstellung ist die historischen Entwicklung in Deutschland und den angrenzenden Staaten; insbesondere der heutigen Europäischen Union. Denn in anderen Staaten werden bereits unterschiedliche Modelle wie beispielsweise die Einzel- oder Familienbesteuerung angewendet.
Verfassungsrechtlich hat der Gesetzgeber Veränderungen der gesellschaftlichen Rahmenbedingungen in und für die Familie in seine gesetzgeberischen Entscheidungen zwingend einzubeziehen. Es stellt sich demnach die Frage, ob beispielsweise seit der Entscheidung des Bundesverfassungsgerichts zum Ehegattensplitting im Jahr 1957 relevante Veränderungen eingetreten sind, die eine Änderung der Familienbesteuerung rechtfertigen oder gar erfordern. Die zwischenzeitliche Anerkennung von Lebenspartnerschaften und die Ehe für alle sind Ausdruck einer solchen Veränderung. Sie implizieren die bereits eingetretenen Veränderungen der Lebensverhältnisse. Daher ist die politische Diskussion für eine Veränderung nachvollziehbar. Ob jedoch Alternativen vorzugswürdig sind, wird ausführlich dargestellt.
Vermögen vererben
(2022)
Die politische Regulierung der Vermögensweitergabe und individuelle Erbregelungen in der zweiten Hälfte des 20. Jahrhunderts.
Das Vererben von Vermögen stabilisiert die Gesellschaftsordnung. Erbregelungen können soziale Ungleichheitsverhältnisse in die Zukunft fortschreiben oder zu Enttäuschungen übergangener Familienmitglieder führen. Da das Vererben soziale Gerechtigkeits- und Familienvorstellungen berührt, ist seine Regulierung politisch höchst umstritten. Obwohl die jährlich vererbten Vermögen in den letzten Jahren immer neue Rekordhöhen erreichten, ist die Vorgeschichte dieser gegenwärtigen Entwicklung bisher kaum erforscht.
Ronny Grundig untersucht den Wandel der Vermögensvererbung vom Ende des Zweiten Weltkriegs bis zum Ende der 1980er Jahre. Er blickt auf politische Regulierungen,
die Praktiken des Vererbens und die Aneignung des Erbes durch die Hinterbliebenen. Der Autor analysiert die Steuervermeidung Vermögender sowie Konflikte zwischen Erben und Erbinnen. Ebenso zeigt er den Wandel von Paar- und Familienbeziehungen beim Vererben, die sich in den Testamenten niederschlagen und die Verteilung der hinterlassenen Vermögen beeinflussen.
Was bewegt Menschen dazu, freiwillig in einem Krieg zu kämpfen, obwohl ihr Heimatland nicht involviert ist? Warum riskieren sie in Konflikten weltweit ihr Leben für eine fremde Sache? Bedeutet das Fehlen institutioneller Strukturen, die den Akteuren klare Regeln und Verhaltensweisen vorgeben würden, immer eine Eskalation von Gewalt? Diese Studie hilft, das Phänomen freiwilliger Kombattanten zu verstehen. Am Fallbeispiel internationaler Kriegsfreiwilliger, die in den Jugoslawienkriegen der 1990er Jahre auf Seiten Kroatiens kämpften, macht Julia Ludwig zudem den Mehrwert einer Analyse kultureller Faktoren in der Gewaltforschung deutlich.
Die Arbeit gibt einen Einblick in die Verständigungspraxen bei Stadtführungen mit (ehemaligen) Obdachlosen, die in ihrem Selbstverständnis auf die Herstellung von Verständnis, Toleranz und Anerkennung für von Obdachlosigkeit betroffene Personen zielen. Zunächst wird in den Diskurs des Slumtourismus eingeführt und, angesichts der Vielfalt der damit verbundenen Erscheinungsformen, Slumming als organisierte Begegnung mit sozialer Ungleichheit definiert. Die zentralen Diskurslinien und die darin eingewobenen moralischen Positionen werden nachvollzogen und im Rahmen der eigenommenen wissenssoziologischen Perspektive als Ausdruck einer per se polykontexturalen Praxis re-interpretiert. Slumming erscheint dann als eine organisierte Begegnung von Lebensformen, die sich in einer Weise fremd sind, als dass ein unmittelbares Verstehen unwahrscheinlich erscheint und genau aus diesem Grund auf der Basis von gängigen Interpretationen des Common Sense ausgehandelt werden muss. Vor diesem Hintergrund untersucht die vorliegende Arbeit, wie sich Teilnehmer und Stadtführer über die Erfahrung der Obdachlosigkeit praktisch verständigen und welcher Art das hierüber erzeugte Verständnis für die im öffentlichen Diskurs mit vielfältigen stigmatisierenden Zuschreibungen versehenen Obdachlosen ist. Dabei interessiert besonders, in Bezug auf welche Aspekte der Erfahrung von Obdachlosigkeit ein gemeinsames Verständnis möglich wird und an welchen Stellen dieses an Grenzen gerät. Dazu wurden die Gesprächsverläufe auf neun Stadtführungen mit (ehemaligen) obdachlosen Stadtführern unterschiedlicher Anbieter im deutschsprachigen Raum verschriftlicht und mit dem Verfahren der Dokumentarischen Methode ausgewertet. Die vergleichende Betrachtung der Verständigungspraxen eröffnet nicht zuletzt eine differenzierte Perspektive auf die in den Prozessen der Verständigung immer schon eingewobenen Anerkennungspraktiken. Mit Blick auf die moralische Debatte um organisierte Begegnungen mit sozialer Ungleichheit wird dadurch eine ethische Perspektive angeregt, in deren Zentrum Fragen zur Vermittlungsarbeit stehen.
Ein schonender Umgang mit den Ressourcen und der Umwelt ist wesentlicher Bestandteil des modernen Bergbaus sowie der zukünftigen Versorgung unserer Gesellschaft mit essentiellen Rohstoffen. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung analytischer Strategien, die durch eine exakte und schnelle Vor-Ort-Analyse den technisch-praktischen Anforderungen des Bergbauprozesses gerecht werden und somit zu einer gezielten und nachhaltigen Nutzung von Rohstofflagerstätten beitragen. Die Analysen basieren auf den spektroskopischen Daten, die mittels der laserinduzierten Breakdownspektroskopie (LIBS) erhalten und mittels multivariater Datenanalyse ausgewertet werden. Die LIB-Spektroskopie ist eine vielversprechende Technik für diese Aufgabe. Ihre Attraktivität machen insbesondere die Möglichkeiten aus, Feldproben vor Ort ohne Probennahme oder ‑vorbereitung messen zu können, aber auch die Detektierbarkeit sämtlicher Elemente des Periodensystems und die Unabhängigkeit vom Aggregatzustand. In Kombination mit multivariater Datenanalyse kann eine schnelle Datenverarbeitung erfolgen, die Aussagen zur qualitativen Elementzusammensetzung der untersuchten Proben erlaubt. Mit dem Ziel die Verteilung der Elementgehalte in einer Lagerstätte zu ermitteln, werden in dieser Arbeit Kalibrierungs- und Quantifizierungsstrategien evaluiert. Für die Charakterisierung von Matrixeffekten und zur Klassifizierung von Mineralen werden explorative Datenanalysemethoden angewendet. Die spektroskopischen Untersuchungen erfolgen an Böden und Gesteinen sowie an Mineralen, die Kupfer oder Seltene Erdelemente beinhalten und aus verschiedenen Lagerstätten bzw. von unterschiedlichen Agrarflächen stammen.
Für die Entwicklung einer Kalibrierungsstrategie wurden sowohl synthetische als auch Feldproben von zwei verschiedenen Agrarflächen mittels LIBS analysiert. Anhand der Beispielanalyten Calcium, Eisen und Magnesium erfolgte die auf uni- und multivariaten Methoden beruhende Evaluierung verschiedener Kalibrierungsmethoden. Grundlagen der Quantifizierungsstrategien sind die multivariaten Analysemethoden der partiellen Regression der kleinsten Quadrate (PLSR, von engl.: partial least squares regression) und der Intervall PLSR (iPLSR, von engl.: interval PLSR), die das gesamte detektierte Spektrum oder Teilspektren in der Analyse berücksichtigen. Der Untersuchung liegen synthetische sowie Feldproben von Kupfermineralen zugrunde als auch solche die Seltene Erdelemente beinhalten. Die Proben stammen aus verschiedenen Lagerstätten und weisen unterschiedliche Begleitmatrices auf. Mittels der explorativen Datenanalyse erfolgte die Charakterisierung dieser Begleitmatrices. Die dafür angewendete Hauptkomponentenanalyse gruppiert Daten anhand von Unterschieden und Regelmäßigkeiten. Dies erlaubt Aussagen über Gemeinsamkeiten und Unterschiede der untersuchten Proben im Bezug auf ihre Herkunft, chemische Zusammensetzung oder lokal bedingte Ausprägungen. Abschließend erfolgte die Klassifizierung kupferhaltiger Minerale auf Basis der nicht-negativen Tensorfaktorisierung. Diese Methode wurde mit dem Ziel verwendet, unbekannte Proben aufgrund ihrer Eigenschaften in Klassen einzuteilen.
Die Verknüpfung von LIBS und multivariater Datenanalyse bietet die Möglichkeit durch eine Analyse vor Ort auf eine Probennahme und die entsprechende Laboranalytik weitestgehend zu verzichten und kann somit zum Umweltschutz sowie einer Schonung der natürlichen Ressourcen bei der Prospektion und Exploration von neuen Erzgängen und Lagerstätten beitragen. Die Verteilung von Elementgehalten der untersuchten Gebiete ermöglicht zudem einen gezielten Abbau und damit eine effiziente Nutzung der mineralischen Rohstoffe.
Umdeutungen des Islams
(2022)
Fanatismus, Krieg und Terror – öffentliche Deutungen und Stereotype über Muslim*innen in der Bundesrepublik.
Ein großer Teil der deutschen Bevölkerung hat heutzutage eine negative Wahrnehmung von Muslim*innen. Ihnen wird pauschal ein Hang zu Gewalt, religiösem Fanatismus, Extremismus und Unterdrückung von Frauen unterstellt. Diese Zuschreibungen bestehen nicht erst seit den Terroranschlägen vom 11. September 2001, sondern haben sich bereits in den drei Jahrzehnten zuvor etabliert.
Alexander Konrad untersucht den Wandel der bundesdeutschen Wahrnehmungen von Muslim*innen von den Siebzigerjahren bis zur Jahrtausendwende. Dabei nimmt er öffentliche Aussagen und Handlungen von Akteur*innen aus Politik, Medien, Wissenschaft, Religionsgemeinschaften und Zivilgesellschaft kritisch in den Blick. Hintergründe, argumentative Überschneidungen und Agenden stehen im Zentrum seiner Analyse. Auch den damaligen Bemühungen um reflektierte Sichtweisen zu Muslim*innen spürt der Autor nach. Mit seiner Studie leistet Alexander Konrad einen fundamentalen Beitrag zur zeithistorischen Dekonstruktion von Denkweisen über Islam und Muslim*innen.
Das vergessene Gedenken
(2022)
Seit Aufstellung der Bundeswehr 1955 verloren über 3300 Soldaten und Soldatinnen ihr Leben im Dienst. Nur eine kleine Minderheit von ihnen fiel während des Kampfeinsatzes in Afghanistan. Die weitaus meisten Soldaten starben bei Unfällen. Ihnen hat die Bundeswehr lange das öffentliche Gedenken verweigert.
Erst mit Beginn des Afghanistan-Einsatzes 2002 setzte letztlich ein Umdenken ein, das in der Einweihung des Berliner Ehrenmales der Bundeswehr 2009 seinen vorläufigen Höhepunkt findet. Seitdem gedenkt die Bundeswehr offiziell und öffentlich ihrer toten Soldaten.
Aber warum verweigerte die Bundeswehr ihren Toten so lange ein öffentlich sichtbares und dauerhaftes Gedenken?
Julia Katharina Nordmann beleuchtet die komplexen Ursachen für diesen Umgang der Bundeswehr mit ihren Toten. Und sie rekonstruiert den langen und mühsamen Prozess, der zur Ausbildung einer Gedenkkultur geführt hat. Einer Gedenkkultur, die heute in vielfältiger Weise die Toten der Bundeswehr würdigt.
Die Jagdflieger der Wehrmacht waren die »Popstars« der nationalsozialistischen Propaganda. Doch was steckte hinter der glänzenden Fassade? Jens Wehner wirft – nüchtern und ausgewogen – ein neues Licht auf ihre militärische Funktion in der Luftkriegsführung. Seine Studie analysiert den militärischen Nutzen der Jagdflugzeugtypen von Messerschmitt und Focke-Wulf, ihre taktische Anwendung und Leitbilder. Vergleiche mit dem Entwicklungsstand der alliierten Kriegsgegner hinterfragen die Sinnhaftigkeit des Strebens nach technischer Überlegenheit. So entsteht das Bild einer Technik, welche die in sie gesetzten Erwartungen nicht erfüllte, einer fehlerhaften und statischen Doktrin, die für zahlreiche Rückschläge sorgte, und von individualistisch agierenden Piloten, die sich dem militärhierarchischen System entfremdeten.
Antikörper werden in verschiedensten Bereichen, sowohl zu therapeutischen als auch zu diagnostischen und forschungsorientierten Zwecken verwendet. Vor der Verwendung des Antikörpers bedarf es der Charakterisierung seiner Eigenschaften, in Bezug auf sein Epitop und sein Bindeverhalten gegenüber dem Paratop. Gleichzeitig muss, in Abhängigkeit des Einsatzes, der Antikörper, für den gewünschten Gebrauch, validiert werden. Zu diesem Zweck wurden in der vorliegenden Arbeit Bead-basierte, multiplexe Testsysteme entworfen, ausgetestet und etabliert mit dem Ziel, eine einfache Screeningmethode zu entwickeln, um eine hohe Anzahl an Proben beziehungsweise Analyten gleichzeitig bestimmen zu können. Dafür wurden drei verschiedene Herangehensweisen etabliert.
So wurden ein phospho-PKA-Substrat Antikörper, welcher phosphorylierte Bindemotive der PKA der Form RRxpS erkennt, gleichzeitig mit einer Reihe an Peptide getestet, welche Punktmutationen im Vergleich zur Konsensussequenz enthielten, um den Einfluss einzelner Aminosäuren auf die Bindung des Antikörpers zu untersuchen. Es konnte im Multiplex gezeigt werden, dass die Unterschiede im Antikörperbindungsverhalten in Abhängigkeit der Aminosäure an verschiedenen P-Positionen detektierbar waren. Mit dem Bead-basierten Multiplexansatz konnten, durch Messungen von Konzentrationsreihen des Antikörpers, Bindungskinetiken aufgenommen und diese mit bereits etablierten Methoden verglichen werden.
Des Weiteren wurden verschiedene Antikörper, welche essenzielle Bestandteile von Bead-basierten Testsystemen darstellten, validiert. Es wurden dabei verschiedene Antikörper, welche spezifisch THC und CBD erkennen ausgetestet und anschließend ein kompetitiver Assay zur Detektion von THC und CBD in humanem Serum etabliert, und die Nachweisgrenzen bestimmt.
Ferner sollten Pferdeseren von Tieren, welche am Sommerekzem leiden, auf ihren IgE-Gehalt hin bestimmt werden. Dafür wurden relevante Proteine rekombinant hergestellt und durch Immobilisierung an Beads im Multiplex mit Serum inkubiert. Die spezifische Bindung des IgE an die Allergen sollte damit messbar gemacht werden können. Für die Gesamtvalidierung des Testsystems wurden zuvor sämtliche Einzelschritte einzeln validiert, um im Anschluss im multiplexen Screening zu vermessen.
Die Nutzung von Bead-basierten Multiplexmessungen als eine Plattformtechnologie erleichtert die Charakterisierung von Antikörpern sowie ihre Validierung für verschiedene Testsysteme.
Hitze ist eine bedeutende klimatische Bedingung, die das Wachstum und das Überleben von Pflanzen bedroht. Extreme Temperaturereignisse in der Natur werden gravierender, häufiger, länger anhaltend, was sich nachteilig auf die landwirtschaftliche Produktion auswirkt. Daher ist es wichtig, mehr über die Mechanismen zu erfahren, die zu einer erhöhten Hitzetoleranz bei Pflanzen führen. Um auszuhalten und zu überleben, haben höhere Pflanzen komplexe Mechanismen entwickelt, um auf verschiedene Intensitäten von Hitzestress zu reagieren. Pflanzen haben eine thermische Toleranz, die es ihnen ermöglicht, schnelle und dramatische Temperaturanstiege für eine begrenzte Zeit zu überleben. Pflanzen können auch darauf vorbereitet werden, Hitzestress (HS) zu widerstehen, der ansonsten tödlich wäre, indem man sie kurzen, moderaten und nicht-tödlichen HS (als Priming-Stimulus bezeichnet) aussetzt, bevor sie hohem HS ausgesetzt werden. Eine erworbene Thermotoleranz kann bei Pflanzen unter optimalen Bedingungen lange aufrechterhalten werden, was bedeutet, dass Pflanzen während dieser Zeit Informationen speichern können. Mehrere Studien haben gezeigt, dass sich erworbene Thermotoleranz (Thermopriming) auf die erhöhte Widerstandsfähigkeit von Zellen, Geweben und Organismen gegenüber erhöhten Temperaturen nach vorheriger Hitzeeinwirkung bezieht. Die Aufrechterhaltung der erworbenen Thermotoleranz (Thermomemory) ist mit der Synthese von speziellen Stressproteinen verbunden, die am Zellschutz und der beschleunigten Gewebereparatur beteiligt sind, wie z. B. Hitzeschockproteine (HSPs). Neuere Studien haben eine Beteiligung von Hitzeschockproteinen, z.B. HSP21, in Chloroplasten an der Regulation des Thermogedächtnisses belegt. Als wichtiges Organell ist die mitochondriale Funktion entscheidend für die Reaktion von Pflanzenzellen auf Hitze. Es ist jedoch noch unbekannt, wie die molekulare und physiologische Beteiligung von HSPs an der mitochondrialen Funktion im Thermogedächtnis erfolgt. In unserer Studie haben wir gezeigt, dass Thermopriming Transkript- und Proteinspiegel von zwei mitochondrialen kleinen Hitzeschockproteinen, HSP23.56 (AT5G51440) und HSP23.6 (AT4G25200), induziert, die während der Thermogedächtnisphase 2-3 Tage andauern. Die morphologische Analyse von HSP23.5/6-transgenen Pflanzen zeigte eine HSP23.5/6-Funktionsredundanz bei Hitzestress. Wir zeigten, dass hsp23.5/6-Doppel-Knockout-Pflanzen Anomalien im Thermogedächtnis im Keimlingsstadium aufwiesen und dass reife hsp23.5/6-Pflanzen sowohl mit basaler Thermotoleranz als auch mit Thermogedächtnis empfindlicher sind. Die Wärmebehandlung beeinflusste die Atmungsrate von hsp23.5/6-Keimlingen im Vergleich zu WT signifikant, was auf eine mitochondriale Dysfunktion in Abhängigkeit von HSP23.5 und HSP23.6 hinweist. Darüber hinaus haben wir die Chaperon-Aktivität von HSP23.6 gegenüber dem Modellsubstratprotein Malatdehydrogenase (MDH) in vitro getestet und bestätigt, was darauf hindeutet, dass HSP23.6 möglicherweise zur Aufrechterhaltung der zellulären Lebensfähigkeit beiträgt. Darüber hinaus entdeckten wir ein neues HSP23.6-Clientprotein, CIB22, ein mitochondriales Komplex-I-Untereinheitsprotein. Nach experimentellen Daten (BiFC und Co-IP) interagieren HSP23.6 und CIB22 in Pflanzenzellen. Wir identifizierten auch einen Hitzereaktionsphänotyp in der cib22-Mutante im Vergleich zu WT sowie einen CIB22-Proteinabbau in der hsp23.5/6-Mutante, wenn sie Hitze ausgesetzt wurde. Unsere Ergebnisse legen nahe, dass die beiden mitochondrial lokalisierten
Hitzeschockproteine eine Rolle bei der Thermotoleranz spielen, vermutlich indem sie die mitochondriale Funktion und Struktur beeinflussen. Um neue genetische Komponenten zu identifizieren, die mit dem Thermogedächtnis in Pflanzen verbunden sind, haben wir weiterhin ein Proteom-Profiling von Arabidopsis WT (Col-0) -Keimlingen während des Thermogedächtnisses durchgeführt. Mehrere Zeitpunkte von Priming und Triggerung mit Kontrollen wurden gesammelt und analysiert, um dynamische Proteomänderungen während der Gedächtnisphase in
Arabidopsis-Zellen aufzudecken. Unter den Top-gedächtnis-assoziierten Proteinen entdeckten wir, dass HSP70-4 nach dem Priming signifikant hochreguliert wurde und für die nächsten vier Tage auf hohem Niveau bleibt (mindestens 2-fach erhöht). Durch Analyse ihres Hitzestressverhaltens konnten wir verifizieren, dass HSP70-4 an der 7 Reaktion von Pflanzen auf Hitzestress beteiligt ist. Interessant ist, dass HSP70-4-GFP nach dem Priming zytosolische Foci erzeugt, die für einige Tage während der Erholungsphase bestehen bleiben. Wir schlagen vor, dass der Fokus mit SGs verbunden ist, da Cycloheximid (CHX) GFP-Foci-Signale unterdrückt, wenn sie der Hitze ausgesetzt werden. Diese Ergebnisse weisen auf eine HSP70-4-vermittelte Transkriptions- und Translationssteuerungsverbindung (Modul) während der basalen Thermotoleranz und des Thermogedächtnisses sowie auf ihre potenzielle(n) Rolle(n) bei der Reaktion auf Hitzestress hin.
Zusammenfassend bietet unsere Forschung neue Einblicke in die Rolle von Hitzeschockproteinen bei der Kontrolle der Hitzestresstoleranz und des Gedächtnisses.
Moderne Technologien befähigen die beteiligten Akteure eines Produktionsprozesses die Informationsaufnahme, Entscheidungsfindung und -ausführung selbstständig auszuführen. Hierarchische Kontrollbeziehungen werden aufgelöst und die Entscheidungsfindung auf eine Vielzahl von Akteuren verteilt. Positive Folgen sind unter anderem die Nutzung lokaler Kompetenzen und ein schnelles Handeln vor Ort ohne (zeit-)aufwändige prozessübergreifende Planungsläufe durch eine zentrale Steuerungsinstanz. Die Bewertung der Dezentralität des Prozesses hilft beim Vergleich verschiedener Steuerungsstrategien und trägt so zur Beherrschung komplexerer Produktionsprozesse bei.
Obwohl die Kommunikationsstruktur der an der Entscheidungsfindung beteiligten Akteure zunehmend an Bedeutung gewinnt, existiert keine Methode, welche diese als Grundlage für die Operationalisierung der Dezentralität verwendet. Hier setzt diese Arbeit an. Es wird ein dreistufiges Bewertungsmodell entwickelt, dass die Dezentralität eines Produktionsprozesses auf Basis der Kommunikations- und Entscheidungsstruktur der am Prozess beteiligten, autonomen Akteure ermittelt.
Aufbauend auf einer Definition von Dezentralität von Produktionsprozessen werden Anforderungen an eine Kennzahl erhoben und - auf Basis der Kommunikationsstruktur - eine die strukturelle Autonomie der Akteure bestimmenden Kenngröße der sozialen Netzwerkanalyse ermittelt. Die Notwendigkeit der zusätzlichen Berücksichtigung der Entscheidungsstruktur wird basierend auf der Möglichkeit der Integration von Entscheidungsfindung und -ausführung begründet.
Die Differenzierung beider Faktoren bildet die Grundlage für die Klassifikation der Akteure; die Multiplikation beider Werte resultiert in dem die Autonomie eines Akteurs beschreibenden Kennwert tatsächliche Autonomie, welcher das Ergebnis der ersten Stufe des Modells darstellt. Homogene Akteurswerte charakterisieren eine hohe Dezentralität des Prozessschrittes, welcher Betrachtungsobjekt der zweiten Stufe ist. Durch einen Vergleich der vorhandenen mit der maximal möglichen Dezentralität der Prozessschritte wird auf der dritten Stufe der Autonomie Index ermittelt, welcher die Dezentralität des Prozesses operationalisiert.
Das erstellte Bewertungsmodell wird anhand einer Simulationsstudie im Zentrum Industrie 4.0 validiert. Dafür wird das Modell auf zwei Simulationsexperimente - einmal mit einer zentralen und einmal mit einer dezentralen Steuerung - angewendet und die Ergebnisse verglichen. Zusätzlich wird es auf einen umfangreichen Produktionsprozess aus der Praxis angewendet.
Die Studie analysiert das brandenburgisch-preußische Gesandtschaftszeremoniell um 1700. Der Untersuchungszeitraum, von 1648 bis 1740, umfasst die Regentschaft dreier Hohenzollern, veranschaulicht vorhandene Kontinuitäten und erläutert den Einfluss einzelner Personen auf das Zeremoniell. Zugleich wird die Entwicklung des Gesandtschaftszeremoniells an sich über einen längeren Zeitraum verfolgt. Hier offenbart sich, die Vorgänge am und das Vorgehen des Berliner Hofes muten geradezu exemplarisch an. Die Hohenzollern waren Vertreter der allgemein vorherrschenden zeremoniellen Konjunkturen. In der vorliegenden Arbeit werden wiederkehrende Muster und Mechanismen des Gesandtschaftszeremoniells, sei es das Aufeinderbeziehen von Forderungen, der beständige Vergleich mit den übrigen Mächten oder die Darstellung von Abhängigkeiten, aufgezeigt. Es wird analysiert, welche Elemente einander bedingten, wie diese zusammenwirkten und welche Bestandteile häufig zu Diskussionen führten.
Zu Seiner Majestät allerhöchstem Interesse als titelgebendem Zitat bekannten sich die zeitgenössischen Amtsträger in ihrer Beeidigung als grundlegende Maxime des durch den König verkörperten werdenden preussischen Staates.Die Domänenpolitik Friedrich Wilhelms I., dem zweiten preussischen König, war die wesentliche Voraussetzung für die folgende Entwicklung Preussens von einer Regionalmacht im Heiligen Römischen Reich zu einer europäischen Grossmacht. Ohne nennenswerte Rohstoffe und handwerkliche Traditionen, agrarisch geprägt und ganz dem merkantilistischen Wirtschaftsmodell und seiner kameralistischen Methodik verhaftet, war der Ausbau und die Intensivierung der landesherrlichen Gutswirtschaft der für Preussen verheissungsvollste Weg zur Erwirtschaftung der Mittel, die es zum Schuldenabbau, dem Aufbau einer starken Militärmacht und Anhäufung eines Staatsschatzes befähigte. Erreicht wurde dies durch konsequente Einnahmen- und Ausgabenkontrolle und die Schaffung eines effizienten Verwaltungsapparates mit detaillierten Vorschriften, was knapp einhundert Jahre Bestand behalten sollte und bis zu nahezu 50 Prozent der Staatseinnahmen hervorbrachte. Das friderizianische Preussen wäre ohne die Leistungen Friedrich Wilhelms I. nicht möglich gewesen.Der vorliegende Band stellt diese Entwicklung mit einer Fülle von Quellenmaterial und dessen Auswertungen sowie einem umfangreichen Anhang unter Beweis. Der allein 22seitige Personenindex mit über 1.300 Verweisen und 103 Kurzbiogra-fien der kurmärkischen Kammerräte machen deutlich, wer hinter den Leistungen dieser Epoche stand.
Selbstwirksamkeitserwartungen von Lehramtsstudierenden im Kontext von schulpraktischen Erfahrungen
(2022)
Selbstwirksamkeitserwartungen spielen eine wichtige Rolle für das professionelle Verhalten von Lehrkräften im Unterricht (Tschannen-Moran et al., 1998) sowie für die Leistungen und das Verhalten der Schülerinnen und Schüler (Mojavezi & Tamiz, 2012). Selbstwirksamkeitserwartungen von Lehrkräften sind definiert als die Überzeugung von Lehrkräften, dass sie in der Lage sind, bestimmte Ziele in einer spezifischen Situation zu erreichen (Dellinger et al., 2008; Tschannen-Moran & Hoy, 2001). Aufgrund der bedeutenden Rolle der Lehrkräfte im Bildungssystem und in der Gesellschaft ist es wichtig, das Wohlbefinden, die Produktivität und die Wirksamkeit von Lehrkräften zu fördern (Kasalak & Dagyar, 2020). Empirische Befunde unterstreichen die positiven Effekte von Selbstwirksamkeitserwartungen bei Lehrkräften auf ihr Wohlbefinden (Perera & John, 2020) und auf das Lernen sowie die Leistungen der Schülerinnen und Schüler (Zee & Koomen, 2016). Dabei mangelt es jedoch an empirischer Forschung, die die Bedeutung von Selbstwirksamkeitserwartungen bei Lehramtsstudierende in der Lehrkräftebildung untersucht (Yurekli et al., 2020), insbesondere während schulpraktischen Ausbildungsphasen. Ausgehend von der Bedeutung eigener Unterrichtserfahrungen, die als mastery experience, d.h. als stärkste Quelle von Selbstwirksamkeit für Lehramtsstudierende, beschrieben wurden (Pfitzner-Eden, 2016b), werden in dieser Dissertation Praxiserfahrungen als Quelle von Selbstwirksamkeit von Lehramtsstudierenden und die Veränderung der Selbstwirksamkeit von Lehramtsstudierenden während der Lehrkräfteausbildung untersucht. Studie 1 konzentriert sich daher auf die Veränderung der Selbstwirksamkeit von Lehramtsstudierenden während kurzer praktischer Unterrichtserfahrungen im Vergleich zur Online-Lehre ohne Unterrichtserfahrung. Aufgrund inkonsistenter Befunde zu den wechselseitigen Beziehungen zwischen den Selbstwirksamkeitserwartungen von Lehrkräften und ihrem Unterrichtsverhalten (Holzberger et al., 2013; Lazarides et al., 2022) wurde in Studie 2 der Zusammenhang zwischen der Selbstwirksamkeit von Lehramtsstudierenden und ihrem Unterrichtsverhalten während des Lehramtsstudiums untersucht. Da Feedback als verbale Überzeugung (verbal persuasion) dienen kann und somit eine wichtige Quelle für Selbstwirksamkeitserwartungen ist, die das Gefühl der Kompetenz stärkt (Pfitzner-Eden, 2016b), fokussiert Studie 2 den Zusammenhang zwischen der Veränderung der Selbstwirksamkeit von Lehramtsstudierenden und der wahrgenommenen Qualität des Peer-Feedbacks im Kontext kurzer schulpraktischer Erfahrungen während des Lehramtsstudiums. Darüber hinaus ist es für die Untersuchung der Veränderung von Selbstwirksamkeit bei Lehramtsstudierenden wichtig, individuelle Persönlichkeitsaspekte und spezifische Bedingungen der Lernumgebung in der Lehrkräftebildung zu untersuchen (Bach, 2022). Ausgehend von der Annahme, dass die Unterstützung von Reflexionsprozessen in der Lehrkräftebildung (Menon & Azam, 2021) und der Einsatz innovativer Lernsettings wie VR-Videos (Nissim & Weissblueth, 2017) die Entwicklung von Selbstwirksamkeitserwartungen von Lehramtsstudierenden fördern, werden in Studie 3 und Studie 4 Reflexionsprozesse bei Lehramtsstudierenden in Bezug auf ihre eigenen Unterrichtserfahrungen bzw. stellvertretenden Unterrichtserfahrungen anderer untersucht. Vor dem Hintergrund inkonsistenter Befunde und fehlender empirischer Forschung zu den Zusammenhängen zwischen Selbstwirksamkeit von Lehramtsstudierenden und verschiedenen Faktoren, die das Lernumfeld oder persönliche Merkmale betreffen, sind weitere empirische Studien erforderlich, die verschiedene Quellen und Zusammenhänge der Selbstwirksamkeitserwartungen von Lehramtsstudierenden während des Lehramtsstudiums untersuchen. In diesem Zusammenhang wird in der vorliegenden Dissertation der Frage nachgegangen, welche individuellen Merkmale und Lernumgebungen die Selbstwirksamkeit von Lehramtsstudierenden – insbesondere während kurzer schulpraktischer Phasen im Lehramtsstudium fördern können. Darüber hinaus schließt die Dissertation mit der Diskussion der Ergebnisse aus den vier Teilstudien ab, indem Stärken und Schwächen jeder Studie gesamtheitlich in den Blick genommen werden. Abschließend werden Limitationen und Implikationen für die weitere Forschung und die Praxis diskutiert.
Die Arbeit ist ein Beitrag zu einer grundlegenden Diskussion der Kapitalmarktforschung, dem messbaren Erfolg „aktiver vs. passiver“ Investmentstrategien. Der Autor setzt sich kritisch mit den wesentlichen Anlagestrategien und Modellen für Indexprodukte auseinander und beleuchtet zugleich Closet Indexing bei aktiv gemanagten Investmentfonds. Das Ergebnis zeigt, dass Closet Indexing nicht nur sporadisch auftritt, sondern eine weit verbreitete Anlagestrategie in vielen vermeintlich aktiv gemanagten Aktieninvestmentfonds ist.
Das Image der Päpste
(2022)
Wie jede öffentlichkeitssuchende Institution oder Person legen auch die katholische Kirche und ihre Päpste großen Wert auf das eigene Image. Dabei weicht die intendierte Selbstdarstellung oftmals von der medialen Wahrnehmung ab oder steht ihr sogar diametral entgegen. Ganz gleich ob Pius XII. als „Hitlers Papst“, Johannes XXIII. als „Revoluzzer“ oder Paul VI. als „Antipillenpapst“ – es existieren eine Fülle von außen zugetragener printmedialer Papst-Images, deren Entstehung, Verlauf und Brüche es in diesem Buch mithilfe einer mediensemiotischen, textbasierten Methodik auszumachen und nachzuzeichnen gilt.
Der Jüdische Friedhof in Potsdam am Pfingstberg wurde 1743 angelegt und kontinuierlich bis in die NS-Zeit belegt. Bis Anfang des 21. Jahrhunderts gab es vereinzelte Begräbnisse mit Bezug zur alten Jüdischen Gemeinde Potsdams; mehrere Gedenkanlagen wurden errichtet. Mit mehr als 500 historischen Grabanlagen, seinem Ensemble aus Friedhofsbauten sowie aufgrund seiner Landschaftsarchitektur gehört dieser Ort heute zum UNESCO-Welterbe.
Teil 1 von Anke Geißler-Grünbergs Studie ist der Geschichte des Friedhofs gewidmet. Nach einem Blick auf die Rolle der Jüdischen Gemeinde Potsdams als Eigentümerin des Friedhofs erfolgt unter Auswertung von umfangreichem Archivmaterial eine detaillierte Darstellung der Geschichte des „Guten Ortes“. Eine Untersuchung sämtlicher Grabmale auf unterschiedliche Gestaltungsmerkmale visualisiert und rekonstruiert die Veränderungen in der erhaltenen Sepulkralkultur. Abschließend richtet sich der Fokus auf den Umgang mit dem Friedhof als Ort der Erinnerung.
Teil 2 bietet die Dokumentation von 370 Grabanlagen. Um den Friedhof in seiner Gesamtheit abzubilden, wurde die 1992 erfolgte Teildokumentation der 158 Grabsteine des gesamten ältesten Begräbnisfeldes ergänzend hinzugenommen. Mit mehr als 1.000 Fotos wird hier ein einmaliges Zeugnis der Brandenburger Juden dokumentiert.
Lehrkräftefortbildungen bieten in Deutschland im Rahmen der dritten Phase der Lehrkräftebildung eine zentrale Lerngelegenheit für die Kompetenzentwicklung der Lehr-kräfte (Avalos, 2011; Guskey & Yoon, 2009). In dieser Phase können Lehrkräfte aus einem Angebot an berufsbegleitenden Lerngelegenheiten wählen, die auf die Anpassung und Weiterentwicklung ihrer professionellen Kompetenzen abzielen. Im Rahmen dieser Professionalisierungsmaßnahmen haben Lehrkräfte Gelegenheit zur Reflexion und Weiterentwicklung ihrer Unterrichtspraxis. Deshalb sind Lehrkräftefortbildungen auch für die Entwicklung von Unterrichtsqualität und das Lernen der Schüler:innen bedeutsam (Lipowsky, 2014).
Ergebnisse der Nutzungsforschung zeigen jedoch, dass das Fortbildungsangebot nicht von allen Lehrkräften im vollen Umfang genutzt wird und sich Lehrkräfte in dem Nutzungsumfang dieser beruflichen Lerngelegenheiten unterscheiden (Hoffmann & Richter, 2016). Das hat zur Folge, dass das Wirkpotenzial des Fortbildungsangebots nicht voll ausgeschöpft werden kann. Um die Nutzung von Lehrkräftefortbildungen zu fördern, werden auf unterschiedlichen Ebenen verschiedene Steuerungsinstrumente von Akteuren eingesetzt. Die Frage nach der Steuerungsmöglichkeit im Rahmen der dritten Phase der Lehrkräftebildung ist bislang jedoch weitestgehend unbearbeitet geblieben.
Die vorliegende Arbeit knüpft an die bestehende Forschung zur Lehrkräftefortbildung an und nutzt die theoretische Perspektive der Educational Governance, um im Rahmen von vier Teilstudien der Frage nachzugehen, welche Instrumente und Potenziale der Steue-rung auf den unterschiedlichen Ebenen des Lehrkräftefortbildungssystems bestehen und wie diese durch die verschiedenen politischen und schulischen Akteure umgesetzt werden. Außerdem soll der Frage nachgegangen werden, wie wirksam die genutzten Steuerungsinstrumente im Hinblick auf die Nutzung von Lehrkräftefortbildungen sind. Die übergeordnete Fragestellung wird vor dem Hintergrund eines für das Lehrkräftefortbildungssystem abgelei-teten theoretischen Rahmenmodells in Form eines Mehrebenenmodells bearbeitet, welches als Grundlage für die theoretische Verortung der nachfolgenden empirischen Untersuchungen zur Fortbildungsnutzung und der Wirksamkeit verschiedener Steuerungsinstrumente dient.
Studie I nimmt vor diesem Hintergrund die Ebene der politischen Akteure in den Blick und geht der Frage nach, wie bedeutsam die gesetzliche Fortbildungspflicht für die Fortbildungsbeteiligung von Lehrkräften ist. Hierzu wurde untersucht, inwiefern Zusammenhänge zwischen der Fortbildungsteilnahme von Lehrkräften und der Zugehörigkeit zu Bundesländern mit und ohne konkreter Fortbildungsverpflichtung sowie zu Bundesländern mit und ohne Nachweispflicht absolvierter Fortbildungen bestehen. Dazu wurden Daten aus dem IQB-Ländervergleich 2011 und 2012 sowie dem IQB-Bildungstrend 2015 mittels logistischer und linearer Regressionsmodelle analysiert.
Studie II und Studie III widmen sich den Rahmenbedingungen für schulinterne Fortbildungen. Studie II befasst sich zunächst mit schulformspezifischen Unterschieden bei der Wahl der Fortbildungsthemen. Studie III untersucht das schulinterne Fortbildungsangebot hinsichtlich des Nutzungsumfangs und des Zusammenhangs zwischen Schulmerkmalen und der Nutzung unterschiedlicher Fortbildungsthemen. Darüber hinaus wird ein Vergleich zwi-schen den beiden Angebotsformaten hinsichtlich des jeweiligen Anteils an thematischen Fortbildungsveranstaltungen vorgenommen. Hierzu wurden Daten der Fortbildungsdatenbank des Landes Brandenburg ausgewertet.
Neben der Untersuchung der Fortbildungsteilnahme im Zusammenhang mit administrativen Vorgaben und der Nutzung des schulinternen Fortbildungsangebots auf Schulebene wurde zur Bearbeitung der übergeordneten Forschungsfrage der vorliegenden Arbeit in der Studie IV darüber hinaus eine Untersuchung des Einsatzes von Professionalisierungsmaßnahmen im Rahmen schulischer Personalentwicklung durchgeführt. Durch die qualitative Studie IV wurde ein vertiefender Einblick in die schulische Praxis ermöglicht, um die Kenntnisse aus den quantitativen Studien I bis III zu ergänzen. Im Rahmen einer qualitati-ven Interviewstudie wurde der Frage nachgegangen werden, wie Schulleitungen ausgezeichneter Schulen Personalentwicklung auffassen, welche Informationsquellen sie hierbei mit einbeziehen und welche Maßnahmen sie nutzen und in diesem Sinne Personalentwicklung als ein Instrument für Organisationsentwicklung einsetzen.
Im abschließenden Kapitel der vorliegenden Arbeit werden die zentralen Ergebnisse der durchgeführten Studien zusammenfassend diskutiert. Die Ergebnisse der Arbeit deuten insgesamt darauf hin, dass Akteure auf den jeweiligen Ebenen direkte und indirekete Steuerungsinstrumente mit dem Ziel einsetzen, die Nutzung des zur Verfügung stehenden Angebots zu erhöhen, allerdings erzielen sie mit den genutzten Instrumenten nicht die gewünschte Steuerungswirkung. Da sie weder mit beruflichen Sanktionen noch mit Anreizen verknüpft sind, fehlt es den bestehenden Steuerungsinstrumenten an Durchsetzungsmacht. Außerdem wird das Repertoire an möglichen Steuerungsinstrumenten von den beteiligten Akteuren nicht ausgeschöpft. Die Ergebnisse dieser Arbeit bieten somit die Grundlage für anknüpfende Forschungsarbeiten und geben Anreize für mögliche Implikationen in der Praxis des Fortbildungssystems und der Bildungspolitik.
Proteine sind an praktisch allen Prozessen in lebenden Zellen maßgeblich beteiligt. Auch in der Biotechnologie werden Proteine in vielfältiger Weise eingesetzt.
Ein Protein besteht aus einer Kette von Aminosäuren. Häufig lagern sich mehrere dieser Ketten zu größeren Strukturen und Funktionseinheiten, sogenannten Proteinkomplexen,
zusammen. Kürzlich wurde gezeigt, dass eine Proteinkomplexbildung bereits während der Biosynthese der Proteine (co-translational) stattfinden kann
und nicht stets erst danach (post-translational) erfolgt. Da Fehlassemblierungen von Proteinen zu Funktionsverlusten und adversen Effekten führen, ist eine präzise und verlässliche Proteinkomplexbildung sowohl für zelluläre Prozesse als auch für biotechnologische Anwendungen essenziell. Mit experimentellen Methoden lassen sich zwar u.a. die Stöchiometrie und die Struktur von Proteinkomplexen bestimmen,
jedoch bisher nicht die Dynamik der Komplexbildung auf unterschiedlichen Zeitskalen. Daher sind grundlegende Mechanismen der Proteinkomplexbildung noch nicht vollständig verstanden. Die hier vorgestellte, auf experimentellen Erkenntnissen aufbauende, computergestützte Modellierung der Proteinkomplexbildung erlaubt eine umfassende Analyse des Einflusses physikalisch-chemischer Parameter
auf den Assemblierungsprozess. Die Modelle bilden möglichst realistisch die experimentellen Systeme der Kooperationspartner (Bar-Ziv, Weizmann-Institut, Israel; Bukau und Kramer, Universität Heidelberg) ab, um damit die Assemblierung von Proteinkomplexen einerseits in einem quasi-zweidimensionalen synthetischen Expressionssystem (in vitro) und andererseits im Bakterium Escherichia coli (in vivo) untersuchen zu können. Mit Hilfe eines vereinfachten Expressionssystems, in dem die Proteine nur an die Chip-Oberfläche, aber nicht aneinander binden können, wird das theoretische Modell parametrisiert. In diesem vereinfachten in-vitro-System durchläuft die Effizienz der Komplexbildung drei Regime – ein bindedominiertes Regime, ein Mischregime und ein produktionsdominiertes Regime. Ihr Maximum erreicht die Effizienz dabei kurz nach dem Übergang vom bindedominierten ins Mischregime und fällt anschließend monoton ab. Sowohl im nicht-vereinfachten in-vitro- als auch im in-vivo-System koexistieren je zwei konkurrierende Assemblierungspfade: Im in-vitro-System erfolgt die Komplexbildung entweder spontan in wässriger Lösung (Lösungsassemblierung) oder aber in einer definierten Schrittfolge an der Chip-Oberfläche (Oberflächenassemblierung); Im in-vivo-System konkurrieren hingegen die co- und die post-translationale Komplexbildung. Es zeigt sich, dass die Dominanz der Assemblierungspfade im in-vitro-System zeitabhängig ist und u.a. durch die Limitierung und Stärke der Bindestellen auf der Chip-Oberfläche beeinflusst werden kann. Im in-vivo-System hat der räumliche Abstand zwischen den Syntheseorten der beiden Proteinkomponenten nur dann einen Einfluss auf die Komplexbildung, wenn die Untereinheiten schnell degradieren. In diesem Fall dominiert die co-translationale Assemblierung auch auf kurzen Zeitskalen deutlich, wohingegen es bei stabilen Untereinheiten zu einem Wechsel von der Dominanz der post- hin zu einer geringen Dominanz der co-translationalen Assemblierung kommt. Mit den in-silico-Modellen lässt sich neben der Dynamik u.a. auch die Lokalisierung der Komplexbildung und -bindung darstellen, was einen Vergleich der theoretischen Vorhersagen mit experimentellen Daten und somit eine Validierung der Modelle ermöglicht. Der hier präsentierte in-silico Ansatz ergänzt die experimentellen Methoden, und erlaubt so, deren Ergebnisse zu interpretieren und neue Erkenntnisse davon abzuleiten.
Während das nationale und das europäische Wettbewerbsrecht seit vielen Jahrzehnten eine differenzierte Regelung und wissenschaftliche Durchdringung erfahren haben, ist ein vergleichbarer wettbewerbsrechtlicher Normenbestand auf internationaler Ebene nicht zu verzeichnen. Diese Dissertation greift diese Forschungslücke auf und plädiert für die Schaffung eines internationalen, multilateralen Wettbewerbsrechts. Dabei wird der Bestand an hard-law und soft-law untersucht und als Ergebnis gefordert, neue multilaterale Wettbewerbsregelungen zu entwerfen. In institutioneller Hinsicht ist zu fragen, innerhalb welcher internationaler Organisation dies sinnvoll erfolgen kann. Insgesamt unternimmt die Dissertation den Versuch, mögliche Konturen einer globalen Wettbewerbsrechtsordnung aufzuzeigen und vertieft zu begründen.
Die internationale Schifffahrt erhofft sich mit der Entwicklung unbemannter Schiffe, die nur noch von Kontrollzentren an Land durch Personal überwacht werden und sonst durch Elektromotoren und Solarenergie betrieben und mit selbstlernenden Navigationsprogrammen ausgestattet weitgehend autark agieren, eine Einsparung von Transportkosten von über 20 %. Diese voranschreitende technische Entwicklung wird insbesondere das internationale Seerecht in Zukunft vor Herausforderungen stellen. Das Werk untersucht vor diesem Hintergrund primär die Kompatibilität dieser Schiffe mit dem Seerechtsübereinkommen. Zunächst wird eine Schiffsdefinition für den Vertrag entwickelt und eine Anwendung des Regelwerks auf autonome Schiffe überprüft. Dann wird auf Problemfelder wie die Einhaltung von Pflichten durch die Schiffe, die Notwendigkeit besonderer Schutzrechte vor allem in Bezug auf Zwangsmaßnahmen durch die Küstenstaaten an Bord und die Anwendbarkeit der bestehenden Piraterievorschriften auf diese Schiffe eingegangen. Weiter wirft die Arbeit die Frage auf, ob die Staatengemeinschaft, besonders mit Hinblick auf den maritimen Umweltschutz, nach dem Seerechtsübereinkommen eine Pflicht zur Förderung unbemannter Schiffe hat. Abschließend wird auf erforderliche Cyber Security Maßnahmen für diesen besonderen Schiffstyp eingegangen. Insgesamt zeigt sich nach dieser Analyse, dass das Seerechtsübereinkommen, mit überschaubaren Anpassungen, gut Anwendung auf autonome Schiffe finden kann.
Ein Dach über Europa
(2022)
Wo ist Deutschlands Raketenabwehr? Diese Frage rückte nach der völkerrechtswidrigen Annexion der Krim durch Russland 2014 in den Fokus der Presseberichterstattung. Für die Abwehr von ballistischen Raketen ist die Flugabwehrraketentruppe der Luftwaffe zuständig. Im Ost-West-Konflikt schützten rund 18.600 deutsche Soldaten im Rahmen der Integrierten NATO-Luftverteidigung die westliche Allianz vor Luftangriffen durch den Warschauer Pakt. Nach der Wiedervereinigung befand sich der Luftverteidigungsgürtel des Bündnisses nicht nur in einer geografisch wirkungslosen Position, sondern ihm fehlte auch die Daseinsberechtigung. Mit seiner Auflösung ging ein erheblicher Abbau von Personal und Material der Flugabwehrraketenverbände einher. Nach der Neuausrichtung der Bundeswehr 2012 blieb diesem Dienstbereich der Luftwaffe nur noch ein Geschwader mit rund 2.300 Dienstposten. Der alte Feind war weg – und Deutschland nach 1989/90 umgeben von Freunden und Verbündeten. Warum also sollte die Regierung in eine Fähigkeit investieren, die Deutschland für sich selbst nicht brauchte?
Präexistente Musik im Film
(2022)
Vom Weltuntergang mit Richard Wagners "Tristan und Isolde" über die Gesangsperformance einer zum Tode verurteilten Björk am Galgen bis hin zu Johann Sebastian Bachs Orgelmusik als Erklärungsmodell für Hypersexualität: So seltsam das Kino des Lars von Trier erscheinen mag, so vielfältige Möglichkeiten bietet es, über ein Musikphänomen nachzudenken, das einen Großteil der heutigen Kunst- und Unterhaltungswelt prägt.
In Lars von Triers Filmen erklingt hauptsächlich Musik, die es bereits vor den Filmen gab. Einerseits besitzt solche präexistente Musik ein ausgeprägtes Eigenleben, andererseits entsteht aus der filmischen Aneignung etwas Neues. Am Beispiel eines der einflussreichsten Regisseure der Gegenwart untersucht Pascal Rudolph, wie Filmschaffende Musik adaptieren und wie dadurch Bedeutungen und Wirkungen entstehen. Erstmals bietet das Buch auf Grundlage von unveröffentlichtem Produktionsmaterial und Insider-Interviews detaillierte Einblicke in die Arbeit bei Lars von Triers Filmprojekten im Besonderen, aber auch in die Arbeitsprozesse der filmmusikalischen Gestaltung im Allgemeinen. Der musikalischen Vielfalt in den Filmen wird die Studie durch ihren multiperspektivischen und transdisziplinären Ansatz gerecht. Die zehn Kapitel beleuchten das Zusammenwirken von Musik und Film auf diese Weise aus verschiedenen Blickwinkeln.
Die Rechtsfigur der fehlerhaften Personengesellschaft blickt sowohl im deutschen als auch im französischen Recht auf eine lange Tradition zurück, wobei sich das deutsche Recht in seinen Anfangszeiten am französischen Vorbild orientierte. Auch mit Blick auf die heutige gesetzliche Regelung in Frankreich lohnt sich daher eine rechtsvergleichende Untersuchung der Lehre von der fehlerhaften Personengesellschaft in beiden Ländern.
Trotz der unterschiedlichen dogmatischen Herangehensweise offenbaren sich wichtige Vergleichsmöglichkeiten. Besonders bei der konstruktiven Einordnung des Phänomens von Faktizität im Zivilrecht kann sich die Perspektive des französischen Rechts als ausgesprochen fruchtbar für die deutsche Dogmatik erweisen.
Der Autor untersucht das System des gerichtlichen Rechtsschutzes gegen beamtenrechtliche Personalauswahlentscheidungen im Hinblick auf dessen tatsächliche Wirksamkeit zur Durchsetzung des Grundrechts auf gleichen Zugang zu öffentlichen Ämtern aus Art. 33 Abs. 2 GG. Maßstab der Wirksamkeitsprüfung ist die Rechtsschutzgarantie aus Art. 19 Abs. 4 S. 1 GG. Berücksichtigt werden insbesondere die Modifikationen der etablierten Rechtsschutzdogmatik durch das Urteil des BVerwG vom 04.11.2010. Der Autor konstatiert, dass Bewerbern um ein öffentliches Amt nun zwar ein formell lückenloser Primärrechtsschutz eingeräumt wird. Dessen praktische Wirksamkeit ist jedoch durch zahlreiche prozessuale Besonderheiten und die Handhabung des dem Dienstherrn bei der Auswahlentscheidung zugebilligten weiten Beurteilungs- und Ermessensspielraums erheblich eingeschränkt. Der Autor folgert, dass der geforderte effektive gerichtliche Rechtsschutz nur durch eine rechtsschutzfreundliche Gestaltung des behördlichen Auswahlverfahrens gewährleistet werden kann, und leitet bestimmte organisatorische Mindestanforderungen an das Auswahlverfahren her.
Zionism and Cosmopolitanism
(2022)
Schulleitungen nehmen eine zentrale Rolle bei der Weiterentwicklung der schulischen Qualität ein. Hierfür existieren Hinweise empirischer Untersuchungen, die Schulleitungen attestieren, dass ihr berufliches Handeln im direkten Zusammenhang mit Strukturen und Prozessen der schulischen Arbeit und mit Merkmalen auf Ebene der Lehrkräfte steht (z.B. Berufszufriedenheit, professionelle Weiterentwicklung; Kim & Lee, 2020; Liu, Keeley, Sui & Sang, 2021). Über diese Zusammenhänge steht das Führungshandeln von Schulleitungen in einer indirekten Beziehung mit der Qualität des Unterrichts sowie mit den Leistungen von Schüler*innen (z.B. Grissom, Egalite & Lindsay, 2021; Özdemir, Gün & Yirmibes, 2021; Pietsch, Lücken, Thonke, Klitsche & Musekamp, 2016). Im Rahmen der schulischen Entwicklung tragen Schulleitungen wesentlich dazu bei, die Entwicklungsbedarfe der Schule zu identifizieren, konkrete Zielstellungen zu definieren sowie entsprechende Maßnahmen zur Erreichung dieser Ziele zu planen, zu implementieren und zu evaluieren (vgl. Dalin, Rolff & Buchen, 1998). In all diese Prozesse können Schulleitungen weitere Mitglieder ihres Leitungsteams sowie Lehrkräfte involvieren und ihnen somit indirekt Führungsverantwortung übertragen (Heck & Hallinger, 2010). Auch aus normativer Perspektive nehmen Schulleitungen eine wichtige Funktion für die schulische Qualität ein. So verfügen sie neben Aufgaben der Administration und Verwaltung der Schule auch zunehmend über die Verantwortung, die schulische Qualität weiterzuentwickeln (Schratz, Wiesner, Kemethofer, George, Rauscher, Krenn & Huber, 2016). In Anbetracht der hohen Relevanz schulischen Führungshandelns für die Schulentwicklung, müssen Schulleitungen über die Kompetenzen zur Ausübung entsprechender Tätigkeiten verfügen. Diese können sie im Zuge einer vorbereitenden Ausbildung sowie durch Angebote der berufsbegleitenden Fort- und Weiterbildung erwerben. Die vorliegende Dissertation schließt an bestehende Forschungsarbeiten an und untersucht mithilfe von insgesamt vier Teilstudien, (1) über welche Aufgaben Schulleitungen hinsichtlich der Schulentwicklung verfügen, (2) wie ihr Handeln mit der Kooperation von Lehrkräften zusammenhängt, (3) wie sie die Zusammenarbeit von Lehrkräften im Rahmen der Schulentwicklung fördern können und (4) wie Schulleitungen auf Tätigkeiten der Schulentwicklung im Rahmen einer Fortbildung vorbereitet werden können. Insgesamt unterstreichen die vier Teilstudien in vielfältiger Weise die Relevanz von Schulleitungen und ihrem beruflichen Handeln für Strukturen und Prozesse der Schulentwicklung. Die Befunde können zeigen, inwiefern Schulleitungen über Aufgaben im Bereich der Schulentwicklung verfügen, wir ihr Handeln mit der Partizipation und Zusammenarbeit und von Lehrkräften im Rahmen der Schulentwicklung zusammenhängt und wie Schulleitungen auf Tätigkeiten der Schulentwicklung im Kontext von Fortbildungen vorbereitet werden können. Diesen Befunden sollte in Zukunft Rechnung getragen werden, indem Schulleitungen einerseits mehr Zeiten und Möglichkeiten für Tätigkeiten der Schulentwicklung eingeräumt werden. Anderseits betonen die Befunde die hohe Relevanz grundständig ausgebildeter Schulleitungen, um die Qualität der schulischen Arbeit längerfristig und eigenverantwortlich weiterentwickeln zu können. Dies sollte im Rahmen der Aus- und Fortbildung von Schulleitungen berücksichtigt werden.
Pensionskassen
(2022)
Die Kapitalanlage von Pensionskassen in Investmentfonds wird dadurch erschwert, dass sich die sie betreffenden aufsichts- und steuerrechtlichen Normen widersprechen. Die den Pensionskassen aufsichtsrechtlich zugestandene Kaitalanlage, wird durch die aktuelle Lesart ihrer Steuerbefreiung beschränkt. Die Steuerbefreiung soll demnach entfallen, soweit die Pensionskasse durch die Kapitalanlage gewerbliche Einkünfte erzielt. Dann sei die dauernde Einkünfte- und Vermögensbindung für die Zwecke der Kasse nach § 5 Abs. 1 Nr. 3 lit. c KStG nicht gesichert. Das benachteiligt die Pensionskassen bei der Erwirtschaftung von Rentenleistungen. Zugleich findet diese Lesart bei der Auslegung der entsprechenden steuerrechtlichen Normen keinen Zuspruch.
Die Regierung des Waldes
(2022)
Wie verändert sich die Beziehung von Gesellschaften zu ihrer natürlichen Umgebung über die Zeit? Wie werden natürliche Systeme »in Wert« gesetzt? Und welchen Einfluss hat das auf die von uns so bezeichnete »Natur«? Am Beispiel eines Korkeichenwaldes in Marokko geht Juliane Schumacher diesen Fragen nach. Unter Bezugnahme auf Ansätze der Politischen Ökologie, der Science and Technology Studies und Foucaults Gouvernementalitätsanalyse zeigt sie, wie sich seit der Kolonialzeit die Bewirtschaftung des Waldes verändert hat. Dabei wird deutlich, wie Programme zur Integration der Wälder in globale Finanz- und Kohlenstoffmärkte zu neuen, experimentellen Formen der »Regierung des Waldes« führen.
Illegale Preisabsprachen und andere Kartellverstöße verursachen jährlich Schäden in Millionenhöhe. Um solche Schäden einzuklagen, sind Unternehmen und Bürger jedoch auf Informationen angewiesen, die ihnen regelmäßig verborgen sind. Abhilfe sollen die in §§ 33g, 89b f. GWB kreierten Offenlegungsansprüche schaffen, die Anja Meier-Hoffmann analysiert.
Das kolonisierte Heiligtum
(2022)
Während der Zeit des historischen Kolonialismus wurden in Völkerkundemuseen komplexe Formen rassistischer und religiöser Diskriminierung institutionalisiert, z.B. in den dort gültigen Ästhetik- und Kunstbegriffen. Viele der heutigen Museumsangestellten erklären sich deswegen zu Reformen bereit. Doch können sie sich tatsächlich vom Kolonialismus trennen? Ist eine Dekolonisation ethnologischer Museen mit kolonialer Beute je abschließend möglich? Am Beispiel umstrittener Heiligtümer lebender Kulturen untersucht Christoph Balzar das Verfahren der Musealisierung durch die Linse der Diskriminierungskritik. Im Fokus stehen dabei die Sammlungen der »Staatlichen Museen zu Berlin«.
Die Conversos
(2022)
Das 15. Jahrhundert ist das Zeitalter der letzten Massenkonversionen zum Christentum auf der Iberischen Halbinsel. Unter starkem Druck und zum Teil mit Gewalt wurde die zuvor große jüdische Bevölkerung gedrängt, sich taufen zu lassen. Gleichwohl akzeptierten große Teile der christlichen Mehrheit die Neubekehrten nicht als gleichwertig und bezweifelten ihre Rechtgläubigkeit. Gegen diese Diskriminierung wandten sich immer wieder Geistliche und Gelehrte mit Predigten, Briefen und Denkschriften. Die vorliegende Studie zeichnet erstmals detailliert die wesentlichen Inhalte ihrer Theologie nach, ihre spezielle Auslegung der Bibel und deren Wurzeln in Recht und Tradition der lateinischen Kirche.
Turnschuhdiplomatie
(2022)
Auch wenn der Sport der DDR mit seinen Rekorden und Medaillen als eines ihrer weltweiten Aushängeschilder galt, fehlte bisher eine detaillierte Unter- suchung ihrer internationalen Sportbeziehungen. Der vorliegende Band holt dies in Form einer erstmaligen außen- und sportpolitischen Kontinentalstudie am Beispiel Afrikas nach und erörtert, welche Rolle die vielfältigen Facetten des Sports in der Afrikapolitik der DDR spielten und mit welchen Interessen diese u.a. in den Bereichen der Diplomatie, der kulturellen Auslandsarbeit, des Leistungssports oder des Außenhandels verknüpft waren. Die 610 Seiten starke Schrift beleuchtet die Zeit von 1955 bis 1990 und stützt sich dabei u.a. auf über 2200 (teils erstmals recherchierte) Quellen- und Literaturnachweise. Schwerpunkte bilden hierbei u.a. ausführliche Länder- und Regional- studien für Nordafrika (Ägypten, Algerien), Westafrika (Ghana, Mali, Guinea) sowie zu Äthiopien und Mosambik.
Die vorliegende Untersuchung zum internationalen Kryptowerterecht schafft einen umfassenden Überblick für die Praxis, indem eine systematische Analyse der Sachverhalte unter Berücksichtigung der technischen Besonderheiten, insbesondere der Blockchain, erfolgt. Kern der Arbeit stellen die vier untersuchten Sachverhalte dar, angefangen beim Mining, der Ausgabe neuer Kryptowerte im Rahmen eines ICO, Transaktionen auf dem Sekundärmarkt und der Prospekthaftung bei ICOs. Aus rechtlicher Sicht wird vor allem die Frage der internationalen Zuständigkeit nach der Brüssel Ia-VO und des anwendbaren Rechts nach der Rom I und II-VO behandelt. Zusätzlich werden Aspekte des Kapitalmarkt-IPR erörtert.
Am 1.5.2014 ist das Gesetz zur Regelung der vertraulichen Geburt in Kraft getreten. Damit sollte eine rechtssichere Alternative zu Babyklappen oder anonymen Geburten geschaffen werden. Die Regelungen ermöglichen schwangeren Personen, die bei der Geburt ihre Identität geheim halten wollen, eine medizinisch begleitete Entbindung und sichern gleichzeitig das Recht des Kindes auf Kenntnis seiner Herkunft sowie dessen Unterbringung. Neben juristischen Fragestellungen überprüft die Autorin die Anwendung der Regelungen in der Praxis anhand eigener Umfragen bei Familiengerichten und Jugendämtern. Sie analysiert die Frage, ob sich die vertrauliche Geburt als rechtssicheres Verfahren gegenüber vollständig anonymen Kindesabgaben durchsetzen konnte.
Das Promotionsvorhaben verfolgt das Ziel, die Zuverlässigkeit der Datenspeicherung und die Speicherdichte von neu entwickelten Speichern (Emerging Memories) mit Multi-Level-Speicherzellen zu verbessern bzw. zu erhöhen. Hierfür werden Codes zur Erkennung von unidirektionalen Fehlern analysiert, modifiziert und neu entwickelt, um sie innerhalb der neuen Speicher anwenden zu können. Der Fokus liegt dabei auf sog. Berger-Codes und m-aus-n-Codes. Da Multi-Level-Speicherzellen nicht mehr binär, sondern mit mehreren Leveln arbeiten, können bisher verwendete Codes nicht mehr verwendet werden, bzw. müssen entsprechend angepasst werden. Auf Basis der Berger-Codes und m-aus-n-Codes werden in dieser Arbeit neue Codes abgeleitet, welche in der Lage sind, Daten auch in mehrwertigen Systemen zu schützen.
Der Gefährdungsschaden
(2022)
Das Konzept des Gefährdungsschadens gehört seit mindestens 130 Jahren zum festen strafrechtlichen Repertoire. Allerdings ist bis heute nicht eindeutig geklärt, wo die Grenze zwischen vermögensrelevanten und -irrelevanten Gefährdungen verläuft. Im Gegensatz zu den bisherigen sachverhalts- und deliktsbezogenen Fallgruppen bildet Melanie Epe daher zehn induktiv-dogmatische Fallgruppen auf Basis aller in der Standardliteratur publizierten 382 Entscheidungen des Reichsgerichts, des BGH und der Obergerichte. Die Leistungsfähigkeit der Fallgruppen ist, dass diese die Figur des Gefährdungsschadens in der Praxis greifbarer machen. Denn es wird an dogmatische, wirtschaftliche Besonderheiten für die Begründung des Gefährdungsschadens angeknüpft.