Refine
Year of publication
Document Type
- Habilitation Thesis (30) (remove)
Language
- German (30) (remove)
Is part of the Bibliography
- yes (30)
Keywords
- Resonanzenergietransfer (2)
- Allomorphy (1)
- Amerikanische Schabe (1)
- Aquatic Ecology (1)
- Arabidopsis (1)
- Atrio-oesophageale Fistel (1)
- Auerbach, Erich (1)
- Begriffsgeschichte (1)
- Biene (1)
- Biogene Amine (1)
- Biohybride Organe (1)
- Biomaterialien (1)
- Biophysik (1)
- Christentum (1)
- Connectivity (1)
- Contemporary Literature (1)
- Density Functional Theory (1)
- Deutschdidaktik (1)
- Deutschland (1)
- Dichtefunktionaltheorie (1)
- Dopamin (1)
- Elektrophysiologie (1)
- English (1)
- Entzündung (1)
- Erziehung (1)
- Ethnische Beziehungen (1)
- Fettleibigkeit (1)
- Fluorescence (1)
- Fluoreszenz (1)
- Fluss (1)
- Französisch (1)
- Frühmittelalter (1)
- G protein-coupled receptors (1)
- G-Protein-gekoppelte-Rezeptoren (1)
- Gegenwartsliteratur (1)
- Geografieunterricht (1)
- Geschichte 1800-1900 (1)
- Gewaltforschung (1)
- Gewässerökologie (1)
- Groß- und Kleinschreibung (1)
- Hebrew (1)
- Huminstoffe (1)
- Ideologie (1)
- Insekten (1)
- Insulin (1)
- Intermolecular deactivation (1)
- Intermolekulare Desaktivierung (1)
- Ionenkanal (1)
- Irish (1)
- Kaliumion (1)
- Karibik (1)
- Kolonialismus (1)
- Konnektivität (1)
- Kulturelle Identität (1)
- Lake (1)
- Lanthanoide (1)
- Leber (1)
- Limnologie (1)
- Limnology (1)
- Liposuktion (1)
- Lipödem (1)
- Literatur (1)
- Literatursoziologie (1)
- Literaturtheorie (1)
- Lumineszenzsonden (1)
- Magnetotellurics (1)
- Magnetotellurik (1)
- Mobile Belts (1)
- Molekülkristalle (1)
- Neurotransmitter-Rezeptor (1)
- Oberflächen (1)
- Octopamin (1)
- Oesophagus-Schäden (1)
- Phenomenology (1)
- Philosophy of Science (1)
- Physics Education (1)
- Physikdidaktik (1)
- Phänomenologie (1)
- Politische Geschichte (1)
- Polymere (1)
- Post-Hartree Fock methods (1)
- Post-Hartree-Fock Methoden (1)
- Prostaglandine (1)
- Protein Adsorption (1)
- Rechtschreibung (1)
- River (1)
- Schmalwand <Arabidopsis> (1)
- Science Curriculum (1)
- See (1)
- Serotonin (1)
- Sociology of Literature (1)
- Sprache (1)
- Störungszonen (1)
- Transport- und Wechselwirkungsphase (1)
- Tyramin (1)
- Understanding (1)
- Unterrichtsvorschläge (1)
- Verstehen (1)
- Violence Research (1)
- Vorhofflimmern (1)
- Wissenschaftstheorie (1)
- Zelladhäsion (1)
- anharmonic force fields (1)
- anharmonische Kraftfelder (1)
- atrial fibrillation (1)
- atrio-esophageal fistula (1)
- biogenic amines (1)
- biohybrid organs (1)
- biomaterials (1)
- biophysics (1)
- cell adhesion (1)
- continental collision zones (1)
- dynamic and static quenching (1)
- dynamische und statische Löschung (1)
- electrical conductivity (1)
- electrophysiology (1)
- elektrische Leitfähigkeit (1)
- esophageal injury (1)
- figura (1)
- honeybee (1)
- humic substances (1)
- inflammation (1)
- insulin (1)
- intermolecular interactions (1)
- intermolekulare Wechselwirkungen (1)
- ion channel (1)
- language-specific constraint (1)
- lanthanides (1)
- lipedema (1)
- lipoedema (1)
- liposuction (1)
- liver (1)
- luminescence probes (1)
- molecular crystals (1)
- obesity (1)
- polymers (1)
- potassium ions (1)
- prostaglandins (1)
- protein adsorption (1)
- resonance energy transfer (1)
- resonant energy transfer (1)
- salivary gland (1)
- statistical models (1)
- statistische Modelle (1)
- surfaces (1)
- suture zones (1)
- thermic catheter ablation (1)
- thermische Katheterablation (1)
- transport and interaction phase (1)
Institute
- Institut für Biochemie und Biologie (5)
- Department Sport- und Gesundheitswissenschaften (4)
- Institut für Ernährungswissenschaft (3)
- Institut für Romanistik (3)
- Historisches Institut (2)
- Institut für Chemie (2)
- Institut für Physik und Astronomie (2)
- Department Erziehungswissenschaft (1)
- Department Psychologie (1)
- Fakultät für Gesundheitswissenschaften (1)
Intermolekulare Desaktivierung zwischen einem angeregten Fluorophor und einem Löscher durch Elektronenübertragung kann mit dynamischer und statischer Löschung beschrieben werden. Es wird vorgeschlagen den dynamischen Löschprozess in Transport- und Wechselwirkungsphase einzuteilen. Ergebnisse der Löschung der N-Heteroarene durch Naphthalen bei hohen Löscherkonzentrationen werden mit der statischen Löschung beschrieben. Außerdem werden CT-Systeme untersucht. Nach einem Überblick über statische Modelle zum Resonanzenergietransfer wird ein aus der Treffertheorie abgeleitetes Modell vorgestellt und an Beispielen getestet. Die Experimente sind computergesteuert.
Es ist schon seit längerer Zeit bekannt, dass nach Kontakt des Biomaterials mit der biologischen Umgebung bei Implantation oder extrakorporaler Wechselwirkung zunächst Proteine aus dem umgebenden Milieu adsorbiert werden, wobei die Oberflächeneigenschaften des Materials die Zusammensetzung der Proteinschicht und die Konformation der darin enthaltenden Proteine determinieren. Die nachfolgende Wechselwirkung von Zellen mit dem Material wird deshalb i.d.R. von der Adsorbatschicht vermittelt. Der Einfluss der Oberflächen auf die Zusammensetzung und Konformation der Proteine und die nachfolgende Wechselwirkung mit Zellen ist von besonderem Interesse, da einerseits eine Aussage über die Anwendbarkeit ermöglicht wird, andererseits Erkenntnisse über diese Zusammenhänge für die Entwicklung neuer Materialien mit verbesserter Biokompatibilität genutzt werden können. In der vorliegenden Habilitationsschrift wurde deshalb der Einfluss der Zusammensetzung von Polymeren bzw. von deren Oberflächeneigenschaften auf die Adsorption von Proteinen, den Aktivitätszustand der plasmatischen Gerinnung und die Adhäsion von Zellen untersucht. Dabei wurden auch Möglichkeiten zur Beeinflussung dieser Vorgänge über eine Veränderung der Volumenzusammensetzung oder durch Oberflächenmodifikationen von Biomaterialien vorgestellt. Erkenntnisse aus diesen Arbeiten konnten für die Entwicklung von Membranen für Biohybrid-Organe genutzt werden.
Immobilisierung bzw. Mobilisierung und Transport von Schadstoffen in der Umwelt, besonders in den Kompartimenten Boden und Wasser, sind von fundamentaler Bedeutung für unser (Über)Leben auf der Erde. Einer der Hauptreaktionspartner für organische und anorganische Schadstoffe (Xenobiotika) in der Umwelt sind Huminstoffe (HS). HS sind Abbauprodukte pflanzlichen und tierischen Gewebes, die durch eine Kombination von chemischen und biologischen Ab- und Umbauprozessen entstehen. Bedingt durch ihre Genese stellen HS außerordentlich heterogene Stoffsysteme dar, die eine Palette von verschiedenartigen Wechselwirkungen mit Schadstoffen zeigen. Die Untersuchung der fundamentalen Wechselwirkungsmechanismen stellt ebenso wie deren quantitative Beschreibung höchste Anforderungen an die Untersuchungsmethoden. Zur qualitativen und quantitativen Charakterisierung der Wechselwirkungen zwischen HS und Xenobiotika werden demnach analytische Methoden benötigt, die bei der Untersuchung von extrem heterogenen Systemen aussagekräftige Daten zu liefern vermögen. Besonders spektroskopische Verfahren, wie z.B. lumineszenz-basierte Verfahren, besitzen neben der hervorragenden Selektivität und Sensitivität, auch eine Multidimensionalität (bei der Lumineszenz sind es die Beobachtungsgrößen Intensität IF, Anregungswellenlänge lex, Emissionswellenlänge lem und Fluoreszenzabklingzeit tF), die es gestattet, auch heterogene Systeme wie HS direkt zu untersuchen. Zur Charakterisierung können sowohl die intrinsischen Fluoreszenzeigenschaften der HS als auch die von speziell eingeführten Lumineszenzsonden verwendet werden. In beiden Fällen werden die zu Grunde liegenden fundamentalen Konzepte der Wechselwirkungen von HS mit Xenobiotika untersucht und charakterisiert. Für die intrinsische Fluoreszenz der HS konnte gezeigt werden, dass neben molekularen Strukturen besonders die Verknüpfung der Fluorophore im Gesamt-HS-Molekül von Bedeutung ist. Konformative Freiheit und die Nachbarschaft zu als Energieakzeptor fungierenden HS-eigenen Gruppen sind wichtige Komponenten für die Charakteristik der HS-Fluoreszenz. Die Löschung der intrinsischen Fluoreszenz durch Metallkomplexierung ist demnach auch das Resultat der veränderten konformativen Freiheit der HS durch die gebundenen Metallionen. Es zeigte sich, dass abhängig vom Metallion sowohl Löschung als auch Verstärkung der intrinsischen HS-Fluoreszenz beobachtet werden kann. Als extrinsische Lumineszenzsonden mit wohl-charakterisierten photophysikalischen Eigenschaften wurden polyzyklische aromatische Kohlenwasserstoffe und Lanthanoid-Ionen eingesetzt. Durch Untersuchungen bei sehr niedrigen Temperaturen (10 K) konnte erstmals die Mikroumgebung von an HS gebundenen hydrophoben Xenobiotika untersucht werden. Im Vergleich mit Raumtemperaturexperimenten konnte gezeigt werden, dass hydrophobe Xenobiotika an HS-gebunden in einer Mikroumgebung, die in ihrer Polarität analog zu kurzkettigen Alkoholen ist, vorliegen. Für den Fall der Metallkomplexierung wurden Energietransferprozesse zwischen HS und Lanthanoidionen bzw. zwischen verschiedenen, gebundenen Lanthanoidionen untersucht. Basierend auf diesen Messungen können Aussagen über die beteiligten elektronischen Zustände der HS einerseits und Entfernungen von Metallbindungsstellen in HS selbst angeben werden. Es ist dabei zu beachten, dass die Experimente in Lösung bei realen Konzentrationen durchgeführt wurden. Aus Messung der Energietransferraten können direkte Aussagen über Konformationsänderungen bzw. Aggregationsprozesse von HS abgeleitet werden.
Kaliumionen (K<sup>+) sind die am häufigsten vorkommenden anorganischen Kationen in Pflanzen. Gemessen am Trockengewicht kann ihr Anteil bis zu 10% ausmachen. Kaliumionen übernehmen wichtige Funktionen in verschiedenen Prozessen in der Pflanze. So sind sie z.B. essentiell für das Wachstum und für den Stoffwechsel. Viele wichtige Enzyme arbeiten optimal bei einer K<sup>+ Konzentration im Bereich von 100 mM. Aus diesem Grund halten Pflanzenzellen in ihren Kompartimenten, die am Stoffwechsel beteiligt sind, eine kontrollierte Kaliumkonzentration von etwa 100 mM aufrecht. Die Aufnahme von Kaliumionen aus dem Erdreich und deren Transport innerhalb der Pflanze und innerhalb einer Pflanzenzelle wird durch verschiedene Kaliumtransportproteine ermöglicht. Die Aufrechterhaltung einer stabilen K<sup>+ Konzentration ist jedoch nur möglich, wenn die Aktivität dieser Transportproteine einer strikten Kontrolle unterliegt. Die Prozesse, die die Transportproteine regulieren, sind bis heute nur ansatzweise verstanden. Detailliertere Kenntnisse auf diesem Gebiet sind aber von zentraler Bedeutung für das Verständnis der Integration der Transportproteine in das komplexe System des pflanzlichen Organismus. In dieser Habilitationsschrift werden eigene Publikationen zusammenfassend dargestellt, in denen die Untersuchungen verschiedener Regulationsmechanismen pflanzlicher Kaliumkanäle beschrieben werden. Diese Untersuchungen umfassen ein Spektrum aus verschiedenen proteinbiochemischen, biophysikalischen und pflanzenphysiologischen Analysen. Um die Regulationsmechanismen grundlegend zu verstehen, werden zum einen ihre strukturellen und molekularen Besonderheiten untersucht. Zum anderen werden die biophysikalischen und reaktionskinetischen Zusammenhänge der Regulationsmechanismen analysiert. Die gewonnenen Erkenntnisse erlauben eine neue, detailliertere Interpretation der physiologischen Rolle der Kaliumtransportproteine in der Pflanze.
Biogene Amine sind kleine organische Verbindungen, die sowohl bei Wirbeltieren als auch bei Wirbellosen als Neurotransmitter, Neuromodulatoren und/oder Neurohormone wirken können. Sie bilden eine bedeutende Gruppe von Botenstoffen und entfalten ihre Wirkungen über die Bindung an eine bestimmte Klasse von Rezeptorproteinen, die als G-Protein-gekoppelte Rezeptoren bezeichnet werden. Bei Insekten gehören zur Substanzklasse der biogenen Amine die Botenstoffe Dopamin, Tyramin, Octopamin, Serotonin und Histamin. Neben vielen anderen Wirkung ist z.B. gezeigt worden, daß einige dieser biogenen Amine bei der Honigbiene (Apis mellifera) die Geschmacksempfindlichkeit für Zuckerwasser-Reize modulieren können. Ich habe verschiedene Aspekte der aminergen Signaltransduktion an den „Modellorganismen“ Honigbiene und Amerikanische Großschabe (Periplaneta americana) untersucht. Aus der Honigbiene, einem „Modellorganismus“ für das Studium von Lern- und Gedächtnisvorgängen, wurden zwei Dopamin-Rezeptoren, ein Tyramin-Rezeptor, ein Octopamin-Rezeptor und ein Serotonin-Rezeptor charakterisiert. Die Rezeptoren wurden in kultivierten Säugerzellen exprimiert, um ihre pharmakologischen und funktionellen Eigenschaften (Kopplung an intrazelluläre Botenstoffwege) zu analysieren. Weiterhin wurde mit Hilfe verschiedener Techniken (RT-PCR, Northern-Blotting, in situ-Hybridisierung) untersucht, wo und wann während der Entwicklung die entsprechenden Rezeptor-mRNAs im Gehirn der Honigbiene exprimiert werden. Als Modellobjekt zur Untersuchung der zellulären Wirkungen biogener Amine wurden die Speicheldrüsen der Amerikanischen Großschabe genutzt. An isolierten Speicheldrüsen läßt sich sowohl mit Dopamin als auch mit Serotonin Speichelproduktion auslösen, wobei Speichelarten unterschiedlicher Zusammensetzung gebildet werden. Dopamin induziert die Bildung eines völlig proteinfreien, wäßrigen Speichels. Serotonin bewirkt die Sekretion eines proteinhaltigen Speichels. Die Serotonin-induzierte Proteinsekretion wird durch eine Erhöhung der Konzentration des intrazellulären Botenstoffs cAMP vermittelt. Es wurden die pharmakologischen Eigenschaften der Dopamin-Rezeptoren der Schaben-Speicheldrüsen untersucht sowie mit der molekularen Charakterisierung putativer aminerger Rezeptoren der Schabe begonnen. Weiterhin habe ich das ebony-Gen der Schabe charakterisiert. Dieses Gen kodiert für ein Enzym, das wahrscheinlich bei der Schabe (wie bei anderen Insekten) an der Inaktivierung biogener Amine beteiligt ist und im Gehirn und in den Speicheldrüsen der Schabe exprimiert wird.
Phonology limited
(2007)
Phonology Limited is a study of the areas of phonology where the application of optimality theory (OT) has previously been problematic. Evidence from a wide variety of phenomena in a wide variety of languages is presented to show that interactions involving more than just faithfulness and markedness are best analyzed as involving language-specific morphological constraints rather than universal phonological constraints. OT has proved to be a highly insightful and successful theory of linguistics in general and phonology in particular, focusing as it does on surface forms and treating the relationship between inputs and outputs as a form of conflict resolution. Yet there have also been a number of serious problems with the approach that have led some detractors to argue that OT has failed as a theory of generative grammar. The most serious of these problems is opacity, defined as a state of affairs where the grammatical output of a given input appears to violate more constraints than an ungrammatical competitor. It is argued that these problems disappear once language-specific morphological constraints are allowed to play a significant role in analysis. Specifically, a number of processes of Tiberian Hebrew traditionally considered opaque are reexamined and shown to be straightforwardly transparent, but crucially involving morphological constraints on form, such as a constraint requiring certain morphological forms to end with a syllabic trochee, or a constraint requiring paradigm uniformity with regard to the occurrence of fricative allophones of stop phonemes. Language-specific morphological constraints are also shown to play a role in allomorphy, where a lexeme is associated with more than one input; the constraint hierarchy then decides which input is grammatical in which context. For example, [ɨ]/[ə] and [u]/[ə] alternation found in some lexemes but not in others in Welsh is attributed to the presence of two inputs for the lexemes with the alternation. A novel analysis of the initial consonant mutations of the modern Celtic languages argues that mutated forms are separately listed inputs chosen in appropriate contexts by constraints on morphology and syntax, rather than being outputs that are phonologically unfaithful to their unmutated inputs. Finally, static irregularities and lexical exceptions are examined and shown to be attributable to language-specific morphological constraints. In American English, the distribution of tense and lax vowels is predictable in several contexts; however, in some contexts, the distributions of tense [ɔ] vs. lax [a] and of tense [æ] vs. lax [æ] are not as expected. It is shown that clusters of output-output faithfulness constraints create a pattern to which words are attracted, which however violates general phonological considerations. New words that enter the language first obey the general phonological considerations before being attracted into the language-specific exceptional pattern.
Und der Zukunft abgewandt
(2010)
Seit dem Ende der DDR, das den Zusammenbruch des Ostblocks und damit die Beendigung des »Kalten Kriegs« einleitete, wird verstärkt versucht, das Wesen dieses Staates zu definieren und damit seine Folgen auf wirtschaftlicher, sozialer, psychologischer und bildungspolitischer Ebene zu verstehen und einzuordnen. Alexandra Budke analysiert in diesem Band das Schulfach Geographie, das neben der Staatsbürgerkunde und der Geschichte ein zentrales Fach war und in dem die in den Lehrplänen definierte »staatsbürgerliche, weltanschauliche oder ideologische Erziehung« auf der Grundlage des Marxismus-Leninismus stattfinden sollte. Sie klärt, inwiefern Geographieunterricht in der DDR genutzt wurde, um geopolitische Interessen des Staates zu kommunizieren und zu verbreiten. Damit lässt sich durch die detaillierte Analyse des Fachunterrichts auch die Frage beantworten, ob SchülerInnen im Unterricht politisch manipuliert wurden und welche Handlungsmöglichkeiten die zentralen Akteure des Unterrichts, die LehrerInnen und die SchülerInnen, im Rahmen der durch die Bildungspolitik gesetzten curricularen Vorgaben wahrgenommen haben.
Die vorliegende Arbeit versammelt zwei einleitende Kapitel und zehn Essays, die sich als kritisch-konstruktive Beiträge zu einem "erlebenden Verstehen" (Buck) von Physik lesen lassen. Die traditionelle Anlage von Schulphysik zielt auf eine systematische Darstellung naturwissenschaftlichen Wissens, das dann an ausgewählten Beispielen angewendet wird: Schulexperimente beweisen die Aussagen der Systematik (oder machen sie wenigstens plausibel), ausgewählte Phänomene werden erklärt. In einem solchen Rahmen besteht jedoch leicht die Gefahr, den Bezug zur Lebenswirklichkeit oder den Interessen der Schüler zu verlieren. Diese Problematik ist seit mindestens 90 Jahren bekannt, didaktische Antworten - untersuchendes Lernen, Kontextualisierung, Schülerexperimente etc. - adressieren allerdings eher Symptome als Ursachen. Naturwissenschaft wird dadurch spannend, dass sie ein spezifisch investigatives Weltverhältnis stiftet: man müsste gleichsam nicht Wissen, sondern "Fragen lernen" (und natürlich auch, wie Antworten gefunden werden...). Doch wie kann dergleichen auf dem Niveau von Schulphysik aussehen, was für einen theoretischen Rahmen kann es hier geben? In den gesammelten Arbeiten wird einigen dieser Spuren nachgegangen: Der Absage an das zu modellhafte Denken in der phänomenologischen Optik, der Abgrenzung formal-mathematischen Denkens gegen wirklichkeitsnähere Formen naturwissenschaftlicher Denkbewegungen und Evidenz, dem Potential alternativer Interpretationen von "Physikunterricht", der Frage nach dem "Verstehen" u.a. Dabei werden nicht nur Bezüge zum modernen bildungstheoretischen Paradigma der Kompetenz sichtbar, sondern es wird auch versucht, eine ganze Reihe konkrete (schul-)physikalische Beispiele dafür zu geben, was passiert, wenn nicht schon gewusste Antworten Thema werden, sondern Expeditionen, die sich der physischen Welt widmen: Die Schlüsselbegriffe des Fachs, die Methoden der Datenerhebung und Interpretation, die Such- und Denkbewegungen kommen dabei auf eine Weise zur Sprache, die sich nicht auf die Fachsystematik abstützen möchte, sondern diese motivieren, konturieren und verständlich machen will.
Die Koloniale Karibik
(2012)
Werden nicht in der Karibik des 19. Jahrhunderts Phänomene und Prozesse vorweg-genommen, die heute erst ins Bewusstsein gelangen? Der Blick auf die kaleidoskopartige Welt der Karibik über literarische und kulturelle Transprozesse in jener Epoche erlaubt völlig neue Einsichten in die frühen Prozesse der kulturellen Globalisierung. Rassistische Diskurse, etablierte Modelle „weißer“ Abolitionisten, Erinnerungspolitiken und die bisher kaum wahrgenommene Rolle der haitianischen Revolution verbinden sich zu einem Amalgam, das unser gängiges Konzept einer genuin westlichen Moderne in Frage stellt.
Gewässer werden traditionellerweise als abgeschlossene Ökosysteme gesehen, und insbeson¬dere das Zirkulieren von Wasser und Nährstoffen im Pelagial von Seen wird als Beispiel dafür angeführt. Allerdings wurden in der jüngeren Vergangenheit wichtige Verknüpfungen des Freiwasserkörpers von Gewässern aufgezeigt, die einerseits mit dem Benthal und andererseits mit dem Litoral, der terrestrischen Uferzone und ihrem Einzugsgebiet bestehen. Dadurch hat in den vergangen Jahren die horizontale und vertikale Konnektivität der Gewässerökosysteme erhöhtes wissenschaftliches Interesse auf sich gezogen, und damit auch die ökologischen Funktionen des Gewässergrunds (Benthal) und der Uferzonen (Litoral). Aus der neu beschriebenen Konnektivität innerhalb und zwischen diesen Lebensräumen ergeben sich weitreichende Konsequenzen für unser Bild von der Funktionalität der Gewässer. In der vorliegenden Habilitationsschrift wird am Beispiel von Fließgewässern und Seen des nordostdeutschen Flachlandes eine Reihe von internen und externen funktionalen Verknüpfungen in den horizontalen und vertikalen räumlichen Dimensionen aufgezeigt. Die zugrunde liegenden Untersuchungen umfassten zumeist sowohl abiotische als auch biologische Variablen, und umfassten thematisch, methodisch und hinsichtlich der Untersuchungsgewässer ein breites Spektrum. Dabei wurden in Labor- und Feldexperimenten sowie durch quantitative Feldmes¬sungen ökologischer Schlüsselprozesse wie Nährstoffretention, Kohlenstoffumsatz, extrazellu¬läre Enzymaktivität und Ressourcenweitergabe in Nahrungsnetzen (mittels Stabilisotopen¬methode) untersucht. In Bezug auf Fließgewässer wurden dadurch wesentliche Erkenntnisse hinsichtlich der Wirkung einer durch Konnekticität geprägten Hydromorphologie auf die die aquatische Biodiversität und die benthisch-pelagische Kopplung erbracht, die wiederum einen Schlüsselprozess darstellt für die Retention von in der fließenden Welle transportierten Stoffen, und damit letztlich für die Produktivität eines Flussabschnitts. Das Litoral von Seen wurde in Mitteleuropa jahrzehntelang kaum untersucht, so dass die durchgeführten Untersuchungen zur Gemeinschaftsstruktur, Habitatpräferenzen und Nahrungs¬netzverknüpfungen des eulitoralen Makrozoobenthos grundlegend neue Erkenntnisse erbrach¬ten, die auch unmittelbar in Ansätze zur ökologischen Bewertung von Seeufern gemäß EG-Wasserrahmenrichtlinie eingehen. Es konnte somit gezeigt werden, dass die Intensität sowohl die internen als auch der externen ökologischen Konnektivität durch die Hydrologie und Morphologie der Gewässer sowie durch die Verfügbarkeit von Nährstoffen wesentlich beeinflusst wird, die auf diese Weise vielfach die ökologische Funktionalität der Gewässer prägen. Dabei trägt die vertikale oder horizontale Konnektivität zur Stabilisierung der beteiligten Ökosysteme bei, indem sie den Austausch ermöglicht von Pflanzennährstoffen, von Biomasse sowie von migrierenden Organismen, wodurch Phasen des Ressourcenmangels überbrückt werden. Diese Ergebnisse können im Rahmen der Bewirtschaftung von Gewässern dahingehend genutzt werden, dass die Gewährleistung horizontaler und vertikaler Konnektivität in der Regel mit räumlich komplexeren, diverseren, zeitlich und strukturell resilienteren sowie leistungsfähi¬geren Ökosystemen einhergeht, die somit intensiver und sicherer nachhaltig genutzt werden können. Die Nutzung einer kleinen Auswahl von Ökosystemleistungen der Flüsse und Seen durch den Menschen hat oftmals zu einer starken Reduktion der ökologischen Konnektivität, und in der Folge zu starken Verlusten bei anderen Ökosystemleistungen geführt. Die Ergebnisse der dargestellten Forschungen zeigen auch, dass die Entwicklung und Implementierung von Strategien zum integrierten Management von komplexen sozial-ökologischen Systemen wesentlich unterstützt werden kann, wenn die horizontale und vertikale Konnektivität gezielt entwickelt wird.
In der vorliegenden Arbeit werden verschiedene Experimente zur Untersuchung der elektrischen Leitfähigkeit von Sutur- und Kollisionszonen im Zusammenhang diskutiert, um die Möglichkeiten, die die moderne Magnetotellurik (MT) für das Abbilden fossiler tektonischer Systeme bietet, aufzuzeigen. Aus den neuen hochauflösenden Abbildern der elektrischen Leitfähigkeit können potentielle Gemeinsamkeiten verschiedener tektonischer Einheiten abgeleitet werden. Innerhalb der letzten Dekade haben sich durch die Weiterentwicklung der Messgeräte und der Auswerte- und Interpretationsmethoden völlig neue Perspektiven für die geodynamische Tiefensondierung ergeben. Dies wird an meinen Forschungsarbeiten deutlich, die ich im Rahmen von Projekten selbst eingeworben und am Deutschen GeoForschungsZentrum Potsdam durchgeführt habe. In Tabelle A habe ich die in dieser Arbeit berücksichtigten Experimente aufgeführt, die in den letzten Jahren entweder als Array- oder als Profilmessungen durchgeführt wurden. Für derart große Feldexperimente benötigt man ein Team von WissenschaftlerInnen, StudentInnen und technischem Personal. Das bedeutet aber auch, dass von mir betreute StudentInnen und DoktorandInnen Teilaspekte dieser Experimente in Form von Diplom-, Bachelor- und Mastersarbeiten oder Promotionsschriften verarbeitet haben. Bei anschließender Veröffentlichung der Arbeiten habe ich als Co-Autor mitgewirkt. Die beiliegenden Veröffentlichungen enthalten eine Einführung in die Methode der Magnetotellurik und gegebenenfalls die Beschreibung neu entwickelter Methoden. Eine allgemeine Darstellung der theoretischen Grundlagen der Magnetotellurik findet man zum Beispiel in Chave & Jones (2012); Simpson & Bahr (2005); Kaufman & Keller (1981); Nabighian (1987); Weaver (1994). Die Arbeit beinhaltet zudem ein Glossar, in dem einige Begriffe und Abkürzungen erklärt werden. Ich habe mich entschieden, Begriffe, für die es keine adäquate deutsche Übersetzung gibt oder die im Deutschen eine andere oder missverständliche Bedeutung bekommen, auf Englisch in der Arbeit zu belassen. Sie sind durch eine kursive Schreibweise gekennzeichnet.
Die Arbeit stellt die Funktionsweise und den Erwerb der deutschen Groß- und Kleinschreibung auf theoretischer und empirischer Grundlage dar. Den Ausgangspunkt bildet eine textpragmatische Verallgemeinerung bisheriger graphematischer Ansätze, die zu einem übergreifenden Modell des Majuskelgebrauchs im Deutschen erweitert werden und dabei auch nicht-orthografische Teilbereiche einschließen (Versalsatz, Kapitälchen, Binnenmajuskel etc.).
Im empirischen Teil der Arbeit werden die orthografischen Leistungsdaten von ca. 5.700 Probanden verschiedener Altersklassen (4. Klasse bis Erwachsenenbildung) untersucht und zu einem allgemeinen Erwerbsmodell der Groß- und Kleinschreibung ausgebaut. Mit Hilfe neuronaler Netzwerksimulationen werden unterschiedliche Lernertypen unterschieden und Diskontinuitäten im Kompetenzerwerb nachgewiesen, die auf qualitative Strategiewechsel in der Ontogenese hindeuten. Den Abschluss bilden orthografiedidaktische und rechtschreibdiagnostische Reflexionen der Daten.
Die klassische Physik/Chemie unterscheidet zwischen drei Bindungstypen: Der kovalenten Bindung, der ionischen Bindung und der metallischen Bindung. Moleküle untereinander werden hingegen durch schwache Wechselwirkungen zusammen gehalten, sie sind trotz ihrer schwachen Kräfte weniger verstanden, aber dabei nicht weniger wichtig. In zukunftsweisenden Gebieten wie der Nanotechnologie, der Supramolekularen Chemie und Biochemie sind sie von elementarer Bedeutung.
Um schwache, intermolekulare Wechselwirkungen zu beschreiben, vorauszusagen und zu verstehen, sind sie zunächst theoretisch zu erfassen. Hierzu gehören verschiedene quantenchemische Methoden, die in dieser Arbeit vorgestellt, verglichen, weiterentwickelt und schließlich auch exemplarisch auf Problemstellungen in der Chemie angewendet werden. Aufbauend auf einer Hierarchie von Methoden unterschiedlicher Genauigkeit werden sie für diese Ziele eingesetzt, ausgearbeitet und kombiniert.
Berechnet wird die Elektronenstruktur, also die Verteilung und Energie von Elektronen, die im Wesentlichen die Atome zusammen halten. Da Ungenauigkeiten von der Beschreibung der Elektronenstruktur von den verwendeten Methoden abhängen, kann man die Effekte detailliert untersuchen, sie beschreiben und darauf aufbauend weiter entwickeln, um sie anschließend an verschiedenen Modellen zu testen. Die Geschwindigkeit der Berechnungen mit modernen Computern ist eine wesentliche, zu berücksichtigende Komponente, da im Allgemeinen die Genauigkeit mit der Rechenzeit exponentiell steigt, und die damit an die Grenzen der Möglichkeiten stoßen muss.
Die genaueste der verwendeten Methoden basiert auf der Coupled-Cluster-Theorie, die sehr gute Voraussagen ermöglicht. Für diese wird eine sogenannte spektroskopische Genauigkeit mit Abweichungen von wenigen Wellenzahlen erzielt, was Vergleiche mit experimentellen Daten zeigen. Eine Möglichkeit zur Näherung von hochgenauen Methoden basiert auf der Dichtefunktionaltheorie: Hier wurde das „Boese-Martin for Kinetics“ (BMK)-Funktional entwickelt, dessen Funktionalform sich in vielen nach 2010 veröffentlichten Dichtefunktionalen wiederfindet.
Mit Hilfe der genaueren Methoden lassen sich schließlich semiempirische Kraftfelder zur Beschreibung intermolekularer Wechselwirkungen für individuelle Systeme parametrisieren, diese benötigen weit weniger Rechenzeit als die Methoden, die auf der genauen Berechnung der Elektronenstruktur von Molekülen beruhen.
Für größere Systeme lassen sich auch verschiedene Methoden kombinieren. Dabei wurden Einbettungsverfahren verfeinert und mit neuen methodischen Ansätzen vorgeschlagen. Sie verwenden sowohl die symmetrieadaptierte Störungstheorie als auch die quantenchemische Einbettung von Fragmenten in größere, quantenchemisch berechnete Systeme.
Die Entwicklungen neuer Methoden beziehen ihren Wert im Wesentlichen durch deren Anwendung:
In dieser Arbeit standen zunächst die Wasserstoffbrücken im Vordergrund. Sie zählen zu den stärkeren intermolekularen Wechselwirkungen und sind nach wie vor eine Herausforderung. Im Gegensatz dazu sind van-der-Waals Wechselwirkungen relativ einfach durch Kraftfelder zu beschreiben. Deshalb sind viele der heute verwendeten Methoden für Systeme, in denen Wasserstoffbrücken dominieren, vergleichsweise schlecht.
Eine Untersuchung molekularer Aggregate mit Auswirkungen intermolekularer Wechselwirkungen auf die Schwingungsfrequenzen von Molekülen schließt sich an. Dabei wird auch über die sogenannte starrer-Rotor-harmonischer-Oszillator-Näherung hinausgegangen.
Eine weitreichende Anwendung behandelt Adsorbate, hier die von Molekülen auf ionischen/metallischen Oberflächen. Sie können mit ähnlichen Methoden behandelt werden wie die intermolekularen Wechselwirkungen, und sind mit speziellen Einbettungsverfahren sehr genau zu beschreiben. Die Resultate dieser theoretischen Berechnungen stimulierten eine Neubewertung der bislang bekannten experimentellen Ergebnisse.
Molekulare Kristalle sind ein äußerst wichtiges Forschungsgebiet. Sie werden durch schwache Wechselwirkungen zusammengehalten, die von van-der-Waals Kräften bis zu Wasserstoffbrücken reichen. Auch hier wurden neuentwickelte Methoden eingesetzt, die eine interessante, mindestens ebenso genaue Alternative zu den derzeit gängigen Methoden darstellen.
Von daher sind die entwickelten Methoden, als auch deren Anwendung äußerst vielfältig. Die behandelten Berechnungen der Elektronenstruktur erstrecken sich von den sogenannten post-Hartree-Fock-Methoden über den Einsatz der Dichtefunktionaltheorie bis zu semiempirischen Kraftfeldern und deren Kombinationen. Die Anwendung reicht von einzelnen Molekülen in der Gasphase über die Adsorption auf Oberflächen bis zum molekularen Festkörper.
Weltweit sind fast 40 % der Bevölkerung übergewichtig und die Prävalenz von Adipositas, Insulinresistenz und den resultierenden Folgeerkrankungen wie dem Metabolischen Syndrom und Typ-2-Diabetes steigt rapide an. Als häufigste Ursachen werden diätetisches Fehlverhalten und mangelnde Bewegung angesehen. Die nicht-alkoholische Fettlebererkrankung (NAFLD), deren Hauptcharakteristikum die exzessive Akkumulation von Lipiden in der Leber ist, korreliert mit dem Body Mass Index (BMI). NAFLD wird als hepatische Manifestation des Metabolischen Syndroms angesehen und ist inzwischen die häufigste Ursache für Leberfunktionsstörungen. Die Erkrankung umfasst sowohl die benigne hepatische Steatose (Fettleber) als auch die progressive Form der nicht-alkoholischen Steatohepatitis (NASH), bei der die Steatose von Entzündung und Fibrose begleitet ist. Die Ausbildung einer NASH erhöht das Risiko, ein hepatozelluläres Karzinom (HCC) zu entwickeln und kann zu irreversibler Leberzirrhose und terminalem Organversagen führen. Nahrungsbestandteile wie Cholesterol und Fett-reiche Diäten werden als mögliche Faktoren diskutiert, die den Übergang einer einfachen Fettleber zur schweren Verlaufsform der Steatohepatitis / NASH begünstigen. Eine Ausdehnung des Fettgewebes wird von Insulinresistenz und einer niedrig-gradigen chronischen Entzündung des Fettgewebes begleitet. Neben Endotoxinen aus dem Darm gelangen Entzündungsmediatoren aus dem Fettgewebe zur Leber. Als Folge werden residente Makrophagen der Leber, die Kupfferzellen, aktiviert, die eine Entzündungsantwort initiieren und weitere pro-inflammatorische Mediatoren freisetzen, zu denen Chemokine, Cytokine und Prostanoide wie Prostaglandin E2 (PGE2) gehören. In dieser Arbeit soll aufgeklärt werden, welchen Beitrag PGE2 an der Ausbildung von Insulinresistenz, hepatischer Steatose und Entzündung im Rahmen von Diät-induzierter NASH im komplexen Zusammenspiel mit der Regulation der Cytokin-Produktion und anderen Co-Faktoren wie Hyperinsulinämie und Hyperlipidämie hat. In murinen und humanen Makrophagen-Populationen wurde untersucht, welche Faktoren die Bildung von PGE2 fördern und wie PGE2 die Entzündungsantwort aktivierter Makrophagen reguliert. In primären Hepatozyten der Ratte sowie in isolierten humanen Hepatozyten und Zelllinien wurde der Einfluss von PGE2 allein und in Kombination mit Cytokinen, deren Bildung durch PGE2 beeinflusst werden kann, auf die Insulin-abhängige Regulation des Glucose- und Lipid-stoffwechsels untersucht. Um den Einfluss von PGE2 im komplexen Zusammenspiel der Zelltypen in der Leber und im Gesamtorganismus zu erfassen, wurden Mäuse, in denen die PGE2-Synthese durch die Deletion der mikrosomalen PGE-Synthase 1 (mPGES1) vermindert war, mit einer NASH-induzierenden Diät gefüttert. In Lebern von Patienten mit NASH oder in Mäusen mit Diät-induzierter NASH war die Expression der PGE2-synthetisierenden Enzyme Cyclooxygenase 2 (COX2) und mPGES1 sowie die Bildung von PGE2 im Vergleich zu gesunden Kontrollen gesteigert und korrelierte mit dem Schweregrad der Lebererkrankung. In primären Makrophagen aus den Spezies Mensch, Maus und Ratte sowie in humanen Makrophagen-Zelllinien war die Bildung pro-inflammatorischer Mediatoren wie Chemokinen, Cytokinen und Prostaglandinen wie PGE2 verstärkt, wenn die Zellen mit Endotoxinen wie Lipopolysaccharid (LPS), Fettsäuren wie Palmitinsäure, Cholesterol und Cholesterol-Kristallen oder Insulin, das als Folge der kompensatorischen Hyperinsulinämie bei Insulinresistenz verstärkt freigesetzt wird, inkubiert wurden. Insulin steigerte dabei synergistisch mit LPS oder Palmitinsäure die Synthese von PGE2 sowie der anderen Entzündungsmediatoren wie Interleukin (IL) 8 und IL-1β. PGE2 reguliert die Entzündungsantwort: Neben der Induktion der eigenen Synthese-Enzyme verstärkte PGE2 die Expression der Immunzell-rekrutierenden Chemokine IL-8 und (C-C-Motiv)-Ligand 2 (CCL2) sowie die der pro-inflammatorischen Cytokine IL-1β und IL-6 in Makrophagen und kann so zur Verstärkung der Entzündungsreaktion beitragen. Außerdem förderte PGE2 die Bildung von Oncostatin M (OSM) und OSM induzierte in einer positiven Rückkopplungsschleife die Expression der PGE2-synthetisierenden Enzyme. Andererseits hemmte PGE2 die basale und LPS-vermittelte Bildung des potenten pro-inflammatorischen Cytokins Tumornekrosefaktor α (TNFα) und kann so die Entzündungsreaktion abschwächen. In primären Hepatozyten der Ratte und humanen Hepatozyten beeinträchtigte PGE2 direkt die Insulin-abhängige Aktivierung der Insulinrezeptor-Signalkette zur Steigerung der Glucose-Verwertung, in dem es durch Signalketten, die den verschiedenen PGE2-Rezeptoren nachgeschaltet sind, Kinasen wie ERK1/2 und IKKβ aktivierte und eine inhibierende Serin-Phosphorylierung der Insulinrezeptorsubstrate bewirkte. PGE2 verstärkte außerdem die IL-6- oder OSM-vermittelte Insulinresistenz und Steatose in primären Hepatozyten der Ratte. Die Wirkung von PGE2 im Gesamtorganismus sollte in Mäusen mit Diät-induzierter NASH untersucht werden. Die Fütterung einer Hochfett-Diät mit Schmalz als Fettquelle, das vor allem gesättigte Fettsäuren enthält, verursachte Fettleibigkeit, Insulinresistenz und eine hepatische Steatose in Wildtyp-Mäusen. In Tieren, die eine Hochfett-Diät mit Sojaöl als Fettquelle, das vor allem (ω-6)-mehrfach-ungesättigte Fettsäuren (PUFAs) enthält, oder eine Niedrigfett-Diät mit Cholesterol erhielten, war lediglich eine hepatische Steatose nachweisbar, jedoch keine verstärkte Gewichtszunahme im Vergleich zu Geschwistertieren, die eine Standard-Diät bekamen. Im Gegensatz dazu verursachte die Fütterung einer Hochfett-Diät mit PUFA-reichem Sojaöl als Fettquelle in Kombination mit Cholesterol sowohl Fettleibigkeit und Insulinresistenz als auch hepatische Steatose mit Hepatozyten-Hypertrophie, lobulärer Entzündung und beginnender Fibrose in Wildtyp-Mäusen. Diese Tiere spiegelten alle klinischen und histologischen Parameter der humanen NASH im Metabolischen Syndrom wider. Nur die Kombination von hohen Mengen ungesättigter Fettsäuren aus Sojaöl und Cholesterol in der Nahrung führte zu einer exzessiven Akkumulation des Cholesterols und der Bildung von Cholesterol-Kristallen in den Hepatozyten, die zur Schädigung der Mitochondrien, schwerem oxidativem Stress und schließlich zum Absterben der Zellen führten. Als Konsequenz phagozytieren Kupfferzellen die Zelltrümmer der Cholesterol-überladenen Hepatozyten, werden dadurch aktiviert, setzen Chemokine, Cytokine und PGE2 frei, die die Entzündungsreaktion verstärken und die Infiltration von weiteren Immunzellen initiieren können und verursachen so eine Progression zur Steatohepatitis (NASH). Die Deletion der mikrosomalen PGE-Synthase 1 (mPGES1), dem induzierbaren Enzym der PGE2-Synthese aus Cyclooxygenase-abhängigen Vorstufen, reduzierte die Diät-abhängige Bildung von PGE2 in der Leber. Die Fütterung der NASH-induzierenden Diät verursachte in Wildtyp- und mPGES1-defizienten Mäusen eine ähnliche Fettleibigkeit und Zunahme der Fettmasse sowie die Ausbildung von hepatischer Steatose mit Entzündung und Fibrose (NASH) im histologischen Bild. In mPGES1-defizienten Mäusen waren jedoch Parameter für die Infiltration von Entzündungszellen und die Diät-abhängige Schädigung der Leber im Vergleich zu Wildtyp-Tieren erhöht, was sich auch in einer stärkeren Diät-induzierten systemischen Insulinresistenz widerspiegelte. Die Bildung des pro-inflammatorischen und pro-apoptotischen Cytokins TNFα war in mPGES1-defizienten Mäusen durch die Aufhebung der negativen Rückkopplungshemmung verstärkt, was einen gesteigerten Diät-induzierten Zelluntergang gestresster Lipid-überladener Hepatozyten und eine nach-geschaltete Entzündungsantwort zur Folge hatte. Zusammenfassend wurde unter den gewählten Versuchsbedingungen in vivo eine anti-inflammatorische Rolle von PGE2 verifiziert, da das Prostanoid vor allem indirekt durch die Hemmung der TNFα-vermittelten Entzündungsreaktion die Schädigung der Leber, die Verstärkung der Entzündung und die Ausbildung von Insulinresistenz im Rahmen der Diät-abhängigen Fettlebererkrankung abschwächte.
Biopsychosoziale Aspekte der beruflichen Wiedereingliederung nach kardiologischer Rehabilitation
(2020)
Bischöfe im Frankenreich waren einflussreiche politische Akteure, die im Laufe des 9. Jahrhunderts ein gelehrtes Wissen vom eigenen Amt entwickelten. Spiegelungen dieses Wissens über das Wesen des Bischofsamtes finden sich in vielen Texten, die meisten stammen aus Westfranken. Offen ist bislang jedoch, welche Relevanz dieses Wissen und das bischöfliche Standesbewusstsein hatten – ist es als normativer Referenzrahmen von anderen politisch relevanten Ständen anerkannt? Wie entwickelt es sich über die Umbruchzeit des 10. Jahrhunderts in der post-karolingischen Zeit und beginnenden Kirchenreform? Diesen Fragen widmet sich das Buch durch eine Untersuchung von Bischofsabsetzungen in Westfranken im 9. und 10. Jahrhundert und durch eine Analyse des Bischofsbildes in monastischen wie bischöflichen Kreisen im 10. und frühen 11. Jahrhundert. So kann ein differenziertes Bild der Wahrnehmung des Bischofsamtes und der konkrete Umgang mit dem Wissen vom Bischofsamt in verschiedenen Kontexten gezeichnet werden.
Die Plastizität der Gefühle
(2021)
Das emotionale Leben wird zunehmend durch digitale Technologien ausgelesen, reguliert und produziert. Diese gleichermaßen von Hoffnungen und Ängsten begleitete Entwicklung ist die vorerst letzte Station einer bis in die Frühgeschichte zurückreichenden, tiefgehenden Verschränkung von Affekt und (Kultur-)Technik. Bernd Bösel eröffnet einen umfassenden genealogischen Blick auf die epochenmachenden Neujustierungen dieser Technisierung. Denn erst im Nachvollzug der verschiedenen Logiken des Verfügens über Affekte wird es möglich, die Verflechtung der Technisierungsformen zu verstehen, auf denen die Psychomacht der Gegenwart basiert.
Devotio malefica
(2021)
Antike Fluchrituale zielten darauf ab, die jeweilige Gerechtigkeitsvorstellung der Verfluchenden durchzusetzen – insbesondere wenn weder das öffentliche Justizsystem noch gesellschaftlich anerkannte Verhaltenskodize dem Anspruch gerecht werden konnten. In den Ritualen kamen sogenannte defixionis tabellae (Fluchtafeln) zur Anwendung, die hier devotiones maleficae genannt werden. Sie bestehen meistens aus eingeschriebenen Bleilamellen und wurden für die Beschädigung eines oder mehrerer Opfer angefertigt.
Sara Chiarini untersucht die dabei verwendete Fluchsprache, die durch ihre formelhaften Strukturen und Bestandteile auf eine Tradition des Fluchrituals hindeuten. Individuelle Ergänzungen bieten hingegen Hinweise auf die Bedingungen um die Entstehung des Rituals, die Gefühlslage der Verfluchenden und die Arten von Bestrafungen, die der rechtlichen Dimension des Rituals entsprechen. Chiarini ergänzt den bisherigen Forschungstand anhand der neu entdeckten und veröffentlichten Fluchtafeln und setzt sich umfassend mit diesem epigraphischen Material auseinander.
Das Therapiemanagement bei Lipödem stellt auf Grund unzureichenden Wissensstandes in entscheidenden Aspekten eine besondere Herausforderung dar. Da die Pathogenese der Erkrankung nicht hinreichend geklärt ist und bislang kein pathognomonisches Diagnostikkriterium definiert wurde, beklagen viele Betroffene einen langjährigen Leidensweg bis zur Einleitung von Therapiemaßnahmen. Durch Steigerung der Awareness der Erkrankung in den letzten Jahren konnten die Intervalle bis zur korrekten Diagnose erfreulicherweise erheblich verkürzt werden. Obwohl die Zuordnung der Beschwerden zu einer klar definierten Erkrankung für viele Patientinnen eine Erleichterung ist, stellt die Erkenntnis über begrenzte Therapiemöglichkeiten häufig eine neuerliche Belastung dar.
Als Konsequenz der ungeklärten Pathogenese konnte bis dato keine kausale Therapie für das Lipödem definiert werden. Zu Beginn waren die Möglichkeiten konservativer Behandlungsstrategien nur eingeschränkt in den Rahmen eines allgemeingültigen Konzeptes involviert und insbesondere Limitationen nicht klar definiert. Obwohl in diversen Bereichen der Therapie weiterhin keine ausreichende Evidenz besteht, konnten durch eine systematische Aufarbeitung die grundsätzlichen Behandlungsoptionen in Relation zueinander gesetzt werden. Betroffene Patientinnen, sowie die verschiedenen in die Behandlung integrierte medizinische Disziplinen verfügen somit über einen grundsätzlichen Handlungsalgorithmus, deren Empfehlungen über einfache Rezeptierung von Lymphdrainage und Kompressionsbekleidung hinausgehen. Durch kritische Reflexion der geltenden Dogmata wurde ein interdisziplinärer Leitfaden vorgeschlagen, der auf nachvollziehbare Weise im Sinne eines Stufenschemas alle wesentlichen Therapiesäulen in einen allgemeingültigen Behandlungsplan einbindet.
Im vielschichten Management der Erkrankung verbleibt die operative Behandlung, die Liposuktion, allerdings häufig als „ultima ratio“ nach ausbleibender Linderung unter konservativen Therapiemaßnahmen. Die wesentliche Zielstellung der vorliegenden Arbeit konzentriert sich demnach auf die Optimierung des operativen Vorgehens in der Durchführung von Liposuktionen bei Patientinnen mit Lipödem und zeigt sowohl Grenzen der Indikationsstellung, als auch Potenzial des Behandlungserfolges im Langzeitverlauf auf. Langzeitergebnisse zeigen, dass die Liposuktion als sicherer Eingriff mit dem Potenzial einer nachhaltigen Symptomreduktion für Lipödem-Patientinnen angesehen werden kann. Betont werden soll zudem die Notwendigkeit der Verzahnung operativer Maßnahmen mit konservativen Therapien und somit die Integration der Liposuktion als sinnvolle Behandlungsalternative in ein klar umrissenes Therapiekonzept.
Methodisch greift die Arbeit auf insgesamt 10 Publikationen zurück. Die hier postulierte mehrzeitige Megaliposuktion zur Therapie des Lipödems, mit summierten Gesamtaspirationsvolumina über alle Eingriffe von bis zu 66.000 ml, konnte als evidenzbasiertes Therapieverfahren bestätigt und validiert werden. Die beschriebenen niedrigen Komplikationsraten sind unter Anderem Resultat einer differenzierten, individualisierten perioperativen Strategie. Neben der Berücksichtigung grundsätzlicher methodischer Prinzipien existieren allerdings vielfältige Variationen, deren Implikationen auf Komplikationsraten jeweils differenziert zu betrachten sind. Es existiert zwar kein Konsensus für ein allgemeingültiges Standardverfahren der Liposuktion, allerdings konnten zahlreiche Elemente im perioperativen Management definiert werden, die unabhängig von der verwendeten Operationstechnik einen potenziellen positiven Einfluss auf das Outcome haben. Obwohl die Liposuktion bei Lipödem somit zusammenfassend mittlerweile als sicheres Verfahren gelten kann, sind einige Aspekte weiterhin nicht abschließend geklärt. Hierbei stehen vor allem das Volumenmanagement und die standardisierte Festlegung des maximalen Aspirationsvolumens im Fokus.
Die Analyse verschiedener Kovariablen auf die Linderung Lipödem-assoziierter Symptome nach Liposuktion zeigt, dass Alter, Body-Mass-Index (BMI) und präoperatives Stadium der Erkrankung einen signifikanten Einfluss auf das postoperative Ergebnis haben und in der Planung des mehrzeitigen operativen Vorgehens berücksichtigt werden müssen. BMI- oder körpergewichtsabhängige Zielgrößen der Absaugvolumina waren als Prognosefaktor für das postoperative Outcome dagegen nicht relevant. Inwieweit dies möglicherweise an der Überschreitung des „notwendigen“ Volumengrenzwerts für adäquate Symptomlinderung durch reguläre Durchführung von Megaliposuktionen liegen könnte, oder ob dieser Parameter tatsächlich keinen Einfluss auf das Ergebnis nach Operation besitzt, konnte nicht abschließend geklärt werden.
Weiterhin konnte ein positiver Nutzen auf assoziierte Begleiterkrankungen bei Lipödem nachgewiesen werden. Das Spektrum der Behandlungsmethoden kann durch reguläre Integration der Liposuktion in das Therapieschema somit um eine nachhaltige Alternative sinnvoll ergänzt werden. Im Unterschied zur alleinigen konservativen Therapie kann hierdurch ein wesentlicher Schritt weg von der alleinigen symptomatischen Therapie gemacht werden. Zudem die vielfältige Symptomatik der diversen assoziierten Komorbiditäten zu berücksichtigen. Als Konsequenz und für die Notwendigkeit eines ganzheitlichen, interdisziplinären Therapieansatzes wäre der Terminus „Lipödem-Syndrom“ möglicherweise treffender und wird zur Diskussion gestellt.
Für ein gesondertes Patientenklientel wurden zudem basale Grundsätze im perioperativen Vorgehen differenziert aufgearbeitet. Lipödem-Patientinnen mit begleitendem von-Willebrand-Syndrom stellen im Hinblick auf Blutungskomplikationen eine außerordentliche Herausforderung dar. Die vorliegenden evidenzbasierten Empfehlungen zum Therapiemanagement dieser Patientinnen bei Eingriffen ähnlicher Risikoklassifizierung wurden systematisch aufgearbeitet und in Bezug zu den speziellen Anforderungen bei Megaliposuktionen gebracht. Das dabei erarbeitete Therapieschema wird die präoperative Detektion von Koagulopathien im Allgemeinen, sowie die perioperative Komplikationsrate bei von-Willebrand-Patientinnen im Speziellen zukünftig erheblich verbessern.
Zusammenfassend konnte somit ein allgemeingültiger Algorithmus für die moderne und langfristig erfolgreiche Therapie von Lipödem-Patientinnen mit besonderem Fokus auf die Megaliposuktion erarbeitet werden. Bei adäquatem perioperativem Management und Berücksichtigung der großen Volumenverschiebungen kann der Eingriff komplikationsarm und sicher durchgeführt werden. Nicht abschließend geklärt ist derzeit die Pathophysiologie der Erkrankung wobei eine immunologische Genese sowie die primäre Pathologie des Lymphgefäßsystems bzw. der Fett(vorläufer)zellen als Erklärungmodelle favorisiert werden. Die Entwicklung diagnostischer Biomarker sollte dabei verfolgt werden.
Klinische Analyse der physiologischen und pathologischen Sehnenadaptation an sportliche Belastung
(2021)
Die verletzte Republik
(2022)
Die Studie stellt die Frage nach dem Beitrag erzählender Literatur zu einem Dialog über Formen der Gewalt im gesellschaftlichen Raum Frankreich zu Beginn des 21. Jahrhunderts.
Unter Rückgriff auf Bourdieu’sche Konzepte literatursoziologischer Theorie diskutiert sie zunächst die für ein sozialwissenschaftlich relevantes Erfassen des Wissens von Literatur notwendige Perspektive auf erzählte Gewalt. Bei dem dafür untersuchten Text-Korpus handelt es sich um vielrezipierte Erzähltexte des literarischen Feldes in Frankreich, welche größtenteils in der zweiten Dekade des 21. Jahrhunderts erschienen sind.
Ausgehend von theoretischen Überlegungen zu Grenzen und Möglichkeiten einer solchen feldsoziologischen Fokussierung auf die Literatur der unmittelbaren Gegenwart wird am konkreten Textmaterial und mit den Mitteln der Literaturwissenschaft untersucht, wie und warum die französische Literatur über unterschiedliche Formen von Gewalt, vom Erinnern an die historisch gewordenen Gewalttraumata des 20. Jahrhunderts, vom Terrorismus des 21. Jahrhunderts, von Rassismus und Klassismus der Gegenwart, von Femiziden und Homophobie, über «Abgehängte» in ländlichen Gebieten, aber auch im Zentrum der Metropole, über Arbeitslosigkeit und Armut in Frankreich erzählt.
Eröffnet werden soll eine komplementäre Perspektive der Literaturwissenschaft zur soziologischen und historischen Gewaltforschung über den gesellschaftlichen Raum unseres europäischen Nachbarn.
Ecce figura
(2023)
Worüber wir reden, wenn wir von Figuren reden, ist eine komplexe Fragestellung, die unterschiedliche Disziplinen berührt. Mit Erich Auerbachs figura/Mimesis-Projekt wurde die interdiszplinäre Forschung dieses Begriffs initiiert. Ob Literatur-, Bild- oder Wissensgeschichte – die Präsenz und Aktualität von figura in der romanistischen und komparatistischen Forschung bezeugt ein anhaltendes Interesse an der Theoriearbeit zwischen Theologie, Philosophie, Literatur- und Kunstwissenschaft. Allerdings fehlt bislang eine grundlegende methodologische Reflexion, die die interdisziplinären Aspekte gleichrangig berücksichtigt und zu einer gemeinsamen Arbeit am Begriff vereinigt.
Dieses Versäumnis zu beheben, ist Aufgabe der vorliegenden Arbeit. Ausgehend von Erich Auerbach, Walter Benjamin und Hannah Arendt verfolgt die Monographie in vergleichenden Konstellationen von der Antike bis in die Moderne die literatur- und kunsthistorischen, theologischen und philosophischen Spuren von figura, die zu einer Methode der literaturphilosophischen Figuralogie ausgebaut werden.
Ecce figura versteht sich als ein Kompendium interdisziplinärer Begriffsgeschichte zwischen Literatur, Philosophie und Theologie, das dazu einlädt, in neuen Konstellationen gelesen und erweitert zu werden.
Die interventionelle Behandlung des Vorhofflimmerns verursacht häufiger als in der Vergangenheit wahrgenommen eine Beeinträchtigung benachbarter Gewebe und Organe. Im Vordergrund der Betrachtungen dieser Arbeit stehen Schäden des Oesophagus, die aufgrund der schlechten Vorhersagbarkeit, des zeitlich verzögerten Auftretens und der fatalen Prognose bei Ausbildung einer atrio-oesophagealen Fistel besondere Relevanz haben.
Das Vorhofflimmern selbst ist nicht mit einer unmittelbaren vitalen Bedrohung verbunden, aber durch seine Komplikationen (z.B. Herzinsuffizienz, Schlaganfall) dennoch prognostisch relevant. Durch Antiarrhythmika gelingt keine Verbesserung der Rhythmuskontrolle (Arrhythmie-Freiheit), eine katheterinterventionelle Behandlung ist der medikamentösen Therapie überlegen. Durch eine frühzeitige und erfolgreiche Behandlung des Vorhofflimmerns konnte eine Verbesserung klinischer Endpunkte und der Prognose erreicht werden. Das Risiko einer invasiven Behandlung (insbesondere hinsichtlich des Auftretens prognoserelevanter Komplikationen) muss jedoch bei der Indikationsstellung und der Prozedur-Durchführung bedacht und gegenüber den günstigen Effekten der Behandlung abgewogen werden.
Untersuchungen zur Vermeidung der sehr seltenen atrio-oesophagealen Fisteln bedienen sich Surrogat-Parametern, hier bisher ausschließlich den ablationsinduzierten Schleimhaut-Läsionen des Oesophagus. Die Untersuchungen dieser Arbeit zeigen ein komplexeres Bild der (peri)-oesophagealen Schädigungen nach Vorhofflimmern-Ablation mit thermischen Energiequellen.
(1) Neue Definition der Oesophagus-Schäden: Oesophageale und perioesophageale Beeinträchtigungen treten sehr häufig auf (nach der hier verwendeten erweiterten Definition bei zwei Drittel der Patienten) und sind unabhängig von der verwendeten Ablationsenergie. Unterschiede finden sich in den Manifestationen der Oesophagus-Schäden für die verschiedenen Energie-Protokolle, ohne dass der Mechanismus hierfür aufgeklärt ist. Diese Arbeit beschreibt die unterschiedlichen Ausprägungen thermischer Oesophagus-Schäden, deren Determinanten und pathophysiologische Relevanz.
(2) Die Detektion (zum Teil subtiler) Oesophagus-Schäden ist maßgeblich von der Intensität der Nachsorge abhängig. Eine Beschränkung auf subjektive Schilderungen (z.B. Schmerzen beim Schluckakt, Sodbrennen) ist irreführend, die Mehrzahl der Veränderungen bleibt asymptomatisch, die Symptome der ausgebildeten atrio-oesophagealen Fistel (meist nach mehreren Wochen) bereits mit einer sehr schlechten Prognose belastet. Eine Endoskopie der Speiseröhre findet in den meisten elektrophysiologischen Zentren nicht oder nur bei anhaltenden Symptomen statt und kann ausschließlich Mukosa-Läsionen nachweisen. Damit wird das Ausmaß des oesophagealen und perioesophagealen Schadens bei Weitem unterschätzt. Veränderungen des perioesophagealen Raums, deren klinische Relevanz (noch) unklar ist, werden nicht erfasst, und damit ein Wandödem und Schäden im Gewebe zwischen linkem Vorhof und Speiseröhre (einschl. Nerven und Gefäßen) ignoriert.
Die Studien tragen auch zur Neubewertung etablierter Messgrößen und Risikofaktoren der Oesophagus-Schäden bei.
(3) Das Temperaturmonitoring im Oesophagus anhand der Maximalabweichungen ist erst für Extremwerte aussagekräftig und dadurch nicht hilfreich, Oesophagus-Läsionen zu vermeiden. Die komplexe Analyse der Temperatur-Rohdaten (bisher nur offline möglich) liefert in der AUC für RF-Ablationen einen prädiktiven Parameter für Oesophagus-Schäden, der eine Strukturierung der weiteren endoskopischen Diagnostik erlaubt. Ein vergleich¬barer Wert für die Cryoablationen konnte in den Analysen nicht gefunden werden.
(4) Eine chronische Entzündung des unteren Oesophagus-Drittels behindert nicht nur das Abheilen einer thermischen Oesophagus-Läsion, sondern kann das Auftreten solcher Läsionen durch die Ablation begünstigen. Die große Zahl vorbestehender Oesophagus-Veränderungen, die eine erhöhte Vulnerabilität anzeigen, und die Bedeutung für die Ent¬stehung thermischer Läsionen können der Ansatzpunkt präventiver Maßnahmen sein.
Ergänzend werden Ausprägungen der Oesophagus-Schäden durch umfangreiche Diagnostik erfasst und beschrieben, die aus pathophysiologischen Überlegungen relevant sein können.
(5) Die systematische Erweiterung der bildgebenden Diagnostik auf den perioesophagealen Raum durch Endosonographie zeigte, dass Schleimhaut-Läsionen alleine nur einen geringen Teil der Oesophagus-Schäden darstellen. Schleimhaut-Läsionen infolge einer instrumentellen Verletzung sind nicht mit dem Risiko der Ausbildung einer atrio-oesophagealen Fistel verbunden und unterstreichen die pathophysiologische Relevanz der perioesophagealen Veränderungen.
(6) Eine funktionelle Diagnostik thermischer Schäden des perioesophagealen Vagus-Plexus identifiziert Patienten mit Oesophagus-Schäden, die bildgebend nicht erfasst wurden, jedoch in ihren Auswirkungen (Nahrungsretention und gastro-oesophagealer Reflux) zur Läsionsprogression beitragen können.