TY - THES A1 - Große Meininghaus, Dirk T1 - Determinanten und Strategien zur Vermeidung oesophagealer und perioesophagealer Komplikationen bei der Katheterablation des Vorhofflimmerns T1 - Determinants and strategies to avoid esophageal and periesophageal complications in catheter ablation of atrial fibrillation N2 - Die interventionelle Behandlung des Vorhofflimmerns verursacht häufiger als in der Vergangenheit wahrgenommen eine Beeinträchtigung benachbarter Gewebe und Organe. Im Vordergrund der Betrachtungen dieser Arbeit stehen Schäden des Oesophagus, die aufgrund der schlechten Vorhersagbarkeit, des zeitlich verzögerten Auftretens und der fatalen Prognose bei Ausbildung einer atrio-oesophagealen Fistel besondere Relevanz haben. Das Vorhofflimmern selbst ist nicht mit einer unmittelbaren vitalen Bedrohung verbunden, aber durch seine Komplikationen (z.B. Herzinsuffizienz, Schlaganfall) dennoch prognostisch relevant. Durch Antiarrhythmika gelingt keine Verbesserung der Rhythmuskontrolle (Arrhythmie-Freiheit), eine katheterinterventionelle Behandlung ist der medikamentösen Therapie überlegen. Durch eine frühzeitige und erfolgreiche Behandlung des Vorhofflimmerns konnte eine Verbesserung klinischer Endpunkte und der Prognose erreicht werden. Das Risiko einer invasiven Behandlung (insbesondere hinsichtlich des Auftretens prognoserelevanter Komplikationen) muss jedoch bei der Indikationsstellung und der Prozedur-Durchführung bedacht und gegenüber den günstigen Effekten der Behandlung abgewogen werden. Untersuchungen zur Vermeidung der sehr seltenen atrio-oesophagealen Fisteln bedienen sich Surrogat-Parametern, hier bisher ausschließlich den ablationsinduzierten Schleimhaut-Läsionen des Oesophagus. Die Untersuchungen dieser Arbeit zeigen ein komplexeres Bild der (peri)-oesophagealen Schädigungen nach Vorhofflimmern-Ablation mit thermischen Energiequellen. (1) Neue Definition der Oesophagus-Schäden: Oesophageale und perioesophageale Beeinträchtigungen treten sehr häufig auf (nach der hier verwendeten erweiterten Definition bei zwei Drittel der Patienten) und sind unabhängig von der verwendeten Ablationsenergie. Unterschiede finden sich in den Manifestationen der Oesophagus-Schäden für die verschiedenen Energie-Protokolle, ohne dass der Mechanismus hierfür aufgeklärt ist. Diese Arbeit beschreibt die unterschiedlichen Ausprägungen thermischer Oesophagus-Schäden, deren Determinanten und pathophysiologische Relevanz. (2) Die Detektion (zum Teil subtiler) Oesophagus-Schäden ist maßgeblich von der Intensität der Nachsorge abhängig. Eine Beschränkung auf subjektive Schilderungen (z.B. Schmerzen beim Schluckakt, Sodbrennen) ist irreführend, die Mehrzahl der Veränderungen bleibt asymptomatisch, die Symptome der ausgebildeten atrio-oesophagealen Fistel (meist nach mehreren Wochen) bereits mit einer sehr schlechten Prognose belastet. Eine Endoskopie der Speiseröhre findet in den meisten elektrophysiologischen Zentren nicht oder nur bei anhaltenden Symptomen statt und kann ausschließlich Mukosa-Läsionen nachweisen. Damit wird das Ausmaß des oesophagealen und perioesophagealen Schadens bei Weitem unterschätzt. Veränderungen des perioesophagealen Raums, deren klinische Relevanz (noch) unklar ist, werden nicht erfasst, und damit ein Wandödem und Schäden im Gewebe zwischen linkem Vorhof und Speiseröhre (einschl. Nerven und Gefäßen) ignoriert. Die Studien tragen auch zur Neubewertung etablierter Messgrößen und Risikofaktoren der Oesophagus-Schäden bei. (3) Das Temperaturmonitoring im Oesophagus anhand der Maximalabweichungen ist erst für Extremwerte aussagekräftig und dadurch nicht hilfreich, Oesophagus-Läsionen zu vermeiden. Die komplexe Analyse der Temperatur-Rohdaten (bisher nur offline möglich) liefert in der AUC für RF-Ablationen einen prädiktiven Parameter für Oesophagus-Schäden, der eine Strukturierung der weiteren endoskopischen Diagnostik erlaubt. Ein vergleich¬barer Wert für die Cryoablationen konnte in den Analysen nicht gefunden werden. (4) Eine chronische Entzündung des unteren Oesophagus-Drittels behindert nicht nur das Abheilen einer thermischen Oesophagus-Läsion, sondern kann das Auftreten solcher Läsionen durch die Ablation begünstigen. Die große Zahl vorbestehender Oesophagus-Veränderungen, die eine erhöhte Vulnerabilität anzeigen, und die Bedeutung für die Ent¬stehung thermischer Läsionen können der Ansatzpunkt präventiver Maßnahmen sein. Ergänzend werden Ausprägungen der Oesophagus-Schäden durch umfangreiche Diagnostik erfasst und beschrieben, die aus pathophysiologischen Überlegungen relevant sein können. (5) Die systematische Erweiterung der bildgebenden Diagnostik auf den perioesophagealen Raum durch Endosonographie zeigte, dass Schleimhaut-Läsionen alleine nur einen geringen Teil der Oesophagus-Schäden darstellen. Schleimhaut-Läsionen infolge einer instrumentellen Verletzung sind nicht mit dem Risiko der Ausbildung einer atrio-oesophagealen Fistel verbunden und unterstreichen die pathophysiologische Relevanz der perioesophagealen Veränderungen. (6) Eine funktionelle Diagnostik thermischer Schäden des perioesophagealen Vagus-Plexus identifiziert Patienten mit Oesophagus-Schäden, die bildgebend nicht erfasst wurden, jedoch in ihren Auswirkungen (Nahrungsretention und gastro-oesophagealer Reflux) zur Läsionsprogression beitragen können. N2 - The interventional treatment of atrial fibrillation is associated with damage to adjacent tissues and organs more frequently than previously assumed. Damage to the esophagus is of particular interest due to its poor predictability, the late onset of symptoms and the fatal prognosis of atrio-esophageal fistula. Thus, esophageal damage is the focus of this synopsis. Atrial fibrillation itself is not associated with life-threatening events but prognostically relevant on long-term due to its complications (e.g., heart failure and stroke). Antiarrhythmic drugs have not shown to improve rhythm control, and catheter ablation is superior to drug-based therapies. Early and effective treatment of atrial fibrillation has shown to improve clinical endpoints and prognosis, and, therefore, should be considered. However, the risk of any invasive procedure (especially facing complications with prognostic relevance) must be considered in treatment planning and balanced with the favorable effects of the procedure. Scientific studies for the prevention of (very rare) atrio-esophageal fistula have to use surrogate parameters, in detail thermally induced mucosal lesions of the esophagus. Our studies show a more sophisticated and complex view on (peri)esophageal damage following PVI with thermic ablation tools. (1) New definition of esophageal damage: Esophageal and periesophageal damage is common (with our expanded definition in two-thirds of patients) and independent of the thermal ablation energy used. However, there are differences in the manifestation of esophageal damage for the individual energy protocols, but the reason for these differences is not well understood. Our investigation discusses the different forms of thermally induced esophageal damage, their determinants and pathophysiological relevance. (2) The probability to detect (partially subtile) esophageal damage depends on the intensity of workup. Limiting the assessment to subjective symptoms (e.g., discomfort with swallowing, heartburn) is misleading, the majority of the esophageal lesions remains asymptomatic, and the symptoms of full-blown atrio-esophageal fistula (after several weeks) are burdened with a very poor prognosis. Endoscopy following PVI is not performed in most electrophysiological centers and limited to the detection of mucosal lesions. Endoscopy underestimates the extent of esophageal and periesophageal damage by far. Damage of the periesophageal space is of unknown significance but not assessed at all, and with that, edema and injury of the tissue between left atrium and esophagus (including nerve fibers and vessels) is ignored. Our studies contribute to a reappraisal of established parameters and risk factors of esophageal damage. (3) Esophageal temperature monitoring predicts an increased risk of esophageal lesions only when excessive temperature rise is observed and is not helpful for prevention. The complex analysis of the raw temperature data identified the calculated AUC to be a better predictive parameter for esophageal damage (RF-energy protocols), thereby better identifying patients at risk for lesion generation and streamlining endoscopic workup following PVI. The analyses were not successful to identify a comparable parameter for cryoablation. (4) Chronic inflammation of the lower esophageal third impairs healing of thermal esophageal lesions and may also promote the ablation-induced formation of such lesions. The high number of preexisting esophageal alterations indicating vulnerability, and their importance for thermal lesion formation may be a starting point for preventive steps. In addition, extensive diagnostic workup identified manifestations of esophageal damage potentially contributing to esophageal lesion progression. (5) Systematic workup with endoscopic ultrasound confirmed that mucosal lesions represent just a minor number of esophageal damage. Mucosal injury with a different patho¬physiology (e.g., instrumentally induced) is not associated with the risk of fistula formation, thereby highlighting the pathophysiological relevance of periesophageal alterations following catheter ablation. (6) Functional assessment of thermic impairment of the periesophageal vagal plexus identified patients with esophageal damage not assessed by endoscopy and endoscopic ultrasound. Vagal nerve damage and its sequelae (food retention and gastroesophageal reflux) may contribute to esophageal lesion progression as well. KW - Vorhofflimmern KW - thermische Katheterablation KW - Oesophagus-Schäden KW - Atrio-oesophageale Fistel KW - atrial fibrillation KW - thermic catheter ablation KW - esophageal injury KW - atrio-esophageal fistula Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-635358 ER - TY - THES A1 - Margraf, Johannes T. T1 - Science-driven chemical machine learning Y1 - 2023 ER - TY - THES A1 - Savatieiev, Oleksandr T1 - Carbon nitride semiconductors: properties and application as photocatalysts in organic synthesis N2 - Graphitic carbon nitrides (g-CNs) are represented by melon-type g-CN, poly(heptazine imides) (PHIs), triazine-based g-CN and poly(triazine imide) with intercalated LiCl (PTI/Li+Cl‒). These materials are composed of sp2-hybridized carbon and nitrogen atoms; C:N ratio is close to 3:4; the building unit is 1,3,5-triazine or tri-s-triazine; the building units are interconnected covalently via sp2-hybridized nitrogen atoms or NH-moieties; the layers are assembled into a stack via weak van der Waals forces as in graphite. Due to medium band gap (~2.7 eV) g-CNs, such as melon-type g-CN and PHIs, are excited by photons with wavelength ≤ 460 nm. Since 2009 g-CNs have been actively studied as photocatalysts in evolution of hydrogen and oxygen – two half-reactions of full water splitting, by employing corresponding sacrificial agents. At the same time application of g-CNs as photocatalysts in organic synthesis has been remaining limited to few reactions only. Cumulative Habilitation summarizes research work conducted by the group ‘Innovative Heterogeneous Photocatalysis’ between 2017-2023 in the field of carbon nitride organic photocatalysis, which is led by Dr. Oleksandr Savatieiev. g-CN photocatalysts activate molecules, i.e. generate their more reactive open-shell intermediates, via three modes: i) Photoinduced electron transfer (PET); ii) Excited state proton-coupled electron transfer (ES-PCET) or direct hydrogen atom transfer (dHAT); iii) Energy transfer (EnT). The scope of reactions that proceed via oxidative PET, i.e. one-electron oxidation of a substrate to the corresponding radical cation, are represented by synthesis of sulfonylchlorides from S-acetylthiophenols. The scope of reactions that proceed via reductive PET, i.e. one-electron reduction of a substrate to the corresponding radical anion, are represented by synthesis of γ,γ-dichloroketones from the enones and chloroform. Due to abundance of sp2-hybridized nitrogen atoms in the structure of g-CN materials, they are able to cleave X-H bonds in organic molecules and store temporary hydrogen atom. ES-PCET or dHAT mode of organic molecules activation to the corresponding radicals is implemented for substrates featuring relatively acidic X-H bonds and those that are characterized by low bond dissociation energy, such as C-H bond next to the heteroelements. On the other hand, reductively quenched g-CN carrying hydrogen atom reduces a carbonyl compound to the ketyl radical via PCET that is thermodynamically more favorable pathway compared to the electron transfer. The scope of these reactions is represented by cyclodimerization of α,β-unsaturated ketones to cyclopentanoles. g-CN excited state demonstrates complex dynamics with the initial formation of singlet excited state, which upon intersystem crossing produces triplet excited state that is characterized by the lifetime > 2 μs. Due to long lifetime, g-CN activate organic molecules via EnT. For example, g-CN sensitizes singlet oxygen, which is the key intermediate in the dehydrogenation of aldoximes to nitrileoxides. The transient nitrileoxide undergoes [3+2]-cycloaddition to nitriles and gives oxadiazoles-1,2,4. PET, ES-PCET and EnT are fundamental phenomena that are applied beyond organic photocatalysis. Hybrid composite is formed by combining conductive polymers, such as poly(3,4-ethylenedioxythiophene) polystyrene sulfonate (PEDOT:PSS) with potassium poly(heptazine imide) (K-PHI). Upon PET, K-PHI modulated population of polarons and therefore conductivity of PEDOT:PSS. The initial state of PEDOT:PSS is recovered upon material exposure to O2. K-PHI:PEDOT:PSS may be applied in O2 sensing. In the presence of electron donors, such as tertiary amines and alcohols, and irradiation with light, K-PHI undergoes photocharging – the g-CN material accumulates electrons and charge-compensating cations. Such photocharged state is stable under anaerobic conditions for weeks, but at the same time it is a strong reductant. This feature allows decoupling in time light harvesting and energy storage in the form of electron-proton couples from utilization in organic synthesis. The photocharged state of K-PHI reduces nitrobenzene to aniline, and enables dimerization of α,β-unsaturated ketones to hexadienones in dark. N2 - Graphitische Kohlenstoffnitride (g-CNs) werden durch g-CN vom Melonen-Typ, Poly(heptazinimide) (PHIs), g-CN auf Triazinbasis und Poly(triazinimid) mit interkaliertem LiCl (PTI/Li+Cl-) repräsentiert. Diese Materialien bestehen aus sp2-hybridisierten Kohlenstoff- und Stickstoffatomen; das C:N-Verhältnis liegt nahe bei 3:4; das Grundgerüst ist 1,3,5-Triazin oder Tri-s-Triazin; die Grundgerüste sind kovalent über sp2-hybridisierte Stickstoffatome oder NH-Moleküle miteinander verbunden; die Schichten werden über schwache van-der-Waals-Kräfte wie in Graphit zu einem Stapel zusammengefügt. Aufgrund der mittleren Bandlücke (~2,7 eV) werden g-CNs, wie z. B. g-CN vom Melonen-Typ und PHIs, durch Photonen mit einer Wellenlänge ≤ 460 nm angeregt. Seit 2009 werden g-CNs aktiv als Photokatalysatoren für die Entwicklung von Wasserstoff und Sauerstoff - zwei Halbreaktionen der vollständigen Wasserspaltung - untersucht, indem entsprechende Opferstoffe eingesetzt werden. Gleichzeitig ist die Anwendung von g-CNs als Photokatalysatoren in der organischen Synthese auf wenige Reaktionen beschränkt geblieben. Die kumulative Habilitation fasst die Forschungsarbeiten zusammen, die von der Gruppe "Innovative heterogene Photokatalyse" zwischen 2017 und 2023 auf dem Gebiet der organischen Photokatalyse mit Kohlenstoffnitrid durchgeführt wurden, die von Dr. Oleksandr Savatieiev geleitet wird. g-CN-Photokatalysatoren aktivieren Moleküle, d. h. sie erzeugen ihre reaktiveren Zwischenprodukte mit offener Schale über drei Modi: i) photoinduzierter Elektronentransfer (PET); ii) protonengekoppelter Elektronentransfer im angeregten Zustand (ES-PCET) oder direkter Wasserstoffatomtransfer (dHAT); iii) Energietransfer (EnT). Der Bereich der Reaktionen, die über oxidativen PET ablaufen, d. h. die Ein-Elektronen-Oxidation eines Substrats zum entsprechenden Radikalkation, wird durch die Synthese von Sulfonylchloriden aus S-Acetylthiophenolen dargestellt. Der Bereich der Reaktionen, die über reduktive PET ablaufen, d. h. Reduktion eines Substrats mit einem Elektron zum entsprechenden radikalischen Anion, wird durch die Synthese von γ,γ-Dichloroketonen aus Enonen und Chloroform repräsentiert. Aufgrund der zahlreichen sp2-hybridisierten Stickstoffatome in der Struktur der g-CN-Materialien können sie X-H-Bindungen in organischen Molekülen spalten und temporäre Wasserstoffatome speichern. Der ES-PCET- oder dHAT-Modus der Aktivierung organischer Moleküle zu den entsprechenden Radikalen wird bei Substraten mit relativ sauren X-H-Bindungen und solchen, die sich durch eine niedrige Bindungsdissoziationsenergie auszeichnen, wie z. B. die C-H-Bindung neben den Heteroelementen, durchgeführt. Andererseits reduziert reduktiv gequenchtes g-CN, das ein Wasserstoffatom trägt, eine Carbonylverbindung über PCET zum Ketylradikal, was im Vergleich zum Elektronentransfer der thermodynamisch günstigere Weg ist. Der Umfang dieser Reaktionen wird durch die Cyclodimerisierung von α,β-ungesättigten Ketonen zu Cyclopentanolen dargestellt. Der angeregte Zustand von g-CN zeigt eine komplexe Dynamik mit der anfänglichen Bildung eines angeregten Singulett-Zustands, der beim Übergang zwischen den Systemen einen angeregten Triplett-Zustand erzeugt, der durch eine Lebensdauer von > 2 μs gekennzeichnet ist. Aufgrund der langen Lebensdauer aktivieren g-CN organische Moleküle über EnT. So sensibilisiert g-CN beispielsweise Singulett-Sauerstoff, der das wichtigste Zwischenprodukt bei der Dehydrierung von Aldoximen zu Nitriloxiden ist. Das transiente Nitriloxid unterliegt einer [3+2]-Cycloaddition zu Nitrilen und ergibt Oxadiazole-1,2,4. PET, ES-PCET und EnT sind grundlegende Phänomene, die über die organische Photokatalyse hinaus Anwendung finden. Hybridkomposit wird durch die Kombination von leitfähigen Polymeren wie Poly(3,4-ethylendioxythiophen)polystyrolsulfonat (PEDOT:PSS) mit Kaliumpoly(heptazinimid) (K-PHI) gebildet. Nach PET modulierte K-PHI die Population der Polaronen und damit die Leitfähigkeit von PEDOT:PSS. Der Ausgangszustand von PEDOT:PSS wird wiederhergestellt, wenn das Material O2 ausgesetzt wird. K-PHI:PEDOT:PSS kann für die O2-Sensorik verwendet werden. In Gegenwart von Elektronendonatoren, wie tertiären Aminen und Alkoholen, und bei Lichteinstrahlung wird K-PHI photogeladen - das g-CN-Material sammelt Elektronen und ladungsausgleichende Kationen an. Dieser photogeladene Zustand ist unter anaeroben Bedingungen wochenlang stabil, gleichzeitig ist er aber ein starkes Reduktionsmittel. Diese Eigenschaft ermöglicht die zeitliche Entkopplung von Lichtsammlung und Energiespeicherung in Form von Elektron-Protonen-Paaren von der Nutzung in der organischen Synthese. Der photogeladene Zustand von K-PHI reduziert Nitrobenzol zu Anilin und ermöglicht die Dimerisierung von α,β-ungesättigten Ketonen zu Hexadienonen im Dunkeln. KW - carbon nitride KW - photocatalysis KW - photochemistry KW - photocharging KW - organic synthesis Y1 - 2023 ER - TY - THES A1 - Breternitz, Joachim T1 - Structural systematic investigations of photovoltaic absorber materials N2 - The direct conversion of light from the sun into usable forms of energy marks one of the central cornerstones of the change of our living from the use of fossil, non-renewable energy resources towards a more sustainable economy. Besides the necessary societal changes necessary, it is the understanding of the solids employed that is of particular importance for the success of this target. In this work, the principles and approaches of systematic-crystallographic characterisation and systematisation of solids is used and employed to allow a directed tuning of the materials properties. The thorough understanding of the solid-state forms hereby the basis, on which more applied approaches are founded. Two material systems, which are considered as promising solar absorber materials, are at the core of this work: halide perovskites and II-IV-N2 nitride materials. While the first is renowned for its high efficiencies and rapid development in the last years, the latter is putting an emphasis on true sustainability in that toxic and scarce elements are avoided. N2 - Die direkte Umwandlung der Energie der Sonne bildet einen zentralen Baustein im Umbau unserer Gesellschaft von der Nutzung fossiler, nicht nachhaltiger Energieträger zum Erreichen einer nachhaltigen Wirtschaft. Neben den gesellschaftlichen Veränderungen ist es insbesondere das Verständnis der genutzten Festkörper, das den Motor dieser Entwicklung bildet. In dieser Arbeit werden Prinzipien der systematisch-kristallographischen Untersuchung und Kategorisierung von Festkörpern genutzt, um die Eigenschaften der Materialien gezielt steuern zu können. Dabei bildet das Verständnis des kristallinen Zustands und seine Untersuchung die Basis, auf der angewandtere Forschungsansätze aufbauen. In dieser Arbeit werden vor allem zwei Materialsysteme betrachtet, die als Absorbermaterialien in Solarzellen in Betracht gezogen werden: Halid-Perowskite und II-IV-N2-Nitrid Materialien. Die ersteren zeichnen sich insbesondere durch ihre erstaunlich hohen Effizienzen und rapide Entwicklung in den letzten Jahren aus, während das letztere System in besonderer Weise auf Nachhaltigkeit optimiert ist, und giftige oder seltene Elemente zu vermeiden sucht. KW - Materials Chemistry KW - Crystallography KW - Photovoltaics Y1 - 2023 ER - TY - THES A1 - Meyer, Dominique M.-A. T1 - The circumstellar medium of massive stars Y1 - 2023 ER - TY - THES A1 - Metzger, Sabrina T1 - Neotectonic deformation over space and time as observed by space-based geodesy T1 - Über die Vermessung neotektonischer Deformation in Raum und mit Hilfe von satellitengestützter Geodäsie N2 - Alfred Wegeners ideas on continental drift were doubted for several decades until the discovery of polarization changes at the Atlantic seafloor and the seismic catalogs imaging oceanic subduction underneath the continental crust (Wadati-Benioff Zone). It took another 20 years until plate motion could be directly observed and quantified by using space geodesy. Since then, it is unthinkable to do neotectonic research without the use of satellite-based methods. Thanks to a tremendeous increase of instrumental observations in space and time over the last decades we significantly increased our knowledge on the complexity of the seismic cycle, that is, the interplay of tectonic stress build up and release. Our classical assumption, earthquakes were the only significant phenomena of strain release previously accumulated in a linear fashion, is outdated. We now know that this concept is actually decorated with a wide range of slow and fast processes such as triggered slip, afterslip, post-seismic and visco-elastic relaxation of the lower crust, dynamic pore-pressure changes in the elastic crust, aseismic creep, slow slip events and seismic swarms. On the basis of eleven peer-reviewed papers studies I here present the diversity of crustal deformation processes. Based on time-series analyses of radar imagery and satellited-based positioning data I quantify tectonic surface deformation and use numerical and analytical models and independent geologic and seismologic data to better understand the underlying crustal processes. The main part of my work focuses on the deformation observed in the Pamir, the Hindu Kush and the Tian Shan that together build the highly active continental collision zone between Northwest-India and Eurasia. Centered around the Sarez earthquake that ruptured the center of the Pamir in 2015 I present diverse examples of crustal deformation phenomena. Driver of the deformation is the Indian indenter, bulldozing into the Pamir, compressing the orogen that then collapses westward into the Tajik depression. A second natural observatory of mine to study tectonic deformation is the oceanic subduction zone in Chile that repeatedly hosts large earthquakes of magnitude 8 and more. These are best to study post-seismic relaxation processes and coupling of large earthquake. My findings nicely illustrate how complex fashion and how much the different deformation phenomena are coupled in space and time. My publications contribute to the awareness that the classical concept of the seismic cycle needs to be revised, which, in turn, has a large influence in the classical, probabilistic seismic hazard assessment that primarily relies on statistically solid recurrence times. N2 - Alfred Wegeners Thesen des Kontinentaldrifts fanden erst in den 1960er und 1970er Jahren Akzeptanz, als die krustalen Polarisationswechsel auf dem atlantischen Meeresboden entdeckt wurden und Erdbebenkataloge das Abtauchen von ozeanischer Kruste unter kontinentale Kruste abbildeten (Wadati-Benioff-Zone). Es dauerte jedoch weitere 20 Jahre, bis die Geodäsie erstmals Plattenbewegung sicht- und quantifizierbar machte. Seit dann sind satellitengestützte Messmethoden aus der neotektonischen Forschung nicht mehr wegzudenken. Dank einer stetig (zeitlich und räumlich) wachsenden Anzahl instrumenteller Beobachtungsdaten wird unser Verständnis des Erdbebenzyklus—des Wechselspiels zwischen tektonischem Spannungsauf- und -abbau—immer komplexer. Das klassische Konzept, nur Erdbeben setzten die zuvor linear aufgebaute Spannungsenergie instantan frei, wird heutzutage durch eine Vielzahl von zusätzlichen schnelleren und langsameren Prozessen ergänzt. Beispiele dafür sind getriggerte Versätze (triggered slip), Nachbeben (afterslip), postseismische und visko-elastische Relaxation der tieferen Kruste, dynamische, elastische Veränderungen des Gesteins-Porendrucks, aseismisches Kriechen sowie Spannungsabbau durch kleine Erdbebenschwärme. Anhand von elf begutachteten und bereits veröffentlichten Arbeiten präsentiere ich in meiner Habilitationsschrift die Diversität krustaler Deformationsprozesse. Ich analysiere Zeitreihen von Radar-Satellitenaufnahmen und satellitengestützten Positionierungssystemen um die tektonische Oberflächenbewegung zu quantifizieren. Der Vergleich von kinematischen Beobachtungen mit geologischen und seismischen Indizien sowie die Simulation ebenjener durch rechnergestützte Modelle ermöglichen mir, die verursachenden krustalen Prozesse besser verstehen. Der Hauptteil meiner Arbeiten beschreibt rezente, krustale Bewegungen im Pamir, Hindu Kush und Tien Shan, welche zusammen das westliche Ende der kontinentalen Kollisionszone zwischen dem indischen und eurasischen Kontinent bilden. Rund um ein starkes Erdbeben, welches 2015 den Zentralpamir erschüttert hat, zeige ich vielseitige Beispiele von hochaktiver krustaler Deformation. Verursacht werden diese Bewegungen durch den nordwestindischen Kontinentalsporn, welcher (fast) ungebremst in den Pamir hineinrammt, ihn auftürmt, zusammenquetscht, und ihn gravitationsbedingt gegen Westen ins tadschikische Becken kollabieren lässt. Der zweite thematische Schwerpunkt liegt auf Prozessen, welche durch Megathrust-Erdbeben, also Beben mit einer Magnitude>8, hervorgerufen werden. Diese Anwendungen fokussieren sich auf die ozeanischen Subduktionszone von Chile und zeigen die Wichtigkeit vertikaler Hebungsdaten um, beispielsweise, den Einfluss tektonischer Prozesse auf den Gesteins-Porendruck zu verstehen. Zusammenfassend veranschaulichen und bestätigen meine Arbeiten, wie stark und komplex die oben beschriebenen Prozesse räumlich und zeitlich korrelieren, und dass das klassische Konzept des Erdbebenzyklus überholt ist. Letztere Einsicht hat grossen Einfluss auf probabilistische seismische Gefährdungsanalysen, welche grundsätzlich statistische Vorhersagbarkeit annehmen. KW - radar satellite interferometry KW - tectonics KW - geodesy KW - seismology KW - earthquakes KW - InSAR KW - InSAR KW - Erdbeben KW - Geodäsie KW - Radar-Satelliteninterferometrie KW - Seismologie KW - Tektonik Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-599225 ER - TY - THES A1 - Bouakline, Foudhil T1 - Manifestations of Quantum-Mechanical Effects in Molecular Reaction Dynamics N2 - This habilitation thesis summarises the research work performed by the author during the last quindecennial period. The dissertation reflects his main research interests, which revolve around quantum dynamics of small-sized molecular systems, including their interactions with electromagnetic radiation or dissipative environments. This covers various dynamical processes that involve bound-bound, bound-free, and free-free molecular transitions. The latter encompass light-triggered rovibrational or rovibronic dynamics in bound molecules, molecular photodissociation induced by weak or strong laser fields, state-to-state reactive and/or inelastic molecular collisions, and phonon-driven vibrational relaxation of adsorbates at solid surfaces. Although the dissertation covers different topics of molecular reaction dynamics, most of these studies focus on nuclear quantum effects and their manifestations in experimental measures. The latter are assessed through comparison between quantum and classical predictions, and/or direct confrontation of theory and experiment. Most well known quantum concepts and effects will be encountered in this work. Yet, almost all these quantum notions find their roots in the central pillar of quantum theory, namely, the quantum superposition principle. Indeed, quantum coherence is the main source of most quantum effects, including interference, entanglement, and even tunneling. Thus, the common and predominant theme of all the investigations of this thesis is quantum coherence, and the survival or quenching of subsequent interference effects in various molecular processes. The lion's share of the dissertation is devoted to two associated quantum concepts, which are usually overlooked in computational molecular dynamics, viz. the Berry phase and identical nuclei symmetry. The importance of the latter in dynamical molecular processes and their direct fingerprints in experimental observables also rely very much on quantum coherence and entanglement. All these quantum phenomena are thoroughly discussed within the four main topics that form the core of this thesis. Each topic is described in a separate chapter, where it is briefly summarised and then illustrated with three peer-reviewed publications. The first topic deals with the relevance of quantum coherence/interference in molecular collisions, with a focus on the hydrogen-exchange reaction, H+H2 --> H2+H, and its isotopologues. For these collision processes, the significance of interference of probability amplitudes arises because of the existence of two main scattering pathways. The latter could be inelastic and reactive scattering, direct and time-delayed scattering, or two encircling reaction paths that loop in opposite senses around a conical intersection (CI) of the H3 molecular system. Our joint theoretical-experimental investigations of these processes reveal strong interference and geometric phase (GP) effects in state-to-state reaction probabilities and differential cross sections. However, these coherent effects completely cancel in integral cross sections and reaction rate constants, due to efficient dephasing of interference between the different scattering amplitudes. As byproducts of these studies, we highlight the discovery of two novel scattering mechanisms, which contradict conventional textbook pictures of molecular reaction dynamics. The second topic concerns the effect of the Berry phase on molecular photodynamics at conical intersections. To understand this effect, we developed a topological approach that separates the total molecular wavefunction of an unbound molecular system into two components, which wind in opposite senses around the conical intersection. This separation reveals that the only effect of the geometric phase is to change the sign of the relative phase of these two components. This in turn leads to a shift in the interference pattern of the molecular system---a phase shift that is reminiscient of the celebrated Aharonov-Bohm effect. This procedure is numerically illustrated with photodynamics at model standard CIs, as well as strong-field dissociation of diatomics at light-induced conical intersections (LICIs). Besides the fundamental aspect of these studies, their findings allow to interpret and predict the effect of the GP on the state-resolved or angle-resolved spectra of pump-probe experimental schemes, particularly the distributions of photofragments in molecular photodissociation experiments. The third topic pertains to the role of the indistinguishability of identical nuclei in molecular reaction dynamics, with an emphasis on dynamical localization in highly symmetric molecules. The main object of these studies is whether nuclear-spin statistics allow dynamical localization of the electronic, vibrational, or even rotational density on a specific molecular substructure or configuration rather than on another one which is identical (indistinguishable). Group-theoretic analysis of the symmetrized molecular wavefunctions of these systems shows that nuclear permutation symmetry engenders quantum entanglement between the eigenstates of the different molecular degrees of freedom. This subsequently leads to complete quenching of dynamical localization over indistinguishable molecular substructures---an observation that is in sharp contradiction with well known textbook views of iconic molecular processes. This is illustrated with various examples of quantum dynamics in symmetric double-well achiral molecules, such as the prototypical umbrella inversion motion of ammonia, electronic Kekulé dynamics in the benzene molecule, and coupled electron-nuclear dynamics in laser-induced indirect photodissociation of the dihydrogen molecular cation. The last part of the thesis is devoted to the development of approximate wavefunction approaches for phonon-induced vibrational relaxation of adsorbates (system) at surfaces (bath). Due to the so-called 'curse of dimensionality', these system-bath complexes cannot be handled with standard wavefunction methods. To alleviate the exponential scaling of the latter, we developed approximate yet quite accurate numerical schemes that have a polynomial scaling with respect to the bath dimensionality. The corresponding algorithms combine symmetry-based reductions of the full vibrational Hilbert space and iterative Krylov techniques. These approximate wavefunction approaches resemble the 'Bixon-Jortner model' and the more general 'quantum tier model'. This is illustrated with the decay of H-Si (D-Si) vibrations on a fully H(D)-covered silicon surface, which is modelled with a phonon-bath of more than two thousand oscillators. These approximate methods allow reliable estimation of the adsorbate vibrational lifetimes, and provide some insight into vibration-phonon couplings at solid surfaces. Although this topic is mainly computational, the developed wavefunction approaches permit to describe quantum entanglement between the system and bath states, and to embody some coherent effects in the time-evolution of the (sub-)system, which cannot be accounted for with the widely used 'reduced density matrix formalism'. N2 - Diese Habilitationsschrift fasst die Forschungsarbeiten des Autors während der letzten 15 Jahre zusammen. Die wissenschaftliche Abhandlung spiegelt seine hauptsächlichen Forschungsinteressen wider, die sich um die Quantendynamik kleiner molekularer Systeme drehen, einschließlich ihrer Wechselwirkung mit elektromagnetischer Strahlung oder dissipativer Umgebungen. Dies umfasst verschiedene dynamische Prozesse, die Übergänge zwischen molekulare Zuständen (gebunden-gebunden, gebunden-frei und frei-frei) beinhalten. Dazu zählen lichtgesteuerte rovibronische Dynamik in gebundenen Molekülen, molekulare Photodissoziation durch schwache oder starke Laserfelder, reaktive und/oder inelastische molekulare Kollisionen und phononengesteuerte Schwingungsrelaxation von Adsorbaten auf Festkörperoberflächen. Obwohl die Habilitationsschrift verschiedene Themengebiete molekularer Reaktionsdynamik abdeckt, konzentrieren sich die meisten Arbeiten auf nukleare Quanteneffekte und wie sich diese in experimentellen Messgrößen äußern.. Dies wird durch den Vergleich von quantenphysikalischen und klassischen Vorhersagen und/oder eine direkte Gegenüberstellung von Theorie und Experiment beurteilt. Die meisten wohlbekannten quantenphysikalischen Konzepte und Effekte kommen in dieser Arbeit vor. Fast alle davon beruhen auf der zentralen Säule der Quantentheorie, dem Quanten-Superpositionsprinzip. Tatsächlich ist Quantenkohärenz die Hauptquelle der meisten Quanteneffekte, einschließlich Interferenz, Verschränkung und sogar Tunneln. Daher ist das gemeinsame und vorherrschende Thema aller Untersuchungen in dieser Arbeit die Quantenkoheränz und das Fortbestehen oder die Auslöschung der daraus folgenden Interferenzauswirkungen in verschiedenen molekularen Prozessen. Der Hauptanteil dieser Habilitationsschrift behandelt zwei verwandte Quantenkonzepte, die in Molekulardynamik-Rechnungen meist keine Beachtung finden, nämlich der Berry-Phase und der Symmetrie identischer Kerne. Deren Bedeutung in dynamischen molekularen Prozessen und ihre Anzeichen in experimentellen Messgrößen beruhen auch zu großen Teilen auf Quantenkohärenz und Verschränkung. Alle diese Quantenphänomene werden in den vier Hauptthemen, die den Kern dieser Arbeit bilden, umfassend behandelt. Jedes Themengebiet wird in einem separaten Kapitel beschrieben, in dem es kurz zusammengefasst und durch drei extern begutachtete Veröffentlichungen dargestellt wird. Das erste Themengebiet behandelt die Relevanz von Interferenz bei molekularen Kollisionen, wobei der Fokus auf der Wasserstoff-Austauschreaktion, H+H2 --> H2+H, und ihren Isotopologen liegt. Die Bedeutsamkeit der Interferenz der Wahrscheinlichkeits-Amplituden für solche Kollisionsprozesse erwächst aus der Existenz zweier Haupt-Streupfade. Dabei kann es sich um inelastische und reaktive Streuung, direkte und zeitverzögerte Streuung oder zwei gegenläufige Reaktionspfade um eine konische Durchschneidung (conical intersection, CI) im H3-Molekülsystem handeln. Unsere gemeinsamen theoretische und experimentelle Untersuchungen dieser Prozesse offenbaren einen starken Einfluss von Interferenz und der geometrischen Phase (GP) auf “state-to-state” Reaktionswahrscheinlichkeiten und differentielle Querschnitte. Allerdings heben sich diese kohärenten Effekte bei integralen Querschnitten und Reaktionsgeschwindigkeitskonstanten durch effiziente Dephasierung der Interferenz zwischen verschiedenen Streuamplituden komplett auf. Als Nebenprodukte dieser Studien heben wir die Entdeckung zweier neuartiger Streumechanismen hervor, die herkömmlichen Lehrbuchmeinungen widersprechen. Das zweite Thema dreht sich um die Auswirkungen der Berry-Phase auf molekulare Photodynamik an konischen Durchschneidungen. Um diesen Effekt zu verstehen, haben wir einen topologischen Ansatz entwickelt, der die gesamte molekulare Wellenfunktion eines ungebundenen molekularen Systems in zwei Komponenten trennt, die sich in unterschiedlichen Richtungen um die CI winden. Diese Unterteilung zeigt, dass die einzige Auswirkung der geometrischen Phase ein Vorzeichenwechsel der relativen Phase der beiden Komponenten ist. Dieser führt seinerseits zu einer Verschiebung im Interferenzmuster des molekularen Systems---eine Phasenverschiebung, die an den berühmten Aharonov–Bohm-Effekt erinnert. Dieses Verfahren wird numerisch anhand der Photodynamik von üblichen CI-Modellen sowie der Dissoziation von zweiatomigen Molekülen an lichtinduzierten konischen Durchschneidungen (light-induced conical intersections, LICIs) in starken Feldern dargestellt. Neben den fundamentellen Aspekten dieser Arbeiten erlauben die Ergebnisse auch, den Einfluss der geometrischen Phase auf zustandsaufgelöste oder winkelaufgelöste Spektren in “Pump-Probe”-Experimenten zu interpretieren und vorherzusagen, insbesondere die Verteilungen von Photofragmenten in Photodissoziationsexperimenten. Das dritte Themengebiet betrifft die Rolle der Ununterscheidbarkeit identischer Kerne in der molekularen Reaktionsdynamik, wobei der Schwerpunkt auf der dynamischen Lokalisierung hochsymmetrischer Moleküle liegt. Zentraler Gegenstand dieser Arbeiten ist die Frage, ob Kernspin-Statistiken eine dynamische Lokalisierung der Elektronen-, Vibrations- oder sogar Rotations-Dichte auf eine spezifische molekulare Unterstruktur oder Konfiguration anstelle einer anderen identischen (ununterscheidbaren) Teilstruktur erlauben. Gruppentheoretische Betrachtungen der symmetrisierten molekularen Wellenfunktionen dieser Systeme zeigen, dass die nukleare Permutationssymmetrie eine Quantenverschränkung zwischen den Eigenzuständen der verschiedenen molekularen Freiheitsgrade verursacht. Dies führt zu einer kompletten Löschung der dynamischen Lokalisierung auf ununterscheidbare molekulare Teilstrukturen---ein Ergebnis, das in krassem Widerspruch zu weitverbreiteten Lehrbuchansichten ikonischer molekularer Prozesse steht. Dies wird anhand verschiedener Beispiele für die Quantendynamik in achiralen Molekülen mit symmetrischem Doppelminimumspotential illustriert, wie etwa der prototypische pyramidale Inversion von Ammoniak, der elektronischen Kekulé-Dynamik im Benzol-Molekül und der gekoppelte Elektron-Kern-Dynamik bei der laser-induzierten indirekten Photodissoziation des Diwasserstoff-Kations. Der letzte Teil der Habilitationsschrift widmet sich der Entwicklung genäherter Wellenfunktions-Ansätze für die phononengesteuerte Schwingungsrelaxation von Adsorbaten (System) auf Oberflächen (Bad). Aufgrund des sogenannten “Fluchs der Dimensionalität” können diese System-Bad-Komplexe nicht mit üblichen Wellenfunktionsmethoden behandelt werden. Um deren exponentielle Skalierung zu vermindern, haben wir genäherte, aber recht genaue, numerische Verfahren mit polynomialer Skalierung in Bezug auf die Bad-Dimensionen entwickelt.. Die entsprechenden Algorithmen vereinen eine symmetriebasierte Verringerung des vollen Vibrations-Hilbertraums und iterative Krylov-Verfahren. Diese genäherten Wellenfunktionsansätze ähneln dem “Bixon-Jortner Modell” und dem allgemeineren “Quanten-Stufenmodell”. Sie werden auf den Zerfall der H(D)-Si-Schwingungen auf einer komplett mit H (D) bedeckten Siliziumoberfläche angewandt, die durch ein Phononenbad mit mehr als zweitausend Oszillatoren dargestellt wird. Diese Näherungsverfahren erlauben eine zuverlässige Abschätzung der Schwingungslebensdauern der Adsorbate und gewähren Einsicht in die Vibrations-Phonon-Kopplungen an Festkörperoberflächen. Obwohl dieses Thema hauptsächlich rechenbetont ist, ermöglichen die entwickelten Wellenfunktionsmethoden eine Beschreibung der Quantenverschränkung zwischen System- und Bad-Zuständen und die Illustration einiger kohärenter Effekte in der zeitlichen Entwicklung des (Teil-)Systems, die nicht mit dem häufig verwendeten reduzierten Dichtematrix-Formalismus erfasst werden können. KW - Molecular Collisions KW - Conical Intersections KW - Berry Phase KW - Nuclear-Spin-Statistics KW - Dissipation-Decoherence KW - Molekulare Kollisionen KW - Konischen Durchschneidungen KW - Berry-Phase KW - Kernspin-Statistiken KW - Dissipation-Dekohärenz Y1 - 2023 ER - TY - THES A1 - Strauß, Volker T1 - Laser-induced carbonization - from fundamentals to applications N2 - Fabricating electronic devices from natural, renewable resources has been a common goal in engineering and materials science for many years. In this regard, carbon is of special significance due to its biological compatibility. In the laboratory, carbonized materials and their composites have been proven as promising solutions for a range of future applications in electronics, optoelectronics, or catalytic systems. On the industrial scale, however, their application is inhibited by tedious and expensive preparation processes and a lack of control over the processing and material parameters. Therefore, we are exploring new concepts for the direct utilization of functional carbonized materials in electronic applications. In particular, laser-induced carbonization (carbon laser-patterning (CLaP)) is emerging as a new tool for the precise and selective synthesis of functional carbon-based materials for flexible on-chip applications. We developed an integrated approach for on-the-spot laser-induced synthesis of flexible, carbonized films with specific functionalities. To this end, we design versatile precursor inks made from naturally abundant starting compounds and reactants to cast films which are carbonized with an infrared laser to obtain functional patterns of conductive porous carbon networks. In our studies we obtained deep mechanistic insights into the formation process and the microstructure of laser-patterned carbons (LP-C). We shed light on the kinetic reaction mechanism based on the interplay between the precursor properties and the reaction conditions. Furthermore, we investigated the use of porogens, additives, and reactants to provide a toolbox for the chemical and physical fine-tuning of the electronic and surface properties and the targeted integration of functional sites into the carbon network. Based on this knowledge, we developed prototype resistive chemical and mechanical sensors. In further studies, we show the applicability of LP-C as electrode materials in electrocatalytic and charge-storage applications. To put our findings into a common perspective, our results are embedded into the context of general carbonization strategies, fundamentals of laser-induced materials processing, and a broad literature review on state-of-the-art laser-carbonization, in the general part. N2 - Die Herstellung elektronischer Geräte aus natürlichen, erneuerbaren Ressourcen ist seit vielen Jahren ein gemeinsames Ziel in den Ingenieurs- und Materialwissenschaften. Kohlenstoff kommt dabei aufgrund seiner biologischen Verträglichkeit eine besondere Bedeutung zu. Im Labor haben sich karbonisierte Materialien und ihre Verbundwerkstoffe als vielversprechende Lösungen für eine Reihe zukünftiger Anwendungen in der Elektronik, Optoelektronik oder katalytischen Systemen erwiesen. Im industriellen Maßstab wird ihre Anwendung jedoch durch langwierige und teure Herstellungsverfahren und mangelnde Kontrolle über die Verarbeitungs- und Materialparameter gehemmt. Daher erforschen wir neue Konzepte für die direkte Nutzung funktionaler karbonisierter Materialien in elektronischen Anwendungen. Insbesondere die laserinduzierte Karbonisierung / Kohlenstoff-Laserstrukturierung (KoLaSt) entwickelt sich zu einem neuen Werkzeug für die präzise und selektive Synthese von funktionellen Materialien auf Kohlenstoffbasis für flexible On-Chip-Anwendungen. Wir haben einen integrierten Ansatz für die direkte laserinduzierte Synthese von flexiblen, karbonisierten Filmen mit spezifischen Funktionalitäten entwickelt. Zu diesem Zweck haben wir vielseitige Vorläufertinten aus natürlich vorkommenden organischen Ausgangsstoffen und Reaktanten entwickelt, um Filme aufzutragen, die mit einem Infrarotlaser karbonisiert werden um dadurch funktionelle Muster aus leitfähigen porösen Kohlenstoffnetzwerken zu erhalten. In unseren Studien haben wir tiefe mechanistische Einblicke in den Bildungsprozess und die Mikrostruktur von laserstrukturierten Kohlenstoffen (LP-C) erhalten. Wir beleuchten den kinetischen Reaktionsmechanismus basierend auf dem Zusammenspiel zwischen den Vorläufereigenschaften und den Reaktionsbedingungen. Darüber hinaus untersuchen wir die Verwendung von Porogenen, Additiven und Reaktanten, um eine Toolbox für die chemische und physikalische Feineinstellung der elektronischen und Oberflächeneigenschaften und die gezielte Integration von funktionellen Einheiten in das Kohlenstoffnetzwerk bereitzustellen. Basierend auf diesem Wissen haben wir Prototypen resistiver chemischer und mechanischer Sensoren entwickelt. In weiteren Studien zeigen wir die Anwendbarkeit von LP-C als Elektrodenmaterialien in elektrokatalytischen und Ladungsspeicheranwendungen. Um unsere Erkenntnisse in eine allgemeine Perspektive zu bringen, betten wir unsere Ergebnisse im allgemeinen Teil in den Kontext bekannter Karbonisierungsstrategien, Grundlagen der laserinduzierten Materialbearbeitung und einer breiten Literaturübersicht zum Stand der Technik der Laserkarbonisierung ein. KW - Laser-Carbonization KW - Carbonization KW - Chemical Sensors KW - Electronic materials KW - Laserkarbonisierung KW - Karbonisierung KW - chemische Sensoren KW - elektronische Materialien Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-591995 ER - TY - THES A1 - Gwozdz, Patricia A. T1 - Ecce figura BT - Lektüren eines Konzepts in Konstellationen (100 v. Chr.–1946) T2 - Mimesis N2 - Worüber wir reden, wenn wir von Figuren reden, ist eine komplexe Fragestellung, die unterschiedliche Disziplinen berührt. Mit Erich Auerbachs figura/Mimesis-Projekt wurde die interdiszplinäre Forschung dieses Begriffs initiiert. Ob Literatur-, Bild- oder Wissensgeschichte – die Präsenz und Aktualität von figura in der romanistischen und komparatistischen Forschung bezeugt ein anhaltendes Interesse an der Theoriearbeit zwischen Theologie, Philosophie, Literatur- und Kunstwissenschaft. Allerdings fehlt bislang eine grundlegende methodologische Reflexion, die die interdisziplinären Aspekte gleichrangig berücksichtigt und zu einer gemeinsamen Arbeit am Begriff vereinigt. Dieses Versäumnis zu beheben, ist Aufgabe der vorliegenden Arbeit. Ausgehend von Erich Auerbach, Walter Benjamin und Hannah Arendt verfolgt die Monographie in vergleichenden Konstellationen von der Antike bis in die Moderne die literatur- und kunsthistorischen, theologischen und philosophischen Spuren von figura, die zu einer Methode der literaturphilosophischen Figuralogie ausgebaut werden. Ecce figura versteht sich als ein Kompendium interdisziplinärer Begriffsgeschichte zwischen Literatur, Philosophie und Theologie, das dazu einlädt, in neuen Konstellationen gelesen und erweitert zu werden. KW - figura KW - Auerbach, Erich KW - Begriffsgeschichte KW - Literaturtheorie Y1 - 2023 SN - 978-3-11-099722-4 SN - 978-3-11-098586-3 SN - 978-3-11-098624-2 U6 - https://doi.org/10.1515/9783110985863 SN - 0178-7489 IS - 103 PB - De Gruyter CY - Berlin, Boston ER - TY - THES A1 - Cassel, Michael T1 - Klinische Analyse der physiologischen und pathologischen Sehnenadaptation an sportliche Belastung BT - belastungsabhängige Veränderungen und diagnostische Abgrenzbarkeit Y1 - 2021 ER - TY - THES A1 - Müller, Gesine T1 - Die Koloniale Karibik BT - zwischen Bipolarität und Multirelationalität, Tranzferprozesse in hispanophonen und frankophonen Literaturen (in 2 Teil Bänden) N2 - Werden nicht in der Karibik des 19. Jahrhunderts Phänomene und Prozesse vorweg-genommen, die heute erst ins Bewusstsein gelangen? Der Blick auf die kaleidoskopartige Welt der Karibik über literarische und kulturelle Transprozesse in jener Epoche erlaubt völlig neue Einsichten in die frühen Prozesse der kulturellen Globalisierung. Rassistische Diskurse, etablierte Modelle „weißer“ Abolitionisten, Erinnerungspolitiken und die bisher kaum wahrgenommene Rolle der haitianischen Revolution verbinden sich zu einem Amalgam, das unser gängiges Konzept einer genuin westlichen Moderne in Frage stellt. KW - Ethnische Beziehungen KW - Französisch KW - Geschichte 1800-1900 KW - Kolonialismus KW - Karibik KW - Kulturelle Identität KW - Literatur KW - Sprache Y1 - 2012 ER - TY - THES A1 - Lenz, Markus Alexander T1 - Die verletzte Republik BT - Erzählte Gewalt im Frankreich des 21. Jahrhunderts T2 - Mimesis : romanische Literaturen der Welt N2 - Die Studie stellt die Frage nach dem Beitrag erzählender Literatur zu einem Dialog über Formen der Gewalt im gesellschaftlichen Raum Frankreich zu Beginn des 21. Jahrhunderts. Unter Rückgriff auf Bourdieu’sche Konzepte literatursoziologischer Theorie diskutiert sie zunächst die für ein sozialwissenschaftlich relevantes Erfassen des Wissens von Literatur notwendige Perspektive auf erzählte Gewalt. Bei dem dafür untersuchten Text-Korpus handelt es sich um vielrezipierte Erzähltexte des literarischen Feldes in Frankreich, welche größtenteils in der zweiten Dekade des 21. Jahrhunderts erschienen sind. Ausgehend von theoretischen Überlegungen zu Grenzen und Möglichkeiten einer solchen feldsoziologischen Fokussierung auf die Literatur der unmittelbaren Gegenwart wird am konkreten Textmaterial und mit den Mitteln der Literaturwissenschaft untersucht, wie und warum die französische Literatur über unterschiedliche Formen von Gewalt, vom Erinnern an die historisch gewordenen Gewalttraumata des 20. Jahrhunderts, vom Terrorismus des 21. Jahrhunderts, von Rassismus und Klassismus der Gegenwart, von Femiziden und Homophobie, über «Abgehängte» in ländlichen Gebieten, aber auch im Zentrum der Metropole, über Arbeitslosigkeit und Armut in Frankreich erzählt. Eröffnet werden soll eine komplementäre Perspektive der Literaturwissenschaft zur soziologischen und historischen Gewaltforschung über den gesellschaftlichen Raum unseres europäischen Nachbarn. N2 - This study examines the literary discourse about forms of violence in French society at the beginning of the twenty-first century. How and why does French contemporary literature tell stories about the now historical, violent traumas of the twentieth century, the terrorism of the twenty-first century, racism and classicism, femicide and homophobia, and the structural violence of unemployment and poverty? KW - Gewaltforschung KW - Literatursoziologie KW - Gegenwartsliteratur KW - Violence Research KW - Sociology of Literature KW - Contemporary Literature Y1 - 2022 SN - 978-3-11-079955-2 SN - 978-3-11-079962-0 SN - 978-3-11-079966-8 U6 - https://doi.org/10.1515/9783110799620 SN - 0178-7489 IS - 101 PB - De Gruyter CY - Berlin ER - TY - THES A1 - Vogel, Heike T1 - Genetics of obesity and type 2 diabetes N2 - By using mouse outcross populations in combination with bioinformatic approaches, it was possible to identify and characterize novel genes regulating body weight, fat mass and β-cell function, which all contribute to the pathogenesis of obesity and T2D. In detail, the presented studies identified 1. Ifi202b/IFI16 as adipogenic gene involved in adipocyte commitment, maintenance of white adipocyte identity, fat cell size and the inflammatory state of adipose tissue. 2. Pla2g4a/PLA2G4A as gene linked to increased body weight and fat mass with a higher expression in adipose tissue of obese mice and pigs as well as in obese human subjects. 3. Ifgga2/IRGM as novel regulator of lipophagy protecting from excess hepatic lipid accumulation. 4. Nidd/DBA as a diabetogenic locus containing Kti12, Osbpl9, Ttc39a and Calr4 with differential expression in pancreatic islets and/or genetic variants. 5. miR-31 to be higher expressed in adipose tissue of obese and diabetic mice and humans targeting PPARy and GLUT4 and thereby involved in adipogenesis and insulin signaling. 6. Gjb4 as novel gene triggering the development of T2D by reducing insulin secretion, inducing apoptosis and inhibiting proliferation. The performed studies confirmed the complexity and strong genetic heritability character of obesity and T2D. A high number of genetic variations, each with a small effect, are collectively influencing the degree and severity of the disease. The use of mouse outcross populations is a valid tool for disease gene identification; however, to facilitate and accelerate the process of gene identification the combination of mouse cross data with advanced sequencing resources and the publicly available data sets are essential. The main goal for future studies should be the translation of these novel molecular discoveries to useful treatment therapies. More recently, several classes of novel unimolecular combination therapeutics have emerged with superior efficacy than currently prescribed options and pose the potential to reverse obesity and T2D (Finan et al., 2015). The glucagon-like peptide-1 (GLP-1)- estrogen conjugate, which targets estrogen into cells expressing GLP-1 receptors, was shown to improve energy, glucose and lipid metabolism as well as to reduce food reward (Finan et al., 2012; Schwenk et al., 2014; Vogel et al., 2016). Another possibility is the development of miRNA-based therapeutics to prevent obesity and T2D, such as miRNA mimetics, anti-miRNA oligonucleotides and exosomes loaded with miRNAs (Ji and Guo, 2019; Gottmann et al., 2020). As already described, genome-wide association studies for polygenic obesity and T2D traits in humans have also led to the identification of numerous gene variants with modest effect, most of them having an unknown function (Yazdi et al., 2015). These discoveries resulted in novel animal models and have illuminated new biologic pathways. Therefore, the integration of mouse-human genetic approaches and the utilization of the synergistic effects have the potential to lead to the identification of more genes responsible for common Mendelian forms of obesity and T2D, as well as gene × gene and gene × environment interactions (Yazdi et al., 2015; Ingelsson and McCarthy, 2018). This combination may help to unravel the missing heritability of obesity and T2D, to identify novel drug targets and to design more efficient and personalized obesity prevention and management programs. Y1 - 2021 CY - Potsdam ER - TY - THES A1 - Guill, Christian T1 - Structure, stability and functioning of food webs T1 - Struktur, Stabilität und Funktion von Nahrungsnetzen N2 - In this thesis, a collection of studies is presented that advance research on complex food webs in several directions. Food webs, as the networks of predator-prey interactions in ecosystems, are responsible for distributing the resources every organism needs to stay alive. They are thus central to our understanding of the mechanisms that support biodiversity, which in the face of increasing severity of anthropogenic global change and accelerated species loss is of highest importance, not least for our own well-being. The studies in the first part of the thesis are concerned with general mechanisms that determine the structure and stability of food webs. It is shown how the allometric scaling of metabolic rates with the species' body masses supports their persistence in size-structured food webs (where predators are larger than their prey), and how this interacts with the adaptive adjustment of foraging efforts by consumer species to create stable food webs with a large number of coexisting species. The importance of the master trait body mass for structuring communities is further exemplified by demonstrating that the specific way the body masses of species engaging in empirically documented predator-prey interactions affect the predator's feeding rate dampens population oscillations, thereby helping both species to survive. In the first part of the thesis it is also shown that in order to understand certain phenomena of population dynamics, it may be necessary to not only take the interactions of a focal species with other species into account, but to also consider the internal structure of the population. This can refer for example to different abundances of age cohorts or developmental stages, or the way individuals of different age or stage interact with other species. Building on these general insights, the second part of the thesis is devoted to exploring the consequences of anthropogenic global change on the persistence of species. It is first shown that warming decreases diversity in size-structured food webs. This is due to starvation of large predators on higher trophic levels, which suffer from a mismatch between their respiration and ingestion rates when temperature increases. In host-parasitoid networks, which are not size-structured, warming does not have these negative effects, but eutrophication destabilises the systems by inducing detrimental population oscillations. In further studies, the effect of habitat change is addressed. On the level of individual patches, increasing isolation of habitat patches has a similar effect as warming, as it leads to decreasing diversity due to the extinction of predators on higher trophic levels. In this case it is caused by dispersal mortality of smaller and therefore less mobile species on lower trophic levels, meaning that an increasing fraction of their biomass production is lost to the inhospitable matrix surrounding the habitat patches as they become more isolated. It is further shown that increasing habitat isolation desynchronises population oscillations between the patches, which in itself helps species to persist by dampening fluctuations on the landscape level. However, this is counteracted by an increasing strength of local population oscillations fuelled by an indirect effect of dispersal mortality on the feeding interactions. Last, a study is presented that introduces a novel mechanism for supporting diversity in metacommunities. It builds on the self-organised formation of spatial biomass patterns in the landscape, which leads to the emergence of spatio-temporally varying selection pressures that keep local communities permanently out of equilibrium and force them to continuously adapt. Because this mechanism relies on the spatial extension of the metacommunity, it is also sensitive to habitat change. In the third part of the thesis, the consequences of biodiversity for the functioning of ecosystems are explored. The studies focus on standing stock biomass, biomass production, and trophic transfer efficiency as ecosystem functions. It is first shown that increasing the diversity of animal communities increases the total rate of intra-guild predation. However, the total biomass stock of the animal communities increases nevertheless, which also increases their exploitative pressure on the underlying plant communities. Despite this, the plant communities can maintain their standing stock biomass due to a shift of the body size spectra of both animal and plant communities towards larger species with a lower specific respiration rate. In another study it is further demonstrated that the generally positive relationship between diversity and the above mentioned ecosystem functions becomes steeper when not only the feeding interactions but also the numerous non-trophic interactions (like predator interference or competition for space) between the species of an ecosystem are taken into account. Finally, two studies are presented that demonstrate the power of functional diversity as explanatory variable. It is interpreted as the range spanned by functional traits of the species that determine their interactions. This approach allows to mechanistically understand how the ecosystem functioning of food webs with multiple trophic levels is affected by all parts of the food web and why a high functional diversity is required for efficient transportation of energy from primary producers to the top predators. The general discussion draws some synthesising conclusions, e.g. on the predictive power of ecosystem functioning to explain diversity, and provides an outlook on future research directions. N2 - In dieser Habilitationsschrift wird eine Zusammenstellung wissenschaftlicher Arbeiten präsentiert, die die Forschung zu komplexen Nahrungsnetzen in verschiedene Richtungen weiterentwickeln. Nahrungsnetze sind die Netzwerke der Räuber-Beute-Interaktionen in einem Ökosystem und bestimmen damit über die Verteilung der von allen Arten zum Überleben benötigten Ressourcen. Sie sind daher ein zentrales Konzept für das Verständnis der Mechanismen, die die Koexistenz einer Vielzahl von Arten ermöglichen. Angesichts der zunehmenden Intensität des anthropogenen globalen Wandels und sich weiter beschleunigendem Artensterben ist ein solches Verständnis von zentraler Bedeutung, nicht zuletzt auch für das menschliche Wohlergehen. Die Studien im ersten Teil der Thesis befassen sich mit generellen Mechanismen, die die Struktur und Stabilität von Nahrungsnetzen bestimmen. Es wird gezeigt, wie die allometrische Skalierung metabolischer Raten mit der Körpermasse der Individuen ihre Persistenz in größenstrukturierten Nahrungsnetzen unterstützt, und wie dies mit dem adaptiven Jagdverhalten von Räubern interagiert um stabile Nahrungsnetzstrukturen zu erzeugen. Basierend auf der Analyse empirisch dokumentierter Räuber-Beute-Paare wird zudem gezeigt, dass das Körpergrößenverhältnis von Räuber- und Beutearten deren Interaktionsstärke so beeinflusst, dass Populationsoszillationen stabilisiert werden. Weitere Studien demonstrieren, dass es zum Verständnis bestimmter populationsdynamischer Phänomene notwendig sein kann, die interne Struktur der betrachteten Populationen (z.B. die Größe von Alterskohorten) zu berücksichtigen. Auf diesen allgemeinen Erkenntnissen aufbauend werden im zweiten Teil der Habilitationsschrift Studien vorgestellt, die sich mit den Auswirkungen des anthropogenen globalen Wandels auf die Persistenz von Arten befassen. Erwärmung reduziert die Diversität in größenstrukturierten Nahrungsnetzen, indem sie zum Aussterben großer Räuberarten führt. Dies geschieht dadurch, dass die Respirationsrate wechselwarmer Tiere bei Erwärmung schneller ansteigt als ihre maximale Fraßrate. In Parasitoid-Wirt-Netzwerken mit flacher Größenstruktur hat Erwärmung keinen derartigen negativen Effekt, allerdings führt dort Eutrophierung durch die Induktion starker Populationsoszillationen zu Destabilisierung und Artensterben. In weiteren Studien werden die Auswirkungen von Habitatveränderung untersucht. Analog zur Erwärmung führt zunehmende Habitatisolation in den einzelnen Habitatflecken zu einem Rückgang der Diversität aufgrund des Aussterbens von großen Räuberarten. In diesem Fall wird das durch die Zunahme der Migrationsmortalität kleinerer und daher weniger mobiler Arten verursacht, welche dazu führt, dass ein immer größerer Anteil der Biomassenproduktion dieser Arten an die lebensfeindliche Matrix zwischen den Habitatflecken verloren geht. Es wird weiterhin gezeigt, dass zunehmende Isolation zur Desynchronisierung von Populationsoszillationen zwischen den einzelnen Habitatflecken führt. Allerdings führt die Zunahme der Wanderungsmortalität aufgrund eines indirekten Effektes auf die Fraßraten in den Habitatflecken zu einer Verstärkung der lokalen Populationsoszillationen, was den positiven Effekt der Desynchronisierung ausgleicht. Zuletzt wird in diesem Abschnitt ein neuartiger Mechanismus vorgestellt, der die Diversität in Meta-Gemeinschaften unterstützen kann. Er basiert auf selbstorganisierter Bildung räumlicher Muster in der Biomassenverteilung der Arten. Diese Muster erzeugen räumlich-zeitlich fluktuierende Selektionsdrücke, die die lokalen Artengemeinschaften in einem permanenten Nichtgleichgewichtszustand halten und dazu zwingen, sich ständig neu anzupassen. Da dieser Mechanismus auf der räumlichen Ausdehnung der Metagemeinschaften basiert, kann er ebenfalls empfindlich auf Habitatveränderungen reagieren. Im dritten Teil der Habilitationsschrift werden die Effekte von Biodiversität auf Ökosystemfunktionen untersucht. Die Studien beziehen sich dabei vor allem auf Bestand und Produktionsrate von Biomasse sowie auf die trophische Transfereffizienz. Es wird gezeigt, dass zunehmende Diversität von Tiergemeinschaften eine Verschiebung der Größenspektren von Pflanzen- und Tiergemeinschaften hin zu größeren Arten mit geringerer spezifischer Respirationsrate bewirkt, wodurch es den Pflanzengemeinschaften möglich wird, ihren Biomassenbestand trotz erhöhtem Fraßdruck zu erhalten. In einer weiteren Studie wird gezeigt, dass der im Allgemeinen positive Zusammenhang zwischen Biodiversität und den genannten Ökosystemfunktionen verstärkt wird, wenn neben den Fraßbeziehungen der Arten auch die zahlreichen weiteren Interaktionsmöglichkeiten der Arten (wie zum Beispiel Flächenkonkurrenz sessiler Arten) berücksichtigt werden. Abschließend werden zwei Studien präsentiert, auf funktioneller Diversität als zentraler erklärender Variable beruhen. Diese wird interpretiert als der Wertebereich, den funktionelle Merkmale, die die Interaktionen der Arten bestimmen, überspannen. Dieser Ansatz erlaubt es, mechanistisch nachzuvollziehen, wie die ökologischen Funktionen von Nahrungsnetzen von den einzelnen Teilen der Netzwerke beeinflusst werden, und warum eine hohe funktionelle Diversität für den effizienten Transport der Biomasse von den Primärproduzenten zu den Räubern an der Spitze der Nahrungskette notwendig ist. In der allgemeinen Diskussion werden einige zusammenfassende Schlussfolgerungen gezogen, die zum Beispiel die Vorhersagekraft von Ökosystemfunktionen zum Erklären der Diversität betreffen, und es wird ein Ausblick auf künftige Forschungsansätze gegeben. KW - ecology KW - food webs KW - biodiversity KW - anthropogenic global change KW - metacommunities KW - ecosystem functioning KW - functional diversity KW - Ökologie KW - Nahrungsnetze KW - Biodiversität KW - anthropogener globaler Wandel KW - Metagemeinschaften KW - Ökosystemfunktionen KW - funktionelle Diversität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561153 ER - TY - THES A1 - Schaefer, Laura T1 - Oszillation und Adaptation als Mechanismen neuromuskulärer Steuer- und Regelprozesse Y1 - 2021 ER - TY - THES A1 - Kühne, Franziska T1 - Beurteilung und Aufbau psychotherapeutischer Kompetenzen und die Veränderung von Patientenfertigkeiten Y1 - 2021 ER - TY - THES A1 - Chaabene, Helmi T1 - Effects of resistance training on measures of physical fitness in young athletes Y1 - 2019 ER - TY - THES A1 - Bacskai-Atkari, Julia T1 - The syntax of functional left peripheries BT - clause typing in west germanic and beyond Y1 - 2021 ER - TY - THES A1 - Salzwedel, Annett T1 - Biopsychosoziale Aspekte der beruflichen Wiedereingliederung nach kardiologischer Rehabilitation Y1 - 2020 CY - Potsdam ER - TY - THES A1 - Schwanghart, Wolfgang T1 - Digital elevation model analysis in geomorphology and natural hazards research BT - from algorithms to applications Y1 - 2022 ER - TY - THES A1 - Kaboth-Bahr, Stefanie T1 - Deciphering paleoclimate sensitivity across time and space T1 - Entschlüsselung der Sensitivität vergangener Klimaperioden durch Zeit und Raum BT - trends, feedbacks, and teleconnections BT - Trends, Rückkopplungen und Wechselwirkungen N2 - This habilitation thesis includes seven case studies that examine climate variability during the past 3.5 million years from different temporal and spatial perspectives. The main geographical focus is on the climatic events of the of the African and Asian monsoonal system, the North Atlantic as well as the Arctic Ocean. The results of this study are based on marine and terrestrial climate archives obtained by sedimentological and geochemical methods, and subsequently analyzed by various statistical methods. The results herein presented results provide a picture of the climatic background conditions of past cold and warm periods, the sensitivity of past climatic climate phases in relation to changes in the atmospheric carbon dioxide content, and the tight linkage between the low and high latitude climate system. Based on the results, it is concluded that a warm background climate state strongly influenced and/or partially reversed the linear relationships between individual climate processes that are valid today. Also, the driving force of the low latitudes for climate variability of the high latitudes is emphasized in the present work, which is contrary to the conventional view that the global climate change of the past 3.5 million years was predominantly controlled by the high latitude climate variability. Furthermore, it is found that on long geologic time scales (>1000 years to millions of years), solar irradiance variability due to changes in the Earth-Sun-Moon System may have increased the sensitivity of low and high latitudes to Influenced changes in atmospheric carbon dioxide. Taken together, these findings provide new insights into the sensitivity of past climate phases and provide new background conditions for numerical models, that predict future climate change. N2 - Die vorliegende Habilitationsschrift umfasst sieben Fallstudien, die die Klimavariabilität während der letzten 3,5 Millionen Jahre aus verschiedenen zeitlichen und räumlichen Perspektiven behandeln. Dabei liegt das geographische Hauptaugenmerk auf dem Klimageschehen des Afrikanischen und Asiatischen Monsuns sowie der Nordatlantischen und Arktischen Ozeane. Die Ergebnisse dieser Studie basieren auf marinen und terrestrischen Klimaarchiven, die durch sedimentologische und geochemische Methoden gewonnen wurden sowie anschließend durch verschiedene statistische Methoden analysiert sind. Die in der vorliegenden Arbeit präsentierten Ergebnisse zeichnen ein Bild über die klimatischen Hintergrundbedingungen vergangener Kalt- und Warmzeiten, die Sensitivität vergangener Klimaphasen im Zusammenhang zu Veränderungen im atmosphärischen Kohlenstoffdioxidgehaltes sowie der engen Verknüpfung des Klimageschehens zwischen niederen und hohen Breiten. Anhand der Ergebnisse wird festgestellt, dass ein warmes Hintergrundklima die linearen, heute gültigen Beziehungen zwischen einzelnen Klimaprozessen stark beeinflusst hat beziehungsweise diese teilweise umkehrt. Ebenfalls wird in der vorliegenden Arbeit die Antriebskraft der niederen Breiten für Klimavariabilität der hohen Breiten herausgestellt, was im Gegensatz steht zu der konventionellen Ansicht, dass der globale Klimawandel der letzten 3,5 Millionen Jahre überwiegend durch die hohen Breiten gesteuert wurde. Darüber hinaus wird festgestellt, dass auf langen geologischen Zeitskalen (>1000 Jahre bis hin zu Millionen Jahre) die Variabilität der Sonneneinstrahlung durch Veränderungen im Erd-Sonne-Mond System möglicherweise die Empfindlichkeit niedriger und hoher Breiten gegenüber Veränderungen im atmosphärischen Kohlenstoffdioxid beeinflusst haben. Insgesamt ermöglichen diese Erkenntnisse neue Einblicke über die Sensitivität vergangener Klimaphasen und liefern neue Hintergrundbedingungen für numerische Modelle, die zukünftige Klimaveränderungen vorhersagen. KW - Paleoclimatic dynamics KW - multivariate statistics KW - Plio-Pleistocene timeframe KW - Monsoonal variability KW - North Atlantic climate change KW - Arctic climate change KW - Paläoklimadynamik KW - multivariate Statistik KW - Plio-Pleistozän Zeitfenster KW - monsunale Variabilität KW - nordatlantische Klimaänderung KW - arktische Klimaänderung Y1 - 2021 ER - TY - THES A1 - Müller, Hans-Georg T1 - Der Majuskelgebrauch im Deutschen BT - Groß- und Kleinschreibung theoretisch, empirisch, ontoge­netisch. T2 - Germanistische Linguistik ; 305 N2 - Die Arbeit stellt die Funktionsweise und den Erwerb der deutschen Groß- und Kleinschreibung auf theoretischer und empirischer Grundlage dar. Den Ausgangspunkt bildet eine textpragmatische Verallgemeinerung bisheriger graphematischer Ansätze, die zu einem übergreifenden Modell des Majuskelgebrauchs im Deutschen erweitert werden und dabei auch nicht-orthografische Teilbereiche einschließen (Versalsatz, Kapitälchen, Binnenmajuskel etc.). Im empirischen Teil der Arbeit werden die orthografischen Leistungsdaten von ca. 5.700 Probanden verschiedener Altersklassen (4. Klasse bis Erwachsenenbildung) untersucht und zu einem allgemeinen Erwerbsmodell der Groß- und Kleinschreibung ausgebaut. Mit Hilfe neuronaler Netzwerksimulationen werden unterschiedliche Lernertypen unterschieden und Diskontinuitäten im Kompetenzerwerb nachgewiesen, die auf qualitative Strategiewechsel in der Ontogenese hindeuten. Den Abschluss bilden orthografiedidaktische und rechtschreibdiagnostische Reflexionen der Daten. KW - Rechtschreibung KW - Groß- und Kleinschreibung KW - Deutschdidaktik Y1 - 2016 SN - 978-3-11-046096-4 SN - 978-3-11-045796-4 U6 - https://doi.org/doi.org/10.1515/9783110460964 VL - 2016 PB - de Gruyter CY - Berlin ER - TY - THES A1 - Ghods, Mojtaba T1 - Standardisierung der chirurgischen Therapie bei Lipödem Patienten T1 - The standardization of surgical treatment of lipedema patients N2 - Das Therapiemanagement bei Lipödem stellt auf Grund unzureichenden Wissensstandes in entscheidenden Aspekten eine besondere Herausforderung dar. Da die Pathogenese der Erkrankung nicht hinreichend geklärt ist und bislang kein pathognomonisches Diagnostikkriterium definiert wurde, beklagen viele Betroffene einen langjährigen Leidensweg bis zur Einleitung von Therapiemaßnahmen. Durch Steigerung der Awareness der Erkrankung in den letzten Jahren konnten die Intervalle bis zur korrekten Diagnose erfreulicherweise erheblich verkürzt werden. Obwohl die Zuordnung der Beschwerden zu einer klar definierten Erkrankung für viele Patientinnen eine Erleichterung ist, stellt die Erkenntnis über begrenzte Therapiemöglichkeiten häufig eine neuerliche Belastung dar. Als Konsequenz der ungeklärten Pathogenese konnte bis dato keine kausale Therapie für das Lipödem definiert werden. Zu Beginn waren die Möglichkeiten konservativer Behandlungsstrategien nur eingeschränkt in den Rahmen eines allgemeingültigen Konzeptes involviert und insbesondere Limitationen nicht klar definiert. Obwohl in diversen Bereichen der Therapie weiterhin keine ausreichende Evidenz besteht, konnten durch eine systematische Aufarbeitung die grundsätzlichen Behandlungsoptionen in Relation zueinander gesetzt werden. Betroffene Patientinnen, sowie die verschiedenen in die Behandlung integrierte medizinische Disziplinen verfügen somit über einen grundsätzlichen Handlungsalgorithmus, deren Empfehlungen über einfache Rezeptierung von Lymphdrainage und Kompressionsbekleidung hinausgehen. Durch kritische Reflexion der geltenden Dogmata wurde ein interdisziplinärer Leitfaden vorgeschlagen, der auf nachvollziehbare Weise im Sinne eines Stufenschemas alle wesentlichen Therapiesäulen in einen allgemeingültigen Behandlungsplan einbindet. Im vielschichten Management der Erkrankung verbleibt die operative Behandlung, die Liposuktion, allerdings häufig als „ultima ratio“ nach ausbleibender Linderung unter konservativen Therapiemaßnahmen. Die wesentliche Zielstellung der vorliegenden Arbeit konzentriert sich demnach auf die Optimierung des operativen Vorgehens in der Durchführung von Liposuktionen bei Patientinnen mit Lipödem und zeigt sowohl Grenzen der Indikationsstellung, als auch Potenzial des Behandlungserfolges im Langzeitverlauf auf. Langzeitergebnisse zeigen, dass die Liposuktion als sicherer Eingriff mit dem Potenzial einer nachhaltigen Symptomreduktion für Lipödem-Patientinnen angesehen werden kann. Betont werden soll zudem die Notwendigkeit der Verzahnung operativer Maßnahmen mit konservativen Therapien und somit die Integration der Liposuktion als sinnvolle Behandlungsalternative in ein klar umrissenes Therapiekonzept. Methodisch greift die Arbeit auf insgesamt 10 Publikationen zurück. Die hier postulierte mehrzeitige Megaliposuktion zur Therapie des Lipödems, mit summierten Gesamtaspirationsvolumina über alle Eingriffe von bis zu 66.000 ml, konnte als evidenzbasiertes Therapieverfahren bestätigt und validiert werden. Die beschriebenen niedrigen Komplikationsraten sind unter Anderem Resultat einer differenzierten, individualisierten perioperativen Strategie. Neben der Berücksichtigung grundsätzlicher methodischer Prinzipien existieren allerdings vielfältige Variationen, deren Implikationen auf Komplikationsraten jeweils differenziert zu betrachten sind. Es existiert zwar kein Konsensus für ein allgemeingültiges Standardverfahren der Liposuktion, allerdings konnten zahlreiche Elemente im perioperativen Management definiert werden, die unabhängig von der verwendeten Operationstechnik einen potenziellen positiven Einfluss auf das Outcome haben. Obwohl die Liposuktion bei Lipödem somit zusammenfassend mittlerweile als sicheres Verfahren gelten kann, sind einige Aspekte weiterhin nicht abschließend geklärt. Hierbei stehen vor allem das Volumenmanagement und die standardisierte Festlegung des maximalen Aspirationsvolumens im Fokus. Die Analyse verschiedener Kovariablen auf die Linderung Lipödem-assoziierter Symptome nach Liposuktion zeigt, dass Alter, Body-Mass-Index (BMI) und präoperatives Stadium der Erkrankung einen signifikanten Einfluss auf das postoperative Ergebnis haben und in der Planung des mehrzeitigen operativen Vorgehens berücksichtigt werden müssen. BMI- oder körpergewichtsabhängige Zielgrößen der Absaugvolumina waren als Prognosefaktor für das postoperative Outcome dagegen nicht relevant. Inwieweit dies möglicherweise an der Überschreitung des „notwendigen“ Volumengrenzwerts für adäquate Symptomlinderung durch reguläre Durchführung von Megaliposuktionen liegen könnte, oder ob dieser Parameter tatsächlich keinen Einfluss auf das Ergebnis nach Operation besitzt, konnte nicht abschließend geklärt werden. Weiterhin konnte ein positiver Nutzen auf assoziierte Begleiterkrankungen bei Lipödem nachgewiesen werden. Das Spektrum der Behandlungsmethoden kann durch reguläre Integration der Liposuktion in das Therapieschema somit um eine nachhaltige Alternative sinnvoll ergänzt werden. Im Unterschied zur alleinigen konservativen Therapie kann hierdurch ein wesentlicher Schritt weg von der alleinigen symptomatischen Therapie gemacht werden. Zudem die vielfältige Symptomatik der diversen assoziierten Komorbiditäten zu berücksichtigen. Als Konsequenz und für die Notwendigkeit eines ganzheitlichen, interdisziplinären Therapieansatzes wäre der Terminus „Lipödem-Syndrom“ möglicherweise treffender und wird zur Diskussion gestellt. Für ein gesondertes Patientenklientel wurden zudem basale Grundsätze im perioperativen Vorgehen differenziert aufgearbeitet. Lipödem-Patientinnen mit begleitendem von-Willebrand-Syndrom stellen im Hinblick auf Blutungskomplikationen eine außerordentliche Herausforderung dar. Die vorliegenden evidenzbasierten Empfehlungen zum Therapiemanagement dieser Patientinnen bei Eingriffen ähnlicher Risikoklassifizierung wurden systematisch aufgearbeitet und in Bezug zu den speziellen Anforderungen bei Megaliposuktionen gebracht. Das dabei erarbeitete Therapieschema wird die präoperative Detektion von Koagulopathien im Allgemeinen, sowie die perioperative Komplikationsrate bei von-Willebrand-Patientinnen im Speziellen zukünftig erheblich verbessern. Zusammenfassend konnte somit ein allgemeingültiger Algorithmus für die moderne und langfristig erfolgreiche Therapie von Lipödem-Patientinnen mit besonderem Fokus auf die Megaliposuktion erarbeitet werden. Bei adäquatem perioperativem Management und Berücksichtigung der großen Volumenverschiebungen kann der Eingriff komplikationsarm und sicher durchgeführt werden. Nicht abschließend geklärt ist derzeit die Pathophysiologie der Erkrankung wobei eine immunologische Genese sowie die primäre Pathologie des Lymphgefäßsystems bzw. der Fett(vorläufer)zellen als Erklärungmodelle favorisiert werden. Die Entwicklung diagnostischer Biomarker sollte dabei verfolgt werden. N2 - Treatment management of lipedema is a particular challenge due to insufficient knowledge in essential aspects. Since the pathogenesis of the disease has not been properly understood and no pathognomonic diagnostic criterion has been defined so far, many patients claim a long period of suffering until therapeutic measures are initiated. By increasing the awareness of the disease in recent years, the intervals until the correct diagnosis could fortunately be considerably shortened. Although the assignment of symptoms to a well-defined disease is a relief for many patients, the realization of limited treatment options often represents a new burden. In consequence of the unresolved pathogenesis, no causal therapeutic approach for lipedema could be defined so far. Initially, the possibilities of conservative treatment strategies were only involved to a limited extent in the framework of a generally valid concept and, in particular, restrictions were not clearly defined. Although there is still insufficient evidence in various areas of therapy, a comprehensive analysis of the basic treatment options has allowed to establish a relationship between these options. Thus, affected patients, as well as the various medical disciplines involved in treatment, were provided with a basic treatment algorithm whose recommendations go beyond prescriptions for lymphatic drainage and compression garments. By critically reflecting on the current dogmas, an interdisciplinary guideline was proposed, which integrates all essential therapy pillars into a generally valid treatment concept in a comprehensible manner in the sense of a step-by-step scheme. In the multi-layered management of the disease, however, surgical treatment, liposuction, often remains as the "ultima ratio" after failure to achieve relief under conservative therapeutic measures. The main objective of this thesis is therefore to optimize the surgical approach to liposuction in patients with lipedema and to show both, limitation of indications and potential of treatment success in the long term. Long-term results show that liposuction can be considered a safe procedure with the potential for sustained symptom reduction for lipedema patients. In addition, the necessity of integrating surgical interventions with conservative therapies and thus the relevance of liposuction as a reasonable treatment alternative in a clearly defined therapeutic concept is emphasized. Methodologically, this work is based on a total of 10 publications. The postulated multi-stage megaliposuction for the treatment of lipedema, with total aspiration volumes of up to 66,000 ml over all procedures, was confirmed and validated as an evidence-based treatment method. The reported low complication rates are, among others, the result of a differentiated, individualized perioperative strategy. In addition to the consideration of basic methodological principles, however, there are many variations, the implications of which on complication rates must be considered differentiated in each case. Although there is no consensus for a universally valid standard procedure for liposuction, numerous elements in the perioperative management could be defined that may have a potential positive influence on the outcome, independent of the surgical technique used. Although liposuction for lipedema can now be considered a safe procedure, some aspects are still unclear. The focus here is particularly on volume management and the standardized determination of the maximum aspiration volume. Analysis of various covariates on the relief of lipedema-associated symptoms after liposuction demonstrated that age, body mass index (BMI), and preoperative stage of disease had a significant impact on postoperative outcome and must be considered in the planning of the multistage surgical procedure. In contrast, BMI- or body weight-dependent target aspiration volumes were not relevant as prognostic factors for postoperative outcome. The extent to which this might be due to the "necessary" volume threshold for adequate symptom relief being exceeded by regular performance of megaliposuctions, or whether this parameter actually has no influence on outcome after surgery, could not be conclusively clarified. Furthermore, a positive benefit on associated concomitant diseases in lipedema could be demonstrated. By integrating liposuction into the treatment regimen, the spectrum of treatment methods can be supplemented by a sustainable alternative. In contrast to conservative therapy alone, this represents a significant step away from symptomatic therapy alone. In addition, the diverse spectrum of symptoms of the various associated comorbidities must be taken into account. As a consequence, and for the necessity of a holistic, interdisciplinary therapeutical approach, the term "lipedema syndrome" would possibly be more appropriate and is put up for discussion. For a special group of patients, basic principles of perioperative management have been elaborated in a differentiated manner. Lipedema patients with concomitant von Willebrand syndrome represent an extraordinary challenge with regard to bleeding complications. The available evidence-based recommendations for the therapeutic management of these patients in procedures of similar risk classification were systematically reviewed and related to the special requirements of megaliposuction. The established treatment regimen will significantly improve the preoperative detection of coagulopathies in general and the perioperative complication rate in von Willebrand patients in particular. In summary, a universally applicable algorithm for a state-of-the-art and long-term successful treatment of lipedema patients with a special focus on megaliposuction was established. With adequate perioperative management and consideration of the large volume shifts, the procedure can be performed safely and with few complications. The pathophysiology of the disease is currently not conclusively clarified, with an immunological genesis or primary pathology of the lymphatic system or fat (precursor) cells being favored as explanatory models. The development of diagnostic biomarkers should be pursued in this context. KW - Lipödem KW - lipedema KW - lipoedema KW - liposuction KW - Liposuktion KW - lipedema KW - lipoedema KW - liposuction Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-538299 ER - TY - THES A1 - Omelchenko, Oleh T1 - Synchronität-und-Unordnung-Muster in Netzwerken gekoppelter Oszillatoren T1 - Patterns of synchrony and disorder in networks of coupled oscillators N2 - Synchronization of coupled oscillators manifests itself in many natural and man-made systems, including cyrcadian clocks, central pattern generators, laser arrays, power grids, chemical and electrochemical oscillators, only to name a few. The mathematical description of this phenomenon is often based on the paradigmatic Kuramoto model, which represents each oscillator by one scalar variable, its phase. When coupled, phase oscillators constitute a high-dimensional dynamical system, which exhibits complex behaviour, ranging from synchronized uniform oscillation to quasiperiodicity and chaos. The corresponding collective rhythms can be useful or harmful to the normal operation of various systems, therefore they have been the subject of much research. Initially, synchronization phenomena have been studied in systems with all-to-all (global) and nearest-neighbour (local) coupling, or on random networks. However, in recent decades there has been a lot of interest in more complicated coupling structures, which take into account the spatially distributed nature of real-world oscillator systems and the distance-dependent nature of the interaction between their components. Examples of such systems are abound in biology and neuroscience. They include spatially distributed cell populations, cilia carpets and neural networks relevant to working memory. In many cases, these systems support a rich variety of patterns of synchrony and disorder with remarkable properties that have not been observed in other continuous media. Such patterns are usually referred to as the coherence-incoherence patterns, but in symmetrically coupled oscillator systems they are also known by the name chimera states. The main goal of this work is to give an overview of different types of collective behaviour in large networks of spatially distributed phase oscillators and to develop mathematical methods for their analysis. We focus on the Kuramoto models for one-, two- and three-dimensional oscillator arrays with nonlocal coupling, where the coupling extends over a range wider than nearest neighbour coupling and depends on separation. We use the fact that, for a special (but still quite general) phase interaction function, the long-term coarse-grained dynamics of the above systems can be described by a certain integro-differential equation that follows from the mathematical approach called the Ott-Antonsen theory. We show that this equation adequately represents all relevant patterns of synchrony and disorder, including stationary, periodically breathing and moving coherence-incoherence patterns. Moreover, we show that this equation can be used to completely solve the existence and stability problem for each of these patterns and to reliably predict their main properties in many application relevant situations. N2 - Die Synchronisation von gekoppelten Oszillatoren tritt in vielen natürlichen und künstlichen Systemen auf, beispielsweise bei zirkadianen Uhren, zentralen Mustergeneratoren, Laserarrays, Stromnetzen oder chemischen und elektrochemischen Oszillatoren, um nur einige zu nennen. Die mathematische Beschreibung dieses Phänomens basiert häufig auf dem paradigmatischen Kuramoto-Modell, das jeden Oszillator durch eine skalare Variable, seine Phase, darstellt. Wenn Phasenoszillatoren gekoppelt sind, bilden sie ein hochdimensionales dynamisches System, das ein komplexes Verhalten aufweist, welches von synchronisierter kollektiver Oszillation bis zu Quasiperiodizität und Chaos reicht. Die entsprechenden kollektiven Rhythmen können für den normalen Betrieb verschiedener Systeme nützlich oder schädlich sein, weshalb sie Gegenstand zahlreicher Untersuchungen waren. Anfänglich wurden Synchronisationsphänomene in Systemen mit globaler Mittelfeldkopplung und lokaler Nächster-Nachbar Kopplung oder in komplexen Netzwerken untersucht. In den letzten Jahrzehnten gab es jedoch großes Interesse an anderen Kopplungsstrukturen, die die räumlich verteilte Natur realer Oszillatorsysteme und die entfernungsabhängige Natur der Wechselwirkung zwischen ihren Komponenten berücksichtigen. Sowohl in Bereichen der Biologie als auch der Neurowissenschaften gibt es eine Vielzahl von Beipsieln für solche Systeme. Dazu gehören räumlich verteilte Zellpopulationen, Zilien-Teppiche und neuronale Netze, die für das Arbeitsgedächtnis relevant sind. In vielen Fällen unterstützen diese Systeme eine Vielzahl von Synchronität-und-Unordnung-Mustern mit bemerkenswerten Eigenschaften, die in anderen kontinuierlichen Medien nicht beobachtet wurden. Solche Muster werden üblicherweise als Kohärenz-Inkohärenz-Muster bezeichnet, aber in symmetrisch gekoppelten Oszillatorsystemen sind diese auch unter dem Namen Chimära-Zustände bekannt. Das Hauptziel dieser Arbeit ist es, einen Überblick über verschiedene Arten von kollektivem Verhalten in großen Netzwerken räumlich verteilter Phasenoszillatoren zu geben und mathematische Methoden für deren Analyse zu entwickeln. Wir konzentrieren uns dabei auf die Kuramoto-Modelle für ein-, zwei- und dreidimensionale Oszillator-Arrays mit nichtlokaler Kopplung, wobei sich die Kopplung über einen Bereich erstreckt, welcher breiter ist als die Kopplung zum nächsten Nachbarn und von der Trennung abhängt. Wir verwenden die Tatsache, dass für eine spezielle (aber immer noch recht allgemeine) Phasenwechselwirkungsfunktion die langfristige grobkörnige Dynamik der obigen Systeme durch eine bestimmte Integro-Differentialgleichung beschrieben werden kann. Diese ergibt sich aus dem mathematischen Ansatz namens Ott-Antonsen-Theorie. Wir zeigen, dass diese Gleichung alle relevanten Synchronität-und-Unordnung-Muster angemessen darstellt, einschließlich stationärer, periodisch oszillierender und sich bewegender Kohärenz-Inkohärenz-Muster. Darüber hinaus zeigen wir, dass diese Gleichung verwendet werden kann, um das Existenz- und Stabilitätsproblem für jedes dieser Muster vollständig zu lösen und ihre Haupteigenschaften in vielen anwendungsrelevanten Situationen zuverlässig vorherzusagen. KW - phase oscillators KW - networks KW - synchronization KW - dynamical patterns KW - chimera states KW - Phasenoszillatoren KW - Netzwerke KW - Synchronisation KW - dynamische Muster KW - Chimäre-Zustände Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-535961 ER - TY - THES A1 - Kleinjung, Christine T1 - Bischofsabsetzungen und Bischofsbild BT - Texte - Praktiken - Deutungen in der politischen Kultur des westfränkisch-französischen Reichs 835 - ca. 1030 T2 - Quellen und Forschungen zum Recht im Mittelalter ; Band 11 N2 - Bischöfe im Frankenreich waren einflussreiche politische Akteure, die im Laufe des 9. Jahrhunderts ein gelehrtes Wissen vom eigenen Amt entwickelten. Spiegelungen dieses Wissens über das Wesen des Bischofsamtes finden sich in vielen Texten, die meisten stammen aus Westfranken. Offen ist bislang jedoch, welche Relevanz dieses Wissen und das bischöfliche Standesbewusstsein hatten – ist es als normativer Referenzrahmen von anderen politisch relevanten Ständen anerkannt? Wie entwickelt es sich über die Umbruchzeit des 10. Jahrhunderts in der post-karolingischen Zeit und beginnenden Kirchenreform? Diesen Fragen widmet sich das Buch durch eine Untersuchung von Bischofsabsetzungen in Westfranken im 9. und 10. Jahrhundert und durch eine Analyse des Bischofsbildes in monastischen wie bischöflichen Kreisen im 10. und frühen 11. Jahrhundert. So kann ein differenziertes Bild der Wahrnehmung des Bischofsamtes und der konkrete Umgang mit dem Wissen vom Bischofsamt in verschiedenen Kontexten gezeichnet werden. KW - Christentum KW - Politische Geschichte KW - Frühmittelalter Y1 - 2021 SN - 978-3-7995-6091-7 PB - Thorbecke CY - Ostfildern ET - 300 ER - TY - THES A1 - Bösel, Bernd T1 - Die Plastizität der Gefühle BT - das affektive Leben zwischen Psychotechnik und Ereignis N2 - Das emotionale Leben wird zunehmend durch digitale Technologien ausgelesen, reguliert und produziert. Diese gleichermaßen von Hoffnungen und Ängsten begleitete Entwicklung ist die vorerst letzte Station einer bis in die Frühgeschichte zurückreichenden, tiefgehenden Verschränkung von Affekt und (Kultur-)Technik. Bernd Bösel eröffnet einen umfassenden genealogischen Blick auf die epochenmachenden Neujustierungen dieser Technisierung. Denn erst im Nachvollzug der verschiedenen Logiken des Verfügens über Affekte wird es möglich, die Verflechtung der Technisierungsformen zu verstehen, auf denen die Psychomacht der Gegenwart basiert. Y1 - 2021 SN - 978-3-593-51453-6 SN - 978-3-593-44849-7 PB - Campus Verlag CY - Frankfurt ER - TY - THES A1 - Hermanns, Jolanda T1 - Development, use and evaluation of concepts and materials for teaching organic chemistry at university Y1 - 2021 ER - TY - THES A1 - Stroncik, Nicole A. T1 - Volatiles as tracers for mantle processes and magma formation and evolution N2 - The geochemical composition of oceanic basalts provides us with a window into the distribution of geochemical elements within the Earth’s mantle in space and time. In conjunction with a throughout knowledge on how the different elements behave e.g. during melt formation and evolution or on their partition behaviour between e.g. minerals and melts this information has been transformed into various models on how oceanic crust is formed along plume influenced or normal mid-ocean ridge segments, how oceanic crust evolves in response to seawater, on subduction recycling of oceanic crust and so forth. The work presented in this habilitation was aimed at refining existing models, putting further constraints on some of the major open questions in this field of research while at the same time trying to increase our knowledge on the behaviour of noble gases as a tracer for melt formation and evolution processes. In the line of this work the author and her co-workers were able to answer one of the major questions concerning the formation of oceanic crust along plume-influenced ridges – in which physical state does the plume material enter the ridge? Based on submarine volcanic glass He, Ne and Ar data, the author and her co-workers have shown that the interaction of mantle plumes with mid-ocean ridges occurs in the physical form of melts. In addition, the author and her co-workers have also put further constraints on one of the major questions concerning the formation of oceanic crust along normal mid-ocean ridges – namely how is the mid-ocean ridge system effectively cooled to form the lower oceanic crust? Based on Ne and Ar data in combination with Cl/K ratios of basaltic glass from the Mid-Atlantic ridge and estimates of crystallisation pressures they have shown, that seawater penetration reaches lower crustal levels close to the Moho, indicating that hydrothermal circulation might be an effective cooling mechanism even for the deep parts of the oceanic crust. Considering subduction recycling, the heterogeneity of the Earth’s mantle and mantle dynamic processes the key question is on which temporal and spatial scales is the Earth’s mantle geochemically heterogeneous? In the line of this work the author along with her co-workers have shown based on Cl/K ratios in conjunction with the Sr, Nd, and Pb isotopes of the OIBs representing the type localities for the different mantle endmembers that the quantity of Cl recycled into the mantle via subduction is not uniform and that neither the HIMU nor the EM1 and EM2 mantle components can be considered as distinct mantle endmembers. In addition, we have shown, based on He, Ne and Ar isotope and trace-element data from the Foundation hotspot that the near ridge seamounts of the Foundation seamount chain formed by the Foundation hotspot erupt lavas with a trace-element signature clearly characteristic of oceanic gabbro which indicates the existence of recycled, virtually unchanged lower oceanic crust in the plume source. This is a clear sign of the inefficiency of the stirring mechanism existing at mantle depth. Similar features are seen in other near-axis hotspot magmas around the world. Based on He, Sr, Nd, Pb and O isotopes and trace elements in primitive mafic dykes from the Etendeka flood basalts, NW Namibia the author along with her co-workers have shown that deep, less degassed mantle material carried up by a mantle plume contributed significantly to the flood basalt magmatism. The Etendeka flood basalts are part of the South Atlantic LIP, which is associated with the breakup of Gondwana, the formation of the Paraná-Etendeka flood basalts and the Walvis Ridge - Tristan da Cunha hotspot track. Thus reinforcing the lately often-challenged concept of mantle plumes and the role of mantle plumes in the formation of large igneous provinces. Studying the behaviour of noble gases during melt formation and evolution the author along with her co-workers has shown that He can be considerable more susceptible to changes during melt formation and evolution resulting not only in a complete decoupling of He isotopes from e.g. Ne or Pb isotopes but also in a complete loss of the primary mantle isotope signal. They have also shown that this decoupling occurs mainly during the melt formation processes requiring He to be more compatible during mantle melting than Ne. In addition, the author along with her co workers were able to show that incorporation of atmospheric noble gases into igneous rocks is in general a two-step process: (1) magma contamination by assimilation of altered oceanic crust results in the entrainment of air-equilibrated seawater noble gases; (2) atmospheric noble gases are adsorbed onto grain surfaces during sample preparation. This implies, considering the ubiquitous presence of the contamination signal, that magma contamination by assimilation of a seawater-sourced component is an integral part of mid-ocean ridge basalt evolution. KW - noble gases KW - mantle formation KW - mantle evolution KW - ocean-crust formation KW - plume-ridge interaction KW - contamination processes KW - magmatic processes KW - continental break-up Y1 - 2019 ER - TY - THES A1 - Samaniego, Luis T1 - Drought modeling and forecasting BT - from local to global scales N2 - Over millennia, droughts could not be understood or defined but rather were associated with mystical connotations. To understand this natural hazards, we first needed to understand the laws of physics and then develop plausible explanations of inner workings of the hydrological cycle. Consequently, modeling and predicting droughts was out of the scope of mankind until the end of the last century. In recent studies, it is estimated that this natural hazard has caused billions of dollars in losses since 1900 and that droughts have affected 2.2 billion people worldwide between 1950 and 2014. For these reasons, droughts have been identified by the IPCC as the trigger of a web of impacts across many sectors leading to land degradation, migration and substantial socio-economic costs. This thesis summarizes a decade of research carried out at the Helmholtz Centre for Environmental Research on the subject of drought monitoring, modeling, and forecasting, from local to continental scales. The overarching objectives of this study, systematically addressed in the twelve previous chapters, are: 1) Create the capability to seamless monitor and predict water fluxes at various spatial resolutions and temporal scales varying from days to centuries; 2) Develop and test a modeling chain for monitoring, forecasting and predicting drought events and related characteristics at national and continental scales; and 3) Develop drought indices and impact indicators that are useful for end-users. Key outputs of this study are: the development of the open source model mHM, the German Drought Monitor System, the proof of concept for an European multi-model for improving water managent from local to continental scales, and the prototype of a crop-yield drought impact model for Germany. N2 - Über Jahrtausende hinweg konnten Dürren nicht verstanden oder definiert werden und waren dahergehend mystisch konnotiert. Zum Verständnis dieser natürlichen Gefahren mussten wir zuerst die Gesetze der Physik verstehen, um dann plausible Erklärungen für die Funktionsweise des hydrologischen Zyklus zu entwickeln. Infolgedessen war die Modellierung und Vorhersage von Dürreperioden bis zum Ende des letzten Jahrhunderts außerhalb der menschlichen Reichweite. In jüngsten Studien wird geschätzt, dass seit 1900 diese Naturgefahr Milliarden von Dollar an Verlusten verursacht und zwischen 1950 und 2014 Dürreperioden 2,2 Milliarden Menschen weltweit betroffen hat. Aus diesen Gründen wurden Dürren vom Weltklimarat als der Auslöser eines Netzes an Auswirkungen in den verschiedensten Sektoren identifiziert, welches zu Landdegradation, Migration und erheblichen sozioökonomischen Kosten führt. Diese Habilitation fasst ein Jahrzent der Forschung des Helmoltz-Zentrums für Umweltforschung bezüglich des Dürremonitorings, der Modelierung und Vorhersage auf lokalen und kontinentalen Skalen zusammen. Folgende sind die übergreifenden Ziele dieser Studie, welche systematisch in den zwölf vorherigen Kapiteln aufgeführt wurden: 1. Die Fähigkeit zur ``seamless'' Überwachung und zur Vorhersage des Wasserflusses in verschiedenen räumlichen Auflösungen und zeitlichen Skalen, welche zwischen Tagen bis zu Jahrhunderten variieren, zu schaffen; 2. Entwicklung und Test einer Modellierungskette für Überwachung, Prognose und Vorhersage von Dürreereignissen und damit zusammenhängenden Merkmalen auf nationaler und kontinentaler Ebene; und 3. Entwicklung von Dürreindizes und Wirkungsindikatoren, die für Benutzer nützlich sind. Die wichtigsten Ergebnisse dieser Studie sind: die Entwicklung des Open-Source-Modells mHM, des Dürremonitor Deutschland, der Proof-of-Concept für ein Europäisches Multi-Modell zur Verbesserung des Wassermanagements auf lokalen bis kontinentalen Skalen, und ein Prototyp zur Modellierung der Dürreauswirkungen auf die Ernteerträge in Deutschland. KW - Hydrological modeling KW - Drought KW - Forecast Y1 - 2021 ER - TY - THES A1 - Lauterbach, Lars T1 - NiFe hydrogenases BT - Exploitation of biological H2 conversion in the presence of O2 for biotechnology Y1 - 2020 ER - TY - THES A1 - Chiarini, Sara T1 - Devotio malefica BT - Die antiken Verfluchungen zwischen sprachübergreifender Tradition und individueller Prägung T2 - Hamburger Studien zu Gesellschaften und Kulturen der Vormoderne ; 15 N2 - Antike Fluchrituale zielten darauf ab, die jeweilige Gerechtigkeitsvorstellung der Verfluchenden durchzusetzen – insbesondere wenn weder das öffentliche Justizsystem noch gesellschaftlich anerkannte Verhaltenskodize dem Anspruch gerecht werden konnten. In den Ritualen kamen sogenannte defixionis tabellae (Fluchtafeln) zur Anwendung, die hier devotiones maleficae genannt werden. Sie bestehen meistens aus eingeschriebenen Bleilamellen und wurden für die Beschädigung eines oder mehrerer Opfer angefertigt. Sara Chiarini untersucht die dabei verwendete Fluchsprache, die durch ihre formelhaften Strukturen und Bestandteile auf eine Tradition des Fluchrituals hindeuten. Individuelle Ergänzungen bieten hingegen Hinweise auf die Bedingungen um die Entstehung des Rituals, die Gefühlslage der Verfluchenden und die Arten von Bestrafungen, die der rechtlichen Dimension des Rituals entsprechen. Chiarini ergänzt den bisherigen Forschungstand anhand der neu entdeckten und veröffentlichten Fluchtafeln und setzt sich umfassend mit diesem epigraphischen Material auseinander. Y1 - 2021 SN - 978-3-515-12973-2 SN - 978-3-515-12978-7 PB - Franz Steiner Verlag CY - Stuttgart ER - TY - THES A1 - Laeger, Thomas T1 - Protein-dependent regulation of feeding, metabolism, and development of type 2 diabetes T1 - Proteinabhängige Regulation der Nahrungsaufnahme und des Metabolismus sowie Entstehung des Typ-2-Diabetes BT - FGF21’s biological role BT - die Rolle von FGF21 N2 - Food intake is driven by the need for energy but also by the demand for essential nutrients such as protein. Whereas it was well known how diets high in protein mediate satiety, it remained unclear how diets low in protein induce appetite. Therefore, this thesis aims to contribute to the research area of the detection of restricted dietary protein and adaptive responses. This thesis provides clear evidence that the liver-derived hormone fibroblast growth factor 21 (FGF21) is an endocrine signal of a dietary protein restriction, with the cellular amino acid sensor general control nonderepressible 2 (GCN2) kinase acting as an upstream regulator of FGF21 during protein restriction. In the brain, FGF21 is mediating the protein-restricted metabolic responses, e.g. increased energy expenditure, food intake, insulin sensitivity, and improved glucose homeostasis. Furthermore, endogenous FGF21 induced by dietary protein or methionine restriction is preventing the onset of type 2 diabetes in the New Zealand Obese mouse. Overall, FGF21 plays an important role in the detection of protein restriction and macronutrient imbalance in rodents and humans, and mediates both the behavioral and metabolic responses to dietary protein restriction. This makes FGF21 a critical physiological signal of dietary protein restriction, highlighting the important but often overlooked impact of dietary protein on metabolism and eating behavior, independent of dietary energy content. N2 - Die Nahrungsaufnahme wird nicht nur durch den Bedarf an Energie, sondern auch durch den Bedarf an essenziellen Nährstoffen wie z. B. Protein bestimmt. Es war zwar bekannt, wie proteinreiche Nahrung eine Sättigung vermittelt, jedoch war unklar, wie eine proteinarme Ernährung den Appetit anregt. Ziel dieser Arbeit ist es daher, zu untersuchen, wie Nahrung mit einem niedrigen Proteingehalt detektiert wird und die Anpassung des Organismus im Hinblick auf den Metabolismus und das Ernährungsverhalten erfolgt. Diese Arbeit liefert klare Beweise dafür, dass das aus der Leber stammende Hormon Fibroblast growth factor 21 (FGF21) ein endokrines Signal einer Nahrungsproteinrestriktion ist, wobei der zelluläre Aminosäuresensor general control nonderepressible 2 kinase (GCN2) als Regulator von FGF21 während der Proteinrestriktion fungiert. Im Gehirn vermittelt FGF21 die durch Proteinrestriktion induzierten Stoffwechselreaktionen, z.B. den Anstieg des Energieverbrauches, die Erhöhung der Nahrungsaufnahme und eine Verbesserung der Insulinsensitivität sowie der Glukosehomöostase. Darüber hinaus schützt das durch eine protein- oder methioninarme Diät induzierte FGF21 New Zealand Obese (NZO)-Mäuse, einem Tiermodell für den humanen Typ-2-Diabetes, vor einer Diabetesentstehung. FGF21 spielt bei Nagetieren und Menschen eine wichtige Rolle hinsichtlich der Detektion einer diätetischen Proteinrestriktion sowie eines Ungleichgewichtes der Makronährstoffe zueinander und vermittelt die adaptiven Verhaltens- und Stoffwechselreaktionen. Dies macht FGF21 zu einem kritischen physiologischen Signal der Nahrungsproteinrestriktion und unterstreicht den wichtigen, aber oft übersehenen Einfluss der Nahrungsproteine auf den Stoffwechsel und das Nahrungsaufnahmeverhalten, unabhängig vom Energiegehalt der Nahrung. KW - protein restriction KW - autophagy KW - thermogenesis KW - appetite KW - hyperglycemia KW - methionine restriction KW - bone KW - FGF21 KW - energy expenditure KW - GCN2 KW - metabolism KW - food choice KW - type 2 diabetes Y1 - 2021 ER - TY - THES A1 - Hennemann, Anja T1 - Topic and Focus Markers in Spanish, Portuguese and French T2 - Potsdam linguistic investigations ; 30 N2 - This book is concerned with the diachronic development of selected topic and focus markers in Spanish, Portuguese and French. On the one hand, it focuses on the development of these structures from their relational meaning to their topic-/ focus-marking meaning, and on the other hand, it is concerned with their current form und use. Thus, Romance topic and focus markers – such as sp. en cuanto a, pt. a propósito de, fr. au niveau de or sentence-initial sp. Lo que as well as clefts and pseudo-clefts – are investigated from a quantitative and qualitative perspective. The author argues that topic markers have procedural meaning and that their function is bound to their syntactic position. An important contribution of this study is the fact that real linguistic evidence (in the form of data from various corpora) is analyzed instead of operating with constructed examples. Y1 - 2020 SN - 978-3-631-82392-7 SN - 978-3-631-81889-3 PB - Lang CY - Berlin ER - TY - THES A1 - Regenstein, Wolfgang T1 - Fluoreszenzlöschung durch Elektronen- und Resonanzenergietransfer in Lösungen T1 - Fluorescence quenching through electron and resonant energy transfer in solutions N2 - Intermolekulare Desaktivierung zwischen einem angeregten Fluorophor und einem Löscher durch Elektronenübertragung kann mit dynamischer und statischer Löschung beschrieben werden. Es wird vorgeschlagen den dynamischen Löschprozess in Transport- und Wechselwirkungsphase einzuteilen. Ergebnisse der Löschung der N-Heteroarene durch Naphthalen bei hohen Löscherkonzentrationen werden mit der statischen Löschung beschrieben. Außerdem werden CT-Systeme untersucht. Nach einem Überblick über statische Modelle zum Resonanzenergietransfer wird ein aus der Treffertheorie abgeleitetes Modell vorgestellt und an Beispielen getestet. Die Experimente sind computergesteuert. N2 - The intermolecular deactivation through dynamic and static quenching can described with electron transition between an excited fluorophor and quencher. It is proposed to devide the dynamic quenching process in a transport and an interaction phase. Results oft the quenching of N-heteroarenes through naphthalenes by high concentrations are described with static quenching. CT-systems are also investigated. After giving an overview of statistical models of resonant energy transfer there is presented a model derived from the hit theory. The models were tested by examples. The experiments were executed computer-controlled. KW - Intermolekulare Desaktivierung KW - dynamische und statische Löschung KW - Transport- und Wechselwirkungsphase KW - Resonanzenergietransfer KW - statistische Modelle KW - Intermolecular deactivation KW - dynamic and static quenching KW - transport and interaction phase KW - resonant energy transfer KW - statistical models Y1 - 1989 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-491377 N1 - Überarbeitete Fassung der Habilitationsschrift aus dem Jahr 1989 ER - TY - THES A1 - Henkel-Oberländer, Janin T1 - Einfluss von Prostaglandin E2 auf die Entstehung von Insulinresistenz und die Regulation der Entzündungsantwort bei der Diät-induzierten nicht-alkoholischen Fettlebererkrankung N2 - Weltweit sind fast 40 % der Bevölkerung übergewichtig und die Prävalenz von Adipositas, Insulinresistenz und den resultierenden Folgeerkrankungen wie dem Metabolischen Syndrom und Typ-2-Diabetes steigt rapide an. Als häufigste Ursachen werden diätetisches Fehlverhalten und mangelnde Bewegung angesehen. Die nicht-alkoholische Fettlebererkrankung (NAFLD), deren Hauptcharakteristikum die exzessive Akkumulation von Lipiden in der Leber ist, korreliert mit dem Body Mass Index (BMI). NAFLD wird als hepatische Manifestation des Metabolischen Syndroms angesehen und ist inzwischen die häufigste Ursache für Leberfunktionsstörungen. Die Erkrankung umfasst sowohl die benigne hepatische Steatose (Fettleber) als auch die progressive Form der nicht-alkoholischen Steatohepatitis (NASH), bei der die Steatose von Entzündung und Fibrose begleitet ist. Die Ausbildung einer NASH erhöht das Risiko, ein hepatozelluläres Karzinom (HCC) zu entwickeln und kann zu irreversibler Leberzirrhose und terminalem Organversagen führen. Nahrungsbestandteile wie Cholesterol und Fett-reiche Diäten werden als mögliche Faktoren diskutiert, die den Übergang einer einfachen Fettleber zur schweren Verlaufsform der Steatohepatitis / NASH begünstigen. Eine Ausdehnung des Fettgewebes wird von Insulinresistenz und einer niedrig-gradigen chronischen Entzündung des Fettgewebes begleitet. Neben Endotoxinen aus dem Darm gelangen Entzündungsmediatoren aus dem Fettgewebe zur Leber. Als Folge werden residente Makrophagen der Leber, die Kupfferzellen, aktiviert, die eine Entzündungsantwort initiieren und weitere pro-inflammatorische Mediatoren freisetzen, zu denen Chemokine, Cytokine und Prostanoide wie Prostaglandin E2 (PGE2) gehören. In dieser Arbeit soll aufgeklärt werden, welchen Beitrag PGE2 an der Ausbildung von Insulinresistenz, hepatischer Steatose und Entzündung im Rahmen von Diät-induzierter NASH im komplexen Zusammenspiel mit der Regulation der Cytokin-Produktion und anderen Co-Faktoren wie Hyperinsulinämie und Hyperlipidämie hat. In murinen und humanen Makrophagen-Populationen wurde untersucht, welche Faktoren die Bildung von PGE2 fördern und wie PGE2 die Entzündungsantwort aktivierter Makrophagen reguliert. In primären Hepatozyten der Ratte sowie in isolierten humanen Hepatozyten und Zelllinien wurde der Einfluss von PGE2 allein und in Kombination mit Cytokinen, deren Bildung durch PGE2 beeinflusst werden kann, auf die Insulin-abhängige Regulation des Glucose- und Lipid-stoffwechsels untersucht. Um den Einfluss von PGE2 im komplexen Zusammenspiel der Zelltypen in der Leber und im Gesamtorganismus zu erfassen, wurden Mäuse, in denen die PGE2-Synthese durch die Deletion der mikrosomalen PGE-Synthase 1 (mPGES1) vermindert war, mit einer NASH-induzierenden Diät gefüttert. In Lebern von Patienten mit NASH oder in Mäusen mit Diät-induzierter NASH war die Expression der PGE2-synthetisierenden Enzyme Cyclooxygenase 2 (COX2) und mPGES1 sowie die Bildung von PGE2 im Vergleich zu gesunden Kontrollen gesteigert und korrelierte mit dem Schweregrad der Lebererkrankung. In primären Makrophagen aus den Spezies Mensch, Maus und Ratte sowie in humanen Makrophagen-Zelllinien war die Bildung pro-inflammatorischer Mediatoren wie Chemokinen, Cytokinen und Prostaglandinen wie PGE2 verstärkt, wenn die Zellen mit Endotoxinen wie Lipopolysaccharid (LPS), Fettsäuren wie Palmitinsäure, Cholesterol und Cholesterol-Kristallen oder Insulin, das als Folge der kompensatorischen Hyperinsulinämie bei Insulinresistenz verstärkt freigesetzt wird, inkubiert wurden. Insulin steigerte dabei synergistisch mit LPS oder Palmitinsäure die Synthese von PGE2 sowie der anderen Entzündungsmediatoren wie Interleukin (IL) 8 und IL-1β. PGE2 reguliert die Entzündungsantwort: Neben der Induktion der eigenen Synthese-Enzyme verstärkte PGE2 die Expression der Immunzell-rekrutierenden Chemokine IL-8 und (C-C-Motiv)-Ligand 2 (CCL2) sowie die der pro-inflammatorischen Cytokine IL-1β und IL-6 in Makrophagen und kann so zur Verstärkung der Entzündungsreaktion beitragen. Außerdem förderte PGE2 die Bildung von Oncostatin M (OSM) und OSM induzierte in einer positiven Rückkopplungsschleife die Expression der PGE2-synthetisierenden Enzyme. Andererseits hemmte PGE2 die basale und LPS-vermittelte Bildung des potenten pro-inflammatorischen Cytokins Tumornekrosefaktor α (TNFα) und kann so die Entzündungsreaktion abschwächen. In primären Hepatozyten der Ratte und humanen Hepatozyten beeinträchtigte PGE2 direkt die Insulin-abhängige Aktivierung der Insulinrezeptor-Signalkette zur Steigerung der Glucose-Verwertung, in dem es durch Signalketten, die den verschiedenen PGE2-Rezeptoren nachgeschaltet sind, Kinasen wie ERK1/2 und IKKβ aktivierte und eine inhibierende Serin-Phosphorylierung der Insulinrezeptorsubstrate bewirkte. PGE2 verstärkte außerdem die IL-6- oder OSM-vermittelte Insulinresistenz und Steatose in primären Hepatozyten der Ratte. Die Wirkung von PGE2 im Gesamtorganismus sollte in Mäusen mit Diät-induzierter NASH untersucht werden. Die Fütterung einer Hochfett-Diät mit Schmalz als Fettquelle, das vor allem gesättigte Fettsäuren enthält, verursachte Fettleibigkeit, Insulinresistenz und eine hepatische Steatose in Wildtyp-Mäusen. In Tieren, die eine Hochfett-Diät mit Sojaöl als Fettquelle, das vor allem (ω-6)-mehrfach-ungesättigte Fettsäuren (PUFAs) enthält, oder eine Niedrigfett-Diät mit Cholesterol erhielten, war lediglich eine hepatische Steatose nachweisbar, jedoch keine verstärkte Gewichtszunahme im Vergleich zu Geschwistertieren, die eine Standard-Diät bekamen. Im Gegensatz dazu verursachte die Fütterung einer Hochfett-Diät mit PUFA-reichem Sojaöl als Fettquelle in Kombination mit Cholesterol sowohl Fettleibigkeit und Insulinresistenz als auch hepatische Steatose mit Hepatozyten-Hypertrophie, lobulärer Entzündung und beginnender Fibrose in Wildtyp-Mäusen. Diese Tiere spiegelten alle klinischen und histologischen Parameter der humanen NASH im Metabolischen Syndrom wider. Nur die Kombination von hohen Mengen ungesättigter Fettsäuren aus Sojaöl und Cholesterol in der Nahrung führte zu einer exzessiven Akkumulation des Cholesterols und der Bildung von Cholesterol-Kristallen in den Hepatozyten, die zur Schädigung der Mitochondrien, schwerem oxidativem Stress und schließlich zum Absterben der Zellen führten. Als Konsequenz phagozytieren Kupfferzellen die Zelltrümmer der Cholesterol-überladenen Hepatozyten, werden dadurch aktiviert, setzen Chemokine, Cytokine und PGE2 frei, die die Entzündungsreaktion verstärken und die Infiltration von weiteren Immunzellen initiieren können und verursachen so eine Progression zur Steatohepatitis (NASH). Die Deletion der mikrosomalen PGE-Synthase 1 (mPGES1), dem induzierbaren Enzym der PGE2-Synthese aus Cyclooxygenase-abhängigen Vorstufen, reduzierte die Diät-abhängige Bildung von PGE2 in der Leber. Die Fütterung der NASH-induzierenden Diät verursachte in Wildtyp- und mPGES1-defizienten Mäusen eine ähnliche Fettleibigkeit und Zunahme der Fettmasse sowie die Ausbildung von hepatischer Steatose mit Entzündung und Fibrose (NASH) im histologischen Bild. In mPGES1-defizienten Mäusen waren jedoch Parameter für die Infiltration von Entzündungszellen und die Diät-abhängige Schädigung der Leber im Vergleich zu Wildtyp-Tieren erhöht, was sich auch in einer stärkeren Diät-induzierten systemischen Insulinresistenz widerspiegelte. Die Bildung des pro-inflammatorischen und pro-apoptotischen Cytokins TNFα war in mPGES1-defizienten Mäusen durch die Aufhebung der negativen Rückkopplungshemmung verstärkt, was einen gesteigerten Diät-induzierten Zelluntergang gestresster Lipid-überladener Hepatozyten und eine nach-geschaltete Entzündungsantwort zur Folge hatte. Zusammenfassend wurde unter den gewählten Versuchsbedingungen in vivo eine anti-inflammatorische Rolle von PGE2 verifiziert, da das Prostanoid vor allem indirekt durch die Hemmung der TNFα-vermittelten Entzündungsreaktion die Schädigung der Leber, die Verstärkung der Entzündung und die Ausbildung von Insulinresistenz im Rahmen der Diät-abhängigen Fettlebererkrankung abschwächte. N2 - Obesity is a worldwide problem affecting almost 40 % of the population. The prevalence of obesity, insulin resistance and the consequent diseases such as type-2-diabetes and metabolic syndrome is increasing rapidly. The main underlying reasons are high caloric diets and reduced physical exercise. The incidence of non-alcoholic fatty liver disease (NAFLD), characterized by hepatic lipid accumulation, is correlated with the body mass index. NAFLD is generally considered to be the hepatic manifestation of metabolic syndrome and is the most frequent cause of functional disorders of the liver. NAFLD comprises both the mild form of benign hepatic steatosis (fatty liver) as well as the progressive form of non-alcoholic steatohepatitis (NASH), in which hepatic steatosis is accompanied by inflammation and fibrosis. The development of NASH may result in hepatocellular carcinoma, liver cirrhosis and terminal organ failure. High fat diets and dietary cholesterol might impact the transistion from fatty liver to NASH. The diet induced expansion of the white adipose tissue is associated with the development of insulin resistance as well as low-grade chronic inflammation. Inflammatory mediators from the adipose tissue in combination with dietary components from the gut reach the liver and activate Kupffer cells, the resident liver macrophages. As a consequence, macrophages initiate an inflammatory response that involves secretion of immune cell recruiting chemokines, pro-inflammatory cytokines and prostanoids like prostaglandin E2 (PGE2). The aim of the study was to elucidate the impact of PGE2 in the development of insulin resistance, hepatic steatosis and inflammation in diet-induced NASH. These processes implicate a complex interplay of various cell types in the liver, the PGE2-mediated regulation of cytokine synthesis, as well as factors like hyperinsulinemia and hyperlipidemia. In vitro studies with murine and human macrophage populations characterise the generation of PGE2 and the PGE2-mediated regulation of the inflammatory response. Primary rat and human hepatocytes, in addition to immortal cell lines, were incubated with PGE2 alone and in combination with PGE2-dependent generated cytokines. The intent of this experimental series was to clarify the impact of these mediators on the activation of the insulin signaling chain and resulting metabolic processes in glucose and lipid metabolism. The role of PGE2 in vivo was examined in mice with reduced PGE2 synthesis due to the genetic deletion of microsomal PGE synthase 1 (mPGES1), which were additionally fed a NASH-inducing diet. The hepatic expression of the PGE2-generating enzymes cyclooxygenase 2 (COX2) and mPGES1 was increased in mice with diet-induced NASH as well as in liver biopsies of patients with NASH compared to patients with simple hepatic steatosis or non-steatotic controls, indicating an enlarged capacity for PGE2 synthesis in NASH. Furthermore, the expression of COX2 and mPGES1 in the human study cohort correlated with the severity of the hepatic disease.. Treatment of macrophages with endotoxins like lipopolysaccharide (LPS), fatty acids like palmitic acid, cholesterol and cholesterol crystals, or insulin, which is released as a consequence of insulin resistance in the context of a compensatory hyperinsulinemia, resulted in an enhanced production of pro-inflammatory mediators such as chemokines, cytokines and PGE2. A combinatory treatment of human macrophages with insulin and LPS or palmitic acid induced a synergistic increase in PGE2 synthesis and production of interleukins (IL) like IL-8 and IL-1β. PGE2 itself modulates the inflammatory response: The prostanoid induced the enzymes involved in its own synthesis, in addition to immune cell recruiting chemokines such as IL-8 and (C-C-motiv) ligand 2 (CCL2), and pro-inflammatory cytokines such as IL-1β and IL-6 in macrophages. This may result in an amplification of the inflammatory response. Furthermore, PGE2 induced the production of oncostatin M (OSM), which in turn enhanced the expression of the enzymes generating PGE2 in a positive feedback loop. On the other hand, PGE2 inhibited the basal and LPS-mediated synthesis of the potent pro-inflammatory cytokine tumor necrosis factor α (TNFα). This may result in a reduced inflammatory response. In primary rat and human hepatocytes PGE2 directly interfered with the insulin mediated activation of the insulin receptor signaling chain and impaired glucose utilisation. Mechanistically, through interaction with different PGE2 receptors, PGE2 activated serine kinases including ERK1/2 and IKKβ, which cause inhibitory phosphorylations at serine residues of the insulin receptor substrates and force their degradation. PGE2 enhanced the insulin resistance and increased hepatic steatosis induced by IL-6 or OSM in primary rat hepatocytes. A murine model of diet-induced NASH was established to elucidate the impact of PGE2 in the complex in vivo regulation. Lard-based high fat diets containing mainly saturated fatty acids initiated a strong body weight gain, obesity, insulin resistance and hepatic steatosis without further damage of the liver in mice. Furthermore, mice fed a high fat diet based on soybean oil with high amounts of (ω-6)-poly-unsaturated fatty acids (PUFAs) or a low fat diet with high cholesterol did not result in increased body weight gain compaired to mice fed a chow (low fat) diet, but did cause mild hepatic steatosis. In contrast, mice fed a high fat diet based on PUFA-rich soybean oil in combination with high dietary cholesterol caused body weight gain, obesity, insulin resistance and hepatic steatosis accompanied by hepatocyte hypertrophy, lobular inflammation and fibrosis in wildtype mice. This dietary model displayed all clinical and histological parameters of human NASH in the metabolic syndrome. Only the combination of soybean oil derived fatty acids and dietary cholesterol provoked an excessive accumulation of cholesterol in hepatocytes and the generation of cholesterol crystals that caused mitochondrial damage, severe oxidative stress, and subsequently hepatocyte death. Hepatic macrophages phagocytose hepatocyte debris, lipids and cholesterol crystals and thereby were activated to produce pro-inflammatory mediators like chemokines, cytokines and prostanoids like PGE2 that initiate an inflammatory response. This included immune cell infiltration, inflammation and fibrogenic processes that determine the progression to steatohepatitis (NASH). The deletion of microsomal PGE synthase 1 (mPGES1), the inducible enzyme generating PGE2 from COX2 derived PGH2, reduced the diet-dependent increase in hepatic PGE2 production in mice fed a NASH-inducing diet. While body weight gain, obesity and histological parameters of NASH including steatosis, inflammation and fibrosis were comparable in wild type and mPGES1-deficient mice fed a NASH inducing diet, parameters of immune cell infiltration and hepatic damage were augmented only in mPGES1-deficient mice. This results in a more pronounced diet-induced glucose intolerance and insulin resistance index in mPGES1-deficient mice compared to wild type littermates. In parallel, hepatic production of the potent pro-inflammatory and pro-apoptotic cytokine TNFα was enhanced in mice with the deletion of mPGES1 due to the abolished PGE2-mediated negative feedback loop. This was accompanied by increased diet induced cell death of lipid loaded stressed hepatocytes and could result in an intensified inflammatory response. In summary, in vivo studies verify an anti-inflammatory role of PGE2. The prostanoid PGE2 acts mainly indirectly and could attenuate the TNFα-mediated liver damage, immune response and the resulting insulin resistance in the context of diet induced fatty liver diseases. KW - Prostaglandine KW - Entzündung KW - Insulin KW - Leber KW - Fettleibigkeit KW - prostaglandins KW - inflammation KW - insulin KW - liver KW - obesity Y1 - 2021 ER - TY - THES A1 - Schmidt, Bernhard V. K. J. T1 - Polymers, self-assembly and materials BT - from polymer synthesis to applications BT - von der Polymersynthese bis zur Anwendung N2 - In der vorliegenden Arbeit wurden die Selbstorganisation von hydrophilen Polymeren, verstärkte Hydrogele, sowie anorganische/Polymer Hybridmaterialien untersucht. Dabei beschreibt die Arbeit den Weg von Polymersynthese mittels verschiedener Methoden über Polymerselbstanordnung bis zur Herstellung von Polymermaterialien mit vielversprechenden Eigenschaften für zukünftige Anwendungen. Hydrophile Polymere wurden verwendet, um Mehrphasensysteme herzustellen, Wasser-in-Wasser Emulsionen zu bilden und selbstangeordneten Strukturen zu erzeugen, z. B. Partikel/Aggregate oder hohle Strukturen aus komplett wasserlöslichen Bausteinen. Die Strukturbildung in wässriger Umgebung wurde ferner für supramolekulare Hydrogele mit definierter Unterstruktur und reversiblem Gelierungsverhalten eingesetzt. Auf dem Gebiet der Hydrogele wurde das anorganische Material graphitisches Kohlenstoffnitrid (g-CN) als Photoinitiator für die Hydrogelsynthese und als Verstärker der Gelstruktur beschrieben. Hierbei konnten Hydrogele mit herausragenden Eigenschaften generiert werden, z. B. hohe Kompressibilität, hohe Speichermodule oder Gleitfähigkeit. Die Kombinationen von g-CN mit verschiedenen Polymeren erlaubte es zudem neue Materialien für die Photokatalyse bereitzustellen. Als weiteres anorganisches Material wurden Metall-organische Gerüste (MOFs) mit Polymeren kombiniert. Es konnte gezeigt werden, dass die Verwendung von MOFs in der Polymersynthese einen starken Einfluss auf die erzeugte Polymerstruktur hat und MOFs als Katalysator für Polymerisationen verwendet werden können. Zuletzt wurde die MOF Synthese an sich untersucht, wobei Polymeradditive oder Lösungsmittel eingesetzt wurden um die kristalline Struktur der MOFs zu modulieren. Insgesamt wurden hier verschiedene Errungenschaften für die Polymerchemie beschrieben, z.B. neuartige hydrophile Polymere und Hydrogele, die zur Zeit wichtige Materialien im Polymerbereich durch ihre vielversprechenden Anwendungen im biomedizinischen Sektor darstellen. Außerdem ergab die Kombination von Polymeren mit Materialien aus anderen Bereichen der Chemie, z. B. g-CN und MOFs, neue Materialien mit bemerkenswerten Eigenschaften, die ebenfalls von Interesse für zukünftige Anwendungen sind, z. B. Beschichtungen, Partikeltechnologie und Katalyse. N2 - In the present thesis, self-assembly of hydrophilic polymers, reinforced hydrogels and inorganic/polymer hybrids were examined. The thesis describes an avenue from polymer synthesis via various methods over polymer self-assembly to the formation of polymer materials that have promising properties for future applications. Hydrophilic polymers were utilized to form multi-phase systems, water-in-water emulsions and self-assembled structures, e.g. particles/aggregates or hollow structures from completely water-soluble building blocks. The structuring of aqueous environments by hydrophilic homo and block copolymers was further utilized in the formation of supramolecular hydrogels with compartments or specific thermal behavior. Furthermore, inorganic graphitic carbon nitride (g-CN) was utilized as photoinitiator for hydrogel formation and as reinforcer for hydrogels. As such, hydrogels with remarkable mechanical properties were synthesized, e.g. high compressibility, high storage modulus or lubricity. In addition, g-CN was combined with polymers for a broad range of materials, e.g. coatings, films or latex, that could be utilized in photocatalytic applications. Another inorganic material class was combined with polymers in the present thesis as well, namely metal-organic frameworks (MOFs). It was shown that the pore structure of MOFs enables improved control over tacticity and achievement of high molar masses. Furthermore, MOF-based polymerization catalysis was introduced with improved control for coordinating monomers, catalyst recyclability and decreased metal contamination in the product. Finally, the effect of external influence on MOF morphology was studied, e.g. via solvent or polymer additives, which allowed the formation of various MOF structures. Overall, advances in several areas of polymer science are presented in here. A major topic of the thesis was hydrophilic polymers and hydrogels that currently constitute significant materials in the polymer field due to promising future applications in biomedicine. Moreover, the combination of polymers with materials from other areas of research, i.e. g-CN and MOFs, provided various new materials with remarkable properties also of interest for applications in the future, e.g. coatings, particle structures and catalysis. T2 - Polymere, Selbstanordnungen und Materialien KW - block copolymers KW - carbon nitride KW - metal-organic frameworks KW - Blockcopolymere KW - Kohlenstoffnitrid KW - Metall-organische Gerüste Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-484819 ER - TY - THES A1 - Dammhahn, Melanie T1 - From individual variation to community structure : paterns, determinants and consequences of within- and between-species variation in behaviour, life-history and ecology Y1 - 2019 ER - TY - THES A1 - Schröter, Kai T1 - Improved flood risk assessment BT - new data sources and methods for flood risk modelling N2 - Rivers have always flooded their floodplains. Over 2.5 billion people worldwide have been affected by flooding in recent decades. The economic damage is also considerable, averaging 100 billion US dollars per year. There is no doubt that damage and other negative effects of floods can be avoided. However, this has a price: financially and politically. Costs and benefits can be estimated through risk assessments. Questions about the location and frequency of floods, about the objects that could be affected and their vulnerability are of importance for flood risk managers, insurance companies and politicians. Thus, both variables and factors from the fields of hydrology and sociol-economics play a role with multi-layered connections. One example are dikes along a river, which on the one hand contain floods, but on the other hand, by narrowing the natural floodplains, accelerate the flood discharge and increase the danger of flooding for the residents downstream. Such larger connections must be included in the assessment of flood risk. However, in current procedures this is accompanied by simplifying assumptions. Risk assessments are therefore fuzzy and associated with uncertainties. This thesis investigates the benefits and possibilities of new data sources for improving flood risk assessment. New methods and models are developed, which take the mentioned interrelations better into account and also quantify the existing uncertainties of the model results, and thus enable statements about the reliability of risk estimates. For this purpose, data on flood events from various sources are collected and evaluated. This includes precipitation and flow records at measuring stations as well as for instance images from social media, which can help to delineate the flooded areas and estimate flood damage with location information. Machine learning methods have been successfully used to recognize and understand correlations between floods and impacts from a wide range of data and to develop improved models. Risk models help to develop and evaluate strategies to reduce flood risk. These tools also provide advanced insights into the interplay of various factors and on the expected consequences of flooding. This work shows progress in terms of an improved assessment of flood risks by using diverse data from different sources with innovative methods as well as by the further development of models. Flood risk is variable due to economic and climatic changes, and other drivers of risk. In order to keep the knowledge about flood risks up-to-date, robust, efficient and adaptable methods as proposed in this thesis are of increasing importance. N2 - Flüsse haben seit jeher ihre Auen überflutet. In den vergangenen Jahrzehnten waren weltweit über 2,5 Milliarden Menschen durch Hochwasser betroffen. Auch der ökonomische Schaden ist mit durchschnittlich 100 Milliarden US Dollar pro Jahr erheblich. Zweifelsohne können Schäden und andere negative Auswirkungen von Hochwasser vermieden werden. Allerdings hat dies einen Preis: finanziell und politisch. Kosten und Nutzen lassen sich durch Risikobewertungen abschätzen. Dabei werden in der Wasserwirtschaft, von Versicherungen und der Politik Fragen nach dem Ort und der Häufigkeit von Überflutungen, nach den Dingen, die betroffen sein könnten und deren Anfälligkeit untersucht. Somit spielen sowohl Größen und Faktoren aus den Bereichen der Hydrologie und Sozioökonmie mit vielschichtigen Zusammenhängen eine Rolle. Ein anschauliches Beispiel sind Deiche entlang eines Flusses, die einerseits in ihrem Abschnitt Überflutungen eindämmen, andererseits aber durch die Einengung der natürlichen Vorländer den Hochwasserabfluss beschleunigen und die Gefährdung für die Anlieger flussab verschärfen. Solche größeren Zusammenhänge müssen in der Bewertung des Hochwasserrisikos einbezogen werden. In derzeit gängigen Verfahren geht dies mit vereinfachenden Annahmen einher. Risikoabschätzungen sind daher unscharf und mit Unsicherheiten verbunden. Diese Arbeit untersucht den Nutzen und die Möglichkeiten neuer Datensätze für eine Verbesserung der Hochwasserrisikoabschätzung. Es werden neue Methoden und Modelle entwickelt, die die angesprochenen Zusammenhänge stärker berücksichtigen und auch die bestehenden Unsicherheiten der Modellergebnisse beziffern und somit die Verlässlichkeit der getroffenen Aussagen einordnen lassen. Dafür werden Daten zu Hochwasserereignissen aus verschiedenen Quellen erfasst und ausgewertet. Dazu zählen neben Niederschlags-und Durchflussaufzeichnungen an Messstationen beispielsweise auch Bilder aus sozialen Medien, die mit Ortsangaben und Bildinhalten helfen können, die Überflutungsflächen abzugrenzen und Hochwasserschäden zu schätzen. Verfahren des Maschinellen Lernens wurden erfolgreich eingesetzt, um aus vielfältigen Daten, Zusammenhänge zwischen Hochwasser und Auswirkungen zu erkennen, besser zu verstehen und verbesserte Modelle zu entwickeln. Solche Risikomodelle helfen bei der Entwicklung und Bewertung von Strategien zur Minderung des Hochwasserrisikos. Diese Werkzeuge ermöglichen darüber hinaus Einblicke in das Zusammenspiel verschiedener Faktoren sowie Aussagen zu den zu erwartenden Folgen auch von Hochwassern, die das bisher bekannte Ausmaß übersteigen. Diese Arbeit verzeichnet Fortschritte in Bezug auf eine verbesserte Bewertung von Hochwasserrisiken durch die Nutzung vielfältiger Daten aus unterschiedlichen Quellen mit innovativen Verfahren sowie der Weiterentwicklung von Modellen. Das Hochwasserrisiko unterliegt durch wirtschaftliche Entwicklungen und klimatische Veränderungen einem steten Wandel. Um das Wissen über Risiken aktuell zu halten sind robuste, leistungs- und anpassungsfähige Verfahren wie sie in dieser Arbeit vorgestellt werden von zunehmender Bedeutung. T2 - Verbesserte Hochwasserrisikobewertung: Neue Datenquellen und Methoden für die Risikomodellierung KW - flood KW - risk KW - vulnerability KW - machine learning KW - uncertainty KW - Hochwasser KW - Risiko KW - Vulnerabilität KW - Maschinelles Lernen KW - Unsicherheiten Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-480240 ER - TY - THES A1 - Aleksandrova, Krasimira T1 - Understanding the link between obesity and colorectal cancer BT - the role of biomarkers of iflammation, immunity and metabolic dysfunction Y1 - 2020 ER - TY - THES A1 - Müller, Steffen T1 - Relevance of back bain and validity of neuromuscular diagnostics in adolescent athletes Y1 - 2018 CY - Potsdam ER - TY - THES A1 - Bondü, Rebecca T1 - Justice Sensitivity BT - Development during Late Childhood and Adolescence and Links with Externalizing and Internalizing Problem Behavior N2 - Individuals differ in their tendency to perceive injustice and in their responses towards these perceptions. Those high in justice sensitivity tend to show intense negative affective, cognitive, and behavioral responses towards injustice that in part also depend on the perspective from which injustice is perceived. The present research project showed that inter-individual differences in justice sensitivity may already be measured and observed in childhood and adolescence and that early adolescence seems an important age-range and developmental stage for the stabilization of these differences. Furthermore, the different justice sensitivity perspectives were related to different forms of externalizing (aggression, ADHD, bullying) and internalizing problem behavior (depressive symptoms) both in children and adolescents as well as in adults in cross-sectional studies. Particularly victim sensitivity may apparently constitute an important risk factor for a broad range of both externalizing and internalizing maladaptive behaviors and mental health problems as shown in those studies using longitudinal data. Regarding aggressive behavior, victim justice sensitivity may even constitute a risk factor above and beyond other important and well-established risk factors for aggression and similar sensitivity constructs that had previously been linked to this kind of behavior. In contrast, observer and perpetrator sensitivity (perpetrator sensitivity in particular) tended to show negative links with externalizing problem behavior and instead predicted prosocial behavior in children and adolescents. However, there were also detached positive relations of perpetrator sensitivity with emotional problems as well as of observer sensitivity with reactive aggression and depressive symptoms. Taken together, the findings from the present research show that justice sensitivity forms in childhood at the latest and that it may have important, long-term influences on pro- and antisocial behavior and mental health. Thus, justice sensitivity requires more attention in research on the prevention and intervention of mental health problems and antisocial behavior, such as aggression. KW - adolescence KW - externalizing problem behavior KW - interalizing problem behavior KW - aggressive behavior KW - justice sensitivity Y1 - CY - Potsdam ER - TY - THES A1 - Herrmann, Christian T1 - Motorische Basiskompetenzen - Konstrukt, Erfassung und Forschungsstand Y1 - 2017 ER - TY - THES A1 - de Vera, Jean-Pierre Paul T1 - The relevance of ecophysiology in astrobiology and planetary research T1 - Die Relevanz der Ökophysiologie in der Astrobiologie und Planetenforschung BT - implications for the characterization of the habitability of planets and biosignatures BT - Implikationen für die Charakterisierung der Habitabilität von Planeten und Biosignaturen N2 - Eco-physiological processes are expressing the interaction of organisms within an environmental context of their habitat and their degree of adaptation, level of resistance as well as the limits of life in a changing environment. The present study focuses on observations achieved by methods used in this scientific discipline of “Ecophysiology” and to enlarge the scientific context in a broader range of understanding with universal character. The present eco-physiological work is building the basis for classifying and exploring the degree of habitability of another planet like Mars by a bio-driven experimentally approach. It offers also new ways of identifying key-molecules which are playing a specific role in physiological processes of tested organisms to serve as well as potential biosignatures in future space exploration missions with the goal to search for life. This has important implications for the new emerging scientific field of Astrobiology. Astrobiology addresses the study of the origin, evolution, distribution and future of life in the universe. The three fundamental questions which are hidden behind this definition are: how does life begin and evolve? Is there life beyond Earth and, if so, how can we detect it? What is the future of life on Earth and in the universe? It means that this multidisciplinary field encompasses the search for habitable environments in our Solar System and habitable planets outside our Solar System. It comprises the search for the evidence of prebiotic chemistry and life on Mars and other bodies in our Solar System like the icy moons of the Jovian and Saturnian system, laboratory and field research into the origins and early evolution of life on Earth, and studies of the potential for life to adapt to challenges on Earth and in space. For this purpose an integrated research strategy was applied, which connects field research, laboratory research allowing planetary simulation experiments with investigation enterprises performed in space (particularly performed in the low Earth Orbit. N2 - Ökophysiologische Prozesse sind durch Interaktionen der Organismen mit der Umwelt in ihrem Habitat, durch ihren Grad der Anpassungsfähigkeit, dem Grad der Resistenz als auch durch die Begrenzungen des Lebens in einer sich verändernden Umwelt gekennzeichnet. Die hier vorliegende Studie konzentriert sich auf die Ergebnisse, die durch die Anwendung der Methoden aus der wissenschaftlichen Disziplin „Ökophysiologie“ erzielt wurden und erlaubt eine Erweiterung dieses wissenschaftlichen Kontextes mit mehr universalem Charakter. Die vorliegende Ökophysiologische Arbeit bildet die Grundlage für eine Klassifizierung und Erkundung des Grades der Habitabilität eines anderen Planeten wie dem Mars durch experimentelle Ansätze. Sie zeigt auch neue Wege für die Identifizierung von Schlüsselmolekülen, die eine besondere Rolle in physiologischen Prozessen getesteter Organismen spielt, um auch als mögliche Biosignaturen für zukünftige Weltraumerkundungsmissionen mit dem Ziel der Suche nach Leben im All zu dienen. Das wirkt sich auch im besonderen Maße auf das sich neu ausbildende wissenschaftliche Feld der Astrobiologie aus. Die Astrobiologie befaßt sich mit der Erforschung des Ursprungs, der Entwicklung, der Verbreitung und Zukunft des Lebens im Universum. Die drei grundlegenden Fragen, die sich hinter dieser Definition verbergen, sind: wie entstand und entwickelte sich das Leben? Gibt es Leben außerhalb der Erde, und falls ja, wie können wir es nachweisen? Was ist die Zukunft des Lebens auf der Erde und im Universum? Das bedeutet, dass dieses viele Disziplinen umfassende Arbeitsfeld die Suche nach einer anderen habitablen Umwelt in unserem Sonnensystem und anderen habitablen Planeten außerhalb unseres Sonnensystems, die Suche nach der Evidenz präbiotischer Chemie und Leben auf dem Mars und anderen Himmelskörpern in unserem Sonnensystem, wie beispielsweise auf den Eismonden des Jupiter- und Saturnsystems, Labor- und Feldforschung bis hin zu den Ursprüngen und der Evolution des Lebens auf der Erde beinhaltet und Untersuchungen über das Potential von Leben, sich den Herausforderungen auf der Erde und im All anzupassen, mit einschließt. Zu diesem Zweck wurde eine ganzheitliche Forschungsstrategie angewendet, welche die Feldforschung, Laborforschung mit Planetensimulations-Experimenten und die Forschung im All(insbesondere die Untersuchungen im nahen Erdorbit) miteinander verbindet. KW - astrobiology KW - eco-physiology KW - planetary simulation KW - biosignatures KW - habitability KW - Astrobiologie KW - Ökophysiologie KW - Planetensimulation KW - Biosignaturen KW - Habitabilität Y1 - 2018 ER - TY - THES A1 - Thonicke, Kirsten T1 - The influence of disturbance, climate extremes and land-use change on vegetation dynamics Y1 - 2019 ER - TY - THES A1 - Marwan, Norbert T1 - Recurrence plot techniques for the investigation of recurring phenomena in the system earth T1 - Recurrence-Plot-Techniken zur Untersuchung wiederkehrender Phänomene im System Erde N2 - The habilitation deals with the numerical analysis of the recurrence properties of geological and climatic processes. The recurrence of states of dynamical processes can be analysed with recurrence plots and various recurrence quantification options. In the present work, the meaning of the structures and information contained in recurrence plots are examined and described. New developments have led to extensions that can be used to describe the recurring patterns in both space and time. Other important developments include recurrence plot-based approaches to identify abrupt changes in the system's dynamics, to detect and investigate external influences on the dynamics of a system, the couplings between different systems, as well as a combination of recurrence plots with the methodology of complex networks. Typical problems in geoscientific data analysis, such as irregular sampling and uncertainties, are tackled by specific modifications and additions. The development of a significance test allows the statistical evaluation of quantitative recurrence analysis, especially for the identification of dynamical transitions. Finally, an overview of typical pitfalls that can occur when applying recurrence-based methods is given and guidelines on how to avoid such pitfalls are discussed. In addition to the methodological aspects, the application potential especially for geoscientific research questions is discussed, such as the identification and analysis of transitions in past climates, the study of the influence of external factors to ecological or climatic systems, or the analysis of landuse dynamics based on remote sensing data. N2 - Die Habilitation beschäftigt sich mit der Analyse der Wiederkehreigenschaften geologischer und klimatischer Prozesse. Die Wiederkehr von Zuständen dynamischer Prozesses kann mit recurrence plots und deren verschiedenen Quantifizierungsmöglichkeiten untersucht werden. In der Arbeit wird die Bedeutung der Strukturen und Informationen, die in recurrence plots enthalten sind, untersucht und beschrieben. Neue Entwicklungen führen zu Erweiterungen, die zur Beschreibung räumlich und raumzeitlich wiederkehrender Muster genutzt werden können. Weitere wichtige Entwicklungen umfassen Erweiterungen zur Identifizierung von abrupten Änderungen in der Dynamik, zum Aufspüren und Untersuchen äußerer Einflüsse auf die Dynamik eines Systems als auch von Kopplungen zwischen verschiedenen Systemen, sowie eine Kombination mit der Methodik der komplexen Netzwerke. Typische Probleme geowissenschaftlicher Datenanalyse, wie unregelmäßiges Datensampling und Unsicherheiten in den Daten, werden durch spezielle Modifikationen und Ergänzungen behandelt. Die Entwicklung eines Signifikanztests erlaubt die statistische Bewertung der quantitativen Analyse vor allem für die Betrachtung dynamischer Übergänge. Den Abschluß bildet ein Überblick typischer Fehler, die im Zusammenhang mit dieser Methode auftreten können und wie man diese vermeidet. Neben den methodischen Aspekten werden Anwendungsmöglichkeiten vor allem fü geowissenschaftliche Fragestellungen vorgestellt, wie die Analyse von Klimaänderungen, von externen Einflußfaktoren auf ökologische oder klimatische Systeme, oder der Landnutzungsdynamik anhand von Fernerkundungsdaten. KW - recurrence KW - complex systems KW - palaeoclimate KW - spatial recurrence KW - recurrence plot KW - recurrence network KW - Wiederkehr KW - komplexe Systeme KW - Paläoklima KW - räumliche Wiederkehr KW - Recurrence plot KW - Recurrence network Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-441973 SN - 978-3-00-064508-2 ER - TY - THES A1 - Budke, Alexandra T1 - Und der Zukunft abgewandt BT - Ideologische Erziehung im Geographieunterricht der DDR T2 - Eckert : die Schriftenreihe ; Studien des Georg-Eckert-Instituts zur Internationalen Bildungsmedienforschung N2 - Seit dem Ende der DDR, das den Zusammenbruch des Ostblocks und damit die Beendigung des »Kalten Kriegs« einleitete, wird verstärkt versucht, das Wesen dieses Staates zu definieren und damit seine Folgen auf wirtschaftlicher, sozialer, psychologischer und bildungspolitischer Ebene zu verstehen und einzuordnen. Alexandra Budke analysiert in diesem Band das Schulfach Geographie, das neben der Staatsbürgerkunde und der Geschichte ein zentrales Fach war und in dem die in den Lehrplänen definierte »staatsbürgerliche, weltanschauliche oder ideologische Erziehung« auf der Grundlage des Marxismus-Leninismus stattfinden sollte. Sie klärt, inwiefern Geographieunterricht in der DDR genutzt wurde, um geopolitische Interessen des Staates zu kommunizieren und zu verbreiten. Damit lässt sich durch die detaillierte Analyse des Fachunterrichts auch die Frage beantworten, ob SchülerInnen im Unterricht politisch manipuliert wurden und welche Handlungsmöglichkeiten die zentralen Akteure des Unterrichts, die LehrerInnen und die SchülerInnen, im Rahmen der durch die Bildungspolitik gesetzten curricularen Vorgaben wahrgenommen haben. N2 - Since the end of the German Democratic Republic and with it the collapse of the Eastern Bloc and the termination of the Cold War, efforts have been stepped up to define the real essence of the East German state and thus to understand and classify its consequences in economic, social, psychological and educational terms. In this volume, Alexandra Budke analyses the school subject of geography, which was one of the major subjects besides civics and history, in which “civic, philosophical and ideological education” as defined in the curricula was imparted from a Marxist-Leninist perspective. The author examines to what extent geography lessons in East Germany were used to communicate and propagate the geopolitical interests of the state. Her detailed analysis of geography lessons enables her to assess whether school students were politically manipulated, and what options for action were perceived by the key actors in lessons – namely the teachers and the students – within the scope of the curricula imposed by educational policy. KW - Geografieunterricht KW - Ideologie KW - Erziehung KW - Deutschland Y1 - 2010 SN - 978-3-89971-627-6 SN - 2198-6320 N1 - Habilitationsschrift, Humboldt-Univ., Berlin, 2009 IS - 127 PB - V & R Unipress CY - Göttingen ER - TY - THES A1 - Brune, Sascha T1 - Modelling continental rift dynamics T1 - Modellierung kontinentaler Riftdynamik N2 - Continental rift systems open up unique possibilities to study the geodynamic system of our planet: geodynamic localization processes are imprinted in the morphology of the rift by governing the time-dependent activity of faults, the topographic evolution of the rift or by controlling whether a rift is symmetric or asymmetric. Since lithospheric necking localizes strain towards the rift centre, deformation structures of previous rift phases are often well preserved and passive margins, the end product of continental rifting, retain key information about the tectonic history from rift inception to continental rupture. Current understanding of continental rift evolution is based on combining observations from active rifts with data collected at rifted margins. Connecting these isolated data sets is often accomplished in a conceptual way and leaves room for subjective interpretation. Geodynamic forward models, however, have the potential to link individual data sets in a quantitative manner, using additional constraints from rock mechanics and rheology, which allows to transcend previous conceptual models of rift evolution. By quantifying geodynamic processes within continental rifts, numerical modelling allows key insight to tectonic processes that operate also in other plate boundary settings, such as mid ocean ridges, collisional mountain chains or subduction zones. In this thesis, I combine numerical, plate-tectonic, analytical, and analogue modelling approaches, whereas numerical thermomechanical modelling constitutes the primary tool. This method advanced rapidly during the last two decades owing to dedicated software development and the availability of massively parallel computer facilities. Nevertheless, only recently the geodynamical modelling community was able to capture 3D lithospheric-scale rift dynamics from onset of extension to final continental rupture. The first chapter of this thesis provides a broad introduction to continental rifting, a summary of the applied rift modelling methods and a short overview of previews studies. The following chapters, which constitute the main part of this thesis feature studies on plate boundary dynamics in two and three dimension followed by global scale analyses (Fig. 1). Chapter II focuses on 2D geodynamic modelling of rifted margin formation. It highlights the formation of wide areas of hyperextended crustal slivers via rift migration as a key process that affected many rifted margins worldwide. This chapter also contains a study of rift velocity evolution, showing that rift strength loss and extension velocity are linked through a dynamic feed-back. This process results in abrupt accelerations of the involved plates during rifting illustrating for the first time that rift dynamics plays a role in changing global-scale plate motions. Since rift velocity affects key processes like faulting, melting and lower crustal flow, this study also implies that the slow-fast velocity evolution should be imprinted in rifted margin structures. Chapter III relies on 3D Cartesian rift models in order to investigate various aspects of rift obliquity. Oblique rifting occurs if the extension direction is not orthogonal to the rift trend. Using 3D lithospheric-scale models from rift initialisation to breakup I could isolate a characteristic evolution of dominant fault orientations. Further work in Chapter III addresses the impact of rift obliquity on the strength of the rift system. We illustrate that oblique rifting is mechanically preferred over orthogonal rifting, because the brittle yielding requires a lower tectonic force. This mechanism elucidates rift competition during South Atlantic rifting, where the more oblique Equatorial Atlantic Rift proceeded to breakup while the simultaneously active but less oblique West African rift system became a failed rift. Finally this Chapter also investigates the impact of a previous rift phase on current tectonic activity in the linkage area of the Kenyan with Ethiopian rift. We show that the along strike changes in rift style are not caused by changes in crustal rheology. Instead the rift linkage pattern in this area can be explained when accounting for the thinned crust and lithosphere of a Mesozoic rift event. Chapter IV investigates rifting from the global perspective. A first study extends the oblique rift topic of the previous chapter to global scale by investigating the frequency of oblique rifting during the last 230 million years. We find that approximately 70% of all ocean-forming rift segments involved an oblique component of extension where obliquities exceed 20°. This highlights the relevance of 3D approaches in modelling, surveying, and interpretation of many rifted margins. In a final study, we propose a link between continental rift activity, diffuse CO2 degassing and Mesozoic/Cenozoic climate changes. We used recent CO2 flux measurements in continental rifts to estimate worldwide rift-related CO2 release, which we based on the global extent of rifts through time. The first-order correlation to paleo-atmospheric CO2 proxy data suggests that rifts constitute a major element of the global carbon cycle. N2 - Kontinentale Grabensysteme eröffnen einzigartige Einsichten in das geodynamische System unseres Planeten: Geodynamische Lokalisierungs-prozesse prägen die Morphologie von Riftsystemen, indem sie die zeitabhängige Aktivität von Störungen, die topographische Entwicklung des Rifts oder dessen Symmetrieentwicklung kontrollieren. Da die Verformung oft in Richtung des Riftzentrums lokalisiert, sind die Deformationsstrukturen früherer Riftphasen meist gut erhalten und passive Ränder, die Endprodukte kontinentalen Riftings, beinhalten wichtige Informationen über die tektonische Geschichte vom Riftbeginn bis zum kontinentalen Zerbrechen. Unser gegenwärtiges Verständnis der Riftentwicklung basiert auf der Kombination von Beobachtungen in aktiven Rifts mit Informationen, die an passiven Kontinental-rändern gesammelt wurden. Die Einbindung dieser isolierten Datensätze erfolgt oft konzeptionell und lässt Raum für subjektive Interpretationen. Geodynamische Vorwärtsmodelle haben jedoch das Potenzial, einzelne Datensätze quantitativ zu verknüpfen, wobei zusätzliche Informationen aus der Gesteinsmechanik und Rheologie verwendet werden, die es ermöglichen, frühere konzeptionelle Riftmodelle weiter zu entwickeln. In dieser Arbeit kombiniere ich numerische, plattentektonische, analytische und analoge Modellierungsansätze, wobei die numerische thermomechanische Modellierung das primäre Werkzeug darstellt. Diese Methode hat sich in den letzten zwei Jahrzehnten aufgrund dedizierter Softwareentwicklung und der Verfügbarkeit von massiv parallelisierten Supercomputern sehr schnell entwickelt. Dennoch gelang es der geodynamischen Modellierungsgemeinschaft erst vor kurzem, die dreidimensionale lithosphärenskalige Riftentwicklung vom Beginn der Dehnung bis zum endgültigen Zerbrechen eines Kontinents zu erfassen. Meine Habilitationsschrift beinhaltet eine Einführung in kontinentale Rifttektonik, eine Zusammenfassung der angewendeten Modellierungsmethoden und einen kurzen Überblick über Vorstudien. In dem Hauptteil dieser Arbeit werden Untersuchungen auf Plattenrandskala in zwei und drei Dimensionen durchgeführt, gefolgt von globalen Analysen der Riftentwicklung. Dabei beschreibe ich die Bildung extrem ausgedehnter kontinentaler Kruste, die an vielen gerifteten Kontinentalrändern beobachtet wurde, die Rückkopplung zwischen Riftdynamik und Plattenbewegungen, der Wirkung von Riftschrägheit und tektonischer Vererbung auf die Riftarchitektur sowie den Einfluss von Riftsystemen auf CO2-Entgasung in Bezug auf die paläoklimatische Entwicklung der Erde seit dem Zerbrechen Pangäas. KW - rifting KW - modelling KW - plate tectonics KW - geodynamics KW - Grabenbruch KW - Modellierung KW - Plattentektonik KW - Geodynamik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-432364 ER - TY - THES A1 - Bibi, Faysal T1 - Paleoecology and evolution in the Afro-Arabian neogene T1 - Paläoökologie und Evolution im afro-arabischen Neogen N2 - This cumulative habilitation thesis presents new work on the systematics, paleoecology, and evolution of antelopes and other large mammals, focusing mainly on the late Miocene to Pleistocene terrestrial fossil record of Africa and Arabia. The studies included here range from descriptions of new species to broad-scale analyses of diversification and community evolution in large mammals over millions of years. A uniting theme is the evolution, across both temporal and spatial scales, of the environments and faunas that characterize modern African savannas today. One conclusion of this work is that macroevolutionary changes in large mammals are best characterized at regional (subcontinental to continental) and long-term temporal scales. General views of evolution developed on records that are too restricted in spatial and temporal extent are likely to ascribe too much influence to local or short-lived events. While this distinction in the scale of analysis and interpretation may seem trivial, it is challenging to implement given the geographically and temporally uneven nature of the fossil record, and the difficulties of synthesizing spatially and temporally dispersed datasets. This work attempts to do just that, bringing together primary fossil discoveries from eastern Africa to Arabia, from the Miocene to the Pleistocene, and across a wide range of (mainly large mammal) taxa. The end result is support for hypotheses stressing the impact of both climatic and biotic factors on long-term faunal change, and a more geographically integrated view of evolution in the African fossil record. N2 - Die vorliegende kumulative Habilitationsarbeit beschäftigt sich mit der Systematik, Paläoökologie und Evolution von Antilopen und anderen Großsäugetieren mit Schwerpunkt auf dem spätmiozänen bis pleistozänen Fossilbericht Arabiens und Afrikas. Die Untersuchungen reichen dabei von der Beschreibung neuer Arten bis hin zu großmaßstäblichen Analysen zur Diversifikation und Community-Evolution von Großsäugern über mehrere Millionen Jahre, mit besonderem Augenmerk auf der zeitlichen und räumlichen Evolution der für die heutigen afrikanischen Savannen charakteristischen Fauna und Umwelt. Eine der Schlussfolgerungen der vorliegenden Arbeit lautet, dass makroevolutionärer Wandel bei Großsäugetieren am besten auf der regionalen (subkontinental bis kontinentalen) Ebene sowie über lange zeitliche Skalen hinweg sichtbar wird. Umgekehrt scheinen davon abweichende Ergebnisse früherer Studien, welche häufig auf zeitlich und räumlich eingeschränkter Basis durchgeführt wurden, übermäßig von kurzfristigen Ereignissen beeinflusst worden zu sein. Ein besseres Verständnis für die methodischen Ursachen dieser unterschiedlichen Bewertungen ist von großer Bedeutung in Anbetracht der variablen Qualität des Fossilberichts und den Schwierigkeiten, derartige zeitlich und räumlich oftmals heterogenen Datensätze adäquat zu synthetisieren – letzteres war ein erklärtes Ziel der vorliegenden Arbeit. Schlussendlich unterstützen die hier dargelegten Untersuchungen die Hypothese eines Einflusses von sowohl klimatischen wie biotischen Faktoren auf langzeitlichen Faunenwandel und bieten eine neue, integrierte Perspektive auf die Evolution der afrikanischen Großsäuger-Faunen. KW - Africa KW - Arabia KW - neogene KW - paleontology KW - mammals KW - Afrika KW - Arabien KW - Neogen KW - Paläontologie KW - Säugetiere Y1 - 2018 ER - TY - THES A1 - Yang, Haojin T1 - Deep representation learning for multimedia data analysis Y1 - 2019 ER - TY - THES A1 - Schleicher, Anja Maria T1 - The significance of clay minerals in active fault zones N2 - Die vorliegende Habilitationsschrift umfasst Forschungsergebnisse aus Studien, die sich mit Fluid-Gesteins-Wechselwirkungen und Deformationsprozessen in aktiven Störungszonen befassen, wobei der Einfluss der Tonminerale auf das geochemische und hydromechanische Verhalten dieser Störungen im Vordergrund steht. Kernproben (core) und Bohrklein (cuttings) aus vier verschiedenen Bohrprojekten an der San Andreas Störung (USA), der Nankai Trough Subduktionszone und der Japan Trench Subduktionszone (Japan), sowie der Alpine Störung in Neuseeland wurden untersucht. Die von ICDP (International Continental Scientific Drilling Program) und IODP (International Ocean Discovery Program) unterstützten Projekte verfolgen alle das Ziel, das Verhalten von Erdbeben besser zu verstehen. In Kapitel 1 werden in einer kurzen Einleitung die allgemeinen thematischen Grundlagen und Ziele der Arbeit beschrieben. Kapitel 2 umfasst den Stand der Forschung, eine kurze Beschreibung der einzelnen Bohrprojekte und Standorte, sowie eine Zusammenfassung der wichtigsten Messmethoden. Kapitel 3 beinhaltet insgesamt zehn wissenschaftliche Arbeiten, die alle in einem methodisch-thematischen Zusammenhang stehen. Die Manuskripte wurden in den Jahren 2006-2015 veröffentlicht, wobei weitere Arbeiten aus diesem Themenbereich im Literaturverzeichnis vermerkt sind. Sie gehen auf unterschiedliche Fragestellungen um die Bildung und das Verhalten von Tonmineralen in aktiven Störungszonen ein. Insgesamt sechs Publikationen beinhalten Daten und Forschungsergebnisse, die im Rahmen des SAFOD Projektes, USA (San Andreas Fault Observatory at Depth) erstellt wurden. Hier wurde vor allem auf die Fluid-Gesteins-Wechselwirkungsprozesse im Störungsgestein und die daraus resultierende Bildung von Tonmineralen eingegangen. Drei weitere Arbeiten wurden im Rahmen des NanTroSEIZE Projektes, Japan (Nankai Trough Seismogenic Zone Experiment) und des JFAST Projektes, Japan (Japan Trench Fast Drilling Project) erstellt. Hier steht vor allem das Verhalten von quellfähigen Tonmineralen auf sich ändernde Umgebungsbedingungen (z.B. Temperatur und Feuchtigkeit) im Mittelpunkt. Die zehnte hier vorgestellte Veröffentlichung betrifft Analysen rund um das DFDP Projekt (Deep Fault Drilling Project) in Neuseeland, wobei hier die Deformation von Tonmineralen und das hydro-mechanische Verhalten der Störungszone im Vordergrund stehen. In neun Veröffentlichungen war ich als Erstautor für die Vorbereitung des Projektes, das Erstellen der Daten und die Fertigstellung der Manuskripte zuständig. In einer Publikation war ich als Mitautorin für die elektronenmikroskopischen Analysen und deren Interpretation verantwortlich. Die wichtigsten Ergebnisse der in Kapitel 3 vorgelegten Arbeiten werden in Kapitel 4 unter Berücksichtigung neuer Publikationen diskutiert. Nach der Beschreibung der Thesen in Kapitel 5 werden in Kapitel 6 „Outlook“ die Highlights zukünftiger Forschungspläne am GFZ näher beschrieben. Die Habilitationsschrift endet mit dem Anhang, in welchem unter anderem das Laborequipment genauer beschrieben wird, sowie die Publikationen, Konferenzbeiträge und Lehrbeiträge aufgelistet sind. N2 - The habilitation thesis presented here includes results from several studies dealing with fluid-rock interactions and rock deformation processes in active fault zones. The focus in all of these studies is on the influence of clay minerals on the geochemical and the hydro-mechanical behavior of the fault rocks. The research was conducted on rock cores and cuttings from four scientific drilling projects at the San Andreas Fault (USA), the Nankai Trough subduction zone and the Japan Trench subduction zone (Japan), as well as the Alpine Fault in New Zealand. These ICDP (International Continental Scientific Drilling Program) and IODP (International Ocean Discovery Program) funded projects were all conducted with the aim to monitor and better understand earthquakes. Chapter 1 contains a short introduction to the topic with basic principles and objectives regarding the research approach. Chapter 2 describes the state of the art in clay mineral and fault zone science, gives a short description of the individual drilling projects and their locations on which the research was based, and summarizes the most important analytical methods used. Chapter 3 comprises ten peer-reviewed publications that are connected thematically and methodologically. The papers were published in the years 2006-2015, and additional related publications including myself as co-author are given in the literature list. The ten publications address different questions concerning the formation of clay minerals and processes of fluid-rock interaction in active fault zones. Six papers contain results from the SAFOD drilling project, USA (San Andreas Fault Observatory at Depth), with the main focus on fluid-rock interaction processes in fault rocks and the formation and location of clay minerals. Three publications report on research from the NanTroSEIZE drilling project (Nankai Trough Seismogenic Zone Experiment) and the JFAST drilling project (Japan Trench Fast Drilling Project). Both projects are situated in Japan. Here, the swelling behavior of smectite clay minerals in relation to changing environmental conditions (e.g. temperature and/or humidity) was investigated. The last publication included here concerns a study from the DFDP project (Deep Fault Drilling Project) in New Zealand, where I investigated the deformation of clay minerals on the context of the hydro-mechanical behavior of the fault zone rocks. I was first author in nine of the publications and in charge of the project preparation, measurements and data analyses, and the completion of the manuscript. As co-author on the other publication I was responsible for electronmicroscopy analyses (SEM and TEM) and their interpretation. The key results from the publications in Chapter 3 are discussed in Chapter 4 with additional considerations from more recent papers. Following the major theses in Chapter 5, Chapter 6 highlights a future research project in clay mineralogy research at the GFZ. An appendix includes more detailed descriptions of the laboratory equipment and lists of all publications, conference contributions and teaching courses and modules. KW - fault zone KW - Störungszone KW - clay mineral KW - fluid-rock interaction KW - Tonminerale KW - Fluid-Gesteins Wechselwirkung Y1 - 2019 ER - TY - THES A1 - Boese, Adrian Daniel T1 - Theorie und Berechnung intermolekularer Wechselwirkungen T1 - Theory and computation of intermolecular interactions N2 - Die klassische Physik/Chemie unterscheidet zwischen drei Bindungstypen: Der kovalenten Bindung, der ionischen Bindung und der metallischen Bindung. Moleküle untereinander werden hingegen durch schwache Wechselwirkungen zusammen gehalten, sie sind trotz ihrer schwachen Kräfte weniger verstanden, aber dabei nicht weniger wichtig. In zukunftsweisenden Gebieten wie der Nanotechnologie, der Supramolekularen Chemie und Biochemie sind sie von elementarer Bedeutung. Um schwache, intermolekulare Wechselwirkungen zu beschreiben, vorauszusagen und zu verstehen, sind sie zunächst theoretisch zu erfassen. Hierzu gehören verschiedene quantenchemische Methoden, die in dieser Arbeit vorgestellt, verglichen, weiterentwickelt und schließlich auch exemplarisch auf Problemstellungen in der Chemie angewendet werden. Aufbauend auf einer Hierarchie von Methoden unterschiedlicher Genauigkeit werden sie für diese Ziele eingesetzt, ausgearbeitet und kombiniert. Berechnet wird die Elektronenstruktur, also die Verteilung und Energie von Elektronen, die im Wesentlichen die Atome zusammen halten. Da Ungenauigkeiten von der Beschreibung der Elektronenstruktur von den verwendeten Methoden abhängen, kann man die Effekte detailliert untersuchen, sie beschreiben und darauf aufbauend weiter entwickeln, um sie anschließend an verschiedenen Modellen zu testen. Die Geschwindigkeit der Berechnungen mit modernen Computern ist eine wesentliche, zu berücksichtigende Komponente, da im Allgemeinen die Genauigkeit mit der Rechenzeit exponentiell steigt, und die damit an die Grenzen der Möglichkeiten stoßen muss. Die genaueste der verwendeten Methoden basiert auf der Coupled-Cluster-Theorie, die sehr gute Voraussagen ermöglicht. Für diese wird eine sogenannte spektroskopische Genauigkeit mit Abweichungen von wenigen Wellenzahlen erzielt, was Vergleiche mit experimentellen Daten zeigen. Eine Möglichkeit zur Näherung von hochgenauen Methoden basiert auf der Dichtefunktionaltheorie: Hier wurde das „Boese-Martin for Kinetics“ (BMK)-Funktional entwickelt, dessen Funktionalform sich in vielen nach 2010 veröffentlichten Dichtefunktionalen wiederfindet. Mit Hilfe der genaueren Methoden lassen sich schließlich semiempirische Kraftfelder zur Beschreibung intermolekularer Wechselwirkungen für individuelle Systeme parametrisieren, diese benötigen weit weniger Rechenzeit als die Methoden, die auf der genauen Berechnung der Elektronenstruktur von Molekülen beruhen. Für größere Systeme lassen sich auch verschiedene Methoden kombinieren. Dabei wurden Einbettungsverfahren verfeinert und mit neuen methodischen Ansätzen vorgeschlagen. Sie verwenden sowohl die symmetrieadaptierte Störungstheorie als auch die quantenchemische Einbettung von Fragmenten in größere, quantenchemisch berechnete Systeme. Die Entwicklungen neuer Methoden beziehen ihren Wert im Wesentlichen durch deren Anwendung: In dieser Arbeit standen zunächst die Wasserstoffbrücken im Vordergrund. Sie zählen zu den stärkeren intermolekularen Wechselwirkungen und sind nach wie vor eine Herausforderung. Im Gegensatz dazu sind van-der-Waals Wechselwirkungen relativ einfach durch Kraftfelder zu beschreiben. Deshalb sind viele der heute verwendeten Methoden für Systeme, in denen Wasserstoffbrücken dominieren, vergleichsweise schlecht. Eine Untersuchung molekularer Aggregate mit Auswirkungen intermolekularer Wechselwirkungen auf die Schwingungsfrequenzen von Molekülen schließt sich an. Dabei wird auch über die sogenannte starrer-Rotor-harmonischer-Oszillator-Näherung hinausgegangen. Eine weitreichende Anwendung behandelt Adsorbate, hier die von Molekülen auf ionischen/metallischen Oberflächen. Sie können mit ähnlichen Methoden behandelt werden wie die intermolekularen Wechselwirkungen, und sind mit speziellen Einbettungsverfahren sehr genau zu beschreiben. Die Resultate dieser theoretischen Berechnungen stimulierten eine Neubewertung der bislang bekannten experimentellen Ergebnisse. Molekulare Kristalle sind ein äußerst wichtiges Forschungsgebiet. Sie werden durch schwache Wechselwirkungen zusammengehalten, die von van-der-Waals Kräften bis zu Wasserstoffbrücken reichen. Auch hier wurden neuentwickelte Methoden eingesetzt, die eine interessante, mindestens ebenso genaue Alternative zu den derzeit gängigen Methoden darstellen. Von daher sind die entwickelten Methoden, als auch deren Anwendung äußerst vielfältig. Die behandelten Berechnungen der Elektronenstruktur erstrecken sich von den sogenannten post-Hartree-Fock-Methoden über den Einsatz der Dichtefunktionaltheorie bis zu semiempirischen Kraftfeldern und deren Kombinationen. Die Anwendung reicht von einzelnen Molekülen in der Gasphase über die Adsorption auf Oberflächen bis zum molekularen Festkörper. N2 - In classical chemistry and physics, three basic categories of chemical bonds between atoms are usually distinguished, the covalent, ionic and metallic bond. However, molecules are held together by so-called weak intermolecular interactions. Despite the rather small forces working together in supramolecular chemistry, which is the chemistry beyond the molecules, they are not of minor importance. The solid state of organic material is based on such forces and in future subjects like nanotechnology or biochemistry, they are of utmost interest. Unfortunately, they are little understand For a better knowledge it is desired to theoretically characterise, to compute the interactions and finally to compare them with experimental data. Quantum mechanical methods are the choice of methods, which are introduced, developed, and compared among each other in this work. Based on a hierarchy of methods of different accuracy, they are applied, elaborated and combined. Finally, they are employed to chemical problems. Such calculations are performed on the electronic structure, i.e. the distribution and energy of the electrons, which basically keep the atoms together. Since the accuracy of the methods depends on the accurate description of the electronic structure, we can scrutinize the effects, describe and further develop it in order to test it on chemical model systems. The speed of such calculations with modern computers is very important, as the accuracy of electronic structure methods increases exponentially with computing time that is of course limited. One of the most accurate electronic structure methods is based on the coupled-cluster theory, this is considered as the “gold standard” in quantum chemistry. It yields ‘spectroscopic accuracy’ for intermolecular interactions with deviations of just a couple of wavenumbers, as comparisons with experiments demonstrate. Another possibility to approximate such high-accuracy methods is density functional theory: the functional form of the “Boese-Martin for Kinetics” functional, introduced in this work, is nowadays utilized in several newly developed functionals. With such methods, semiempirical force fields can be parametrized for the description of intermolecular interactions for certain systems. As semiempirical force fields use a fraction of the computer time needed compared to density functional theory or coupled-cluster methods, this provides a big advantage. For even larger systems, we can combine such electronic structure methods. Here, embedding methods have been refined and developed. These include symmetry adapted perturbation theory as well as the quantum mechanical embedding of fragments into larger systems which are also computed with more approximate quantum mechanical methods. The development of such novel methods is more valuable when they are applied to chemical systems and problems: In this work, we first focused on hydrogen bonds. These are relatively strong intermolecular interactions and are likewise theoretically rather challenging, whereas van-der-Waals interactions are described rather well by simple force fields. Thus, the former hydrogen bonds are still inadequately described by many modern methods. Furthermore, molecular aggregates have been investigated with special attention to their vibrational frequencies, for which we went beyond the rigid-rotor-harmonic-oscillator approximation. Another application is on adsorbates of molecules at ionic and metallic surfaces. Here, similar methods can be applied as for the intermolecular interactions, and they can be calculated to high accuracy by using special embedding techniques. The outcome of these computations stimulated a re-assessment of experimental benchmark values. Finally, the characterization of molecular crystals is an increasingly growing field of research. These crystals are held together by weak interactions, ranging from van-der-Waals interactions to hydrogen bonds. The newly developed methods were used to compute such crystals and are an alternative to the currently employed methods. Thus, the developed methods as well as their application span a wide range: from post-Hartree-Fock methods to density functional theory and semiempirical force fields and their combinations. Their application reaches from the intermolecular interactions from single gas phase molecules to surfaces up to the solid state in molecular crystals. KW - intermolekulare Wechselwirkungen KW - Dichtefunktionaltheorie KW - Post-Hartree-Fock Methoden KW - Molekülkristalle KW - Oberflächen KW - anharmonische Kraftfelder KW - intermolecular interactions KW - molecular crystals KW - surfaces KW - anharmonic force fields KW - Density Functional Theory KW - Post-Hartree Fock methods Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412867 ER - TY - THES A1 - Scheffler, Christiane T1 - Studies on plasticity within the universal pattern of growth and developmet of children and adolescents N2 - The anatomically modern human Homo sapiens sapiens is distinguished by a high adaptability in physiology, physique and behaviour in short term changing environmental conditions. Since our environmental factors are constantly changing because of anthropogenic influences, the question arises as to how far we have an impact on the human phenotype in the very sensitive growth phase in children and adolescents. Growth and development of all children and adolescents follow a universal and typical pattern. This pattern has evolved as the result of trade-offs in the 6-7 million years of human evolution. This typically human growth pattern differs from that of other long-living social primate species. It can be divided into different biological age stages, with specific biological, cognitive and socio-cultural signs. Phenotypic plasticity is the ability of an organism to react to an internal or external environmental input with a change in the form, state, and movement rate of activity (West-Eberhard 2003). The plasticity becomes visible and measurable particularly when, in addition to the normal variability of the phenotypic characteristics within a population, the manifestation of this plasticity changes within a relatively short time. The focus of the present work is the comparison of age-specific dimensional changes. The basic of the presented studies are more than 75,000 anthropometric data-sets of children and adolescence from 1980 up today and historical data of height available in scientific literature. Due to reduced daily physical activity, today's 6-18 year-olds have lower values of pelvic and elbow breadths. The observed increase in body height can be explained by hierarchies in social networks of human societies, contrary to earlier explanations (influence of nutrition, good living conditions and genetics). A shift towards a more feminine fat distribution pattern in boys and girls is parallel to the increase in chemicals in our environment that can affect the hormone system. Changing environmental conditions can have selective effects over generations so that that genotype becomes increasingly prevalent whose individuals have a higher progeny rate than other individuals in this population. Those then form the phenotype which allows optimum adaptation to the changes of the environmental conditions. Due to the slow patterns of succession and the low progeny rate (Hawkes et al. 1998), fast visible in the phenotype due to changes in the genotype of a population are unlikely to occur in the case of Homo sapiens sapiens within short time. In the data sets on which the presented investigations are based, such changes appear virtually impossible. The study periods cover 5-30 to max.100 years (based on data from the body height from historical data sets). N2 - Der anatomisch moderne Mensch Homo sapiens sapiens zeichnet sich durch eine hohe Anpassungsfähigkeit von Physiologie, Körperbau und Verhalten an sich kurzfristig ändernde Umweltbedingungen aus. Daraus ergibt sich die Frage inwieweit anthropogene Umweltbedingungen die sehr sensible Wachstumsphase von Kindern und Jugendlichen beeinflussen können. Das universelle und für den Menschen typische Wachstums- und Entwicklungsmuster mit unterschiedlichen biologisch, kognitiv und soziokulturell abgrenzbaren Entwicklungsstadien, welches sich in 6-7 Millionen Jahren menschlicher Evolution herausgebildet hat, unterscheidet sich von dem anderer langlebender sozialer Primaten. Phänotypische Plastizität ist die Fähigkeit eines Organismus sich in Form, Zustand, Aktivitätsrate oder Verhalten an unterschiedliche Umweltbedingungen anzupassen (West-Eberhard 2003). Beim Menschen wird diese Plastizität u.a. sichtbar, wenn sich anthropometrisch bestimmbare Merkmale im Vergleich von Populationen in relativ kurzer Zeit ändern. Der Schwerpunkt der vorliegenden Arbeit ist es, altersspezifische Änderung von Körpermaßen (Skelettbreiten, Körperendhöhe und Fettverteilungsmuster) aufeinanderfolgender Populationen in Abhängigkeit von neuen Umweltparametern zu vergleichen. Dem liegen ca. 75 000 anthropo-metrische Datensätzen von Kindern und Jugendlichen seit 1980 bis heute und historische Datensätze aus der Literatur zugrunde. Aufgrund verringerter alltäglicher Bewegung haben heutige 6-18-Jährige geringere Werte der Becken- und der Ellenbogenbreiten. Die beobachtete Zunahme der Körperhöhe lässt sich entgegen früherer Erklärungen (Einfluss von Ernährung, guter Lebensbedingungen und Genetik) durch Hierarchien in sozialen Netzwerken menschlicher Gesellschaften erklären. Eine Verschiebung zu einem eher weiblichen Fettverteilungsmuster bei Jungen und Mädchen findet sich parallel zur Zunahme von Chemikalien in unserer Umwelt, die das Hormonsystem beeinflussen können. Die beschriebene Plastizität des Phänotyps findet im Rahmen des genetisch manifestierten Wachstumsmusters bei Kindern und Jugendlichen statt. Epigenetische Einflüsse können nicht ausgeschlossen werden, sind aber an Körpermaßdaten per se nicht bestimmbar. Die Veränderung der analysierten Körpermaße unterstreicht, dass der Phänotyp des Menschen sich an veränderte Umweltbedingungen sehr plastisch anpassen kann. Wegen der langsamen Generationenfolge und Entwicklung des Menschen sind derartige eigentlich kurzfristige Veränderungen nur über einen Zeitraum von mindestens 5-30 Jahren zu beobachten. KW - plasticity KW - skeletal breadth measurement KW - Fat Patterning KW - secular trend KW - body height Y1 - 2018 ER - TY - THES A1 - Paasche, Hendrik T1 - Addressing uncertainty in geophysical parameter estimation Y1 - 2018 ER - TY - THES A1 - Feulner, Georg T1 - The influence of solar radiation changes on the energy budget of Earth's climate Y1 - 2017 ER - TY - THES A1 - Barbirz, Stefanie T1 - Highly specific binders for bacterial polysaccharides BT - bacteriophage tailspike proteins as research models in structural thermodynamics and bacteriophage infection Y1 - 2017 ER - TY - THES A1 - Konrad-Schmolke, Matthias T1 - Thermodynamic and geochemical modeling in metamorphic geology T1 - Thermodynamische und geochemische Modellierungen in metamorpher Geologie N2 - Quantitative thermodynamic and geochemical modeling is today applied in a variety of geological environments from the petrogenesis of igneous rocks to the oceanic realm. Thermodynamic calculations are used, for example, to get better insight into lithosphere dynamics, to constrain melting processes in crust and mantle as well as to study fluid-rock interaction. The development of thermodynamic databases and computer programs to calculate equilibrium phase diagrams have greatly advanced our ability to model geodynamic processes from subduction to orogenesis. However, a well-known problem is that despite its broad application the use and interpretation of thermodynamic models applied to natural rocks is far from straightforward. For example, chemical disequilibrium and/or unknown rock properties, such as fluid activities, complicate the application of equilibrium thermodynamics. One major aspect of the publications presented in this Habilitationsschrift are new approaches to unravel dynamic and chemical histories of rocks that include applications to chemically open system behaviour. This approach is especially important in rocks that are affected by element fractionation due to fractional crystallisation and fluid loss during dehydration reactions. Furthermore, chemically open system behaviour has also to be considered for studying fluid-rock interaction processes and for extracting information from compositionally zoned metamorphic minerals. In this Habilitationsschrift several publications are presented where I incorporate such open system behaviour in the forward models by incrementing the calculations and considering changing reacting rock compositions during metamorphism. I apply thermodynamic forward modelling incorporating the effects of element fractionation in a variety of geodynamic and geochemical applications in order to better understand lithosphere dynamics and mass transfer in solid rocks. In three of the presented publications I combine thermodynamic forward models with trace element calculations in order to enlarge the application of geochemical numerical forward modeling. In these publications a combination of thermodynamic and trace element forward modeling is used to study and quantify processes in metamorphic petrology at spatial scales from µm to km. In the thermodynamic forward models I utilize Gibbs energy minimization to quantify mineralogical changes along a reaction path of a chemically open fluid/rock system. These results are combined with mass balanced trace element calculations to determine the trace element distribution between rock and melt/fluid during the metamorphic evolution. Thus, effects of mineral reactions, fluid-rock interaction and element transport in metamorphic rocks on the trace element and isotopic composition of minerals, rocks and percolating fluids or melts can be predicted. One of the included publications shows that trace element growth zonations in metamorphic garnet porphyroblasts can be used to get crucial information about the reaction path of the investigated sample. In order to interpret the major and trace element distribution and zoning patterns in terms of the reaction history of the samples, we combined thermodynamic forward models with mass-balance rare earth element calculations. Such combined thermodynamic and mass-balance calculations of the rare earth element distribution among the modelled stable phases yielded characteristic zonation patterns in garnet that closely resemble those in the natural samples. We can show in that paper that garnet growth and trace element incorporation occurred in near thermodynamic equilibrium with matrix phases during subduction and that the rare earth element patterns in garnet exhibit distinct enrichment zones that fingerprint the minerals involved in the garnet-forming reactions. In two of the presented publications I illustrate the capacities of combined thermodynamic-geochemical modeling based on examples relevant to mass transfer in subduction zones. The first example focuses on fluid-rock interaction in and around a blueschist-facies shear zone in felsic gneisses, where fluid-induced mineral reactions and their effects on boron (B) concentrations and isotopic compositions in white mica are modeled. In the second example, fluid release from a subducted slab and associated transport of B and variations in B concentrations and isotopic compositions in liberated fluids and residual rocks are modeled. I show that, combined with experimental data on elemental partitioning and isotopic fractionation, thermodynamic forward modeling unfolds enormous capacities that are far from exhausted. In my publications presented in this Habilitationsschrift I compare the modeled results to geochemical data of natural minerals and rocks and demonstrate that the combination of thermodynamic and geochemical models enables quantification of metamorphic processes and insights into element cycling that would have been unattainable so far. Thus, the contributions to the science community presented in this Habilitatonsschrift concern the fields of petrology, geochemistry, geochronology but also ore geology that all use thermodynamic and geochemical models to solve various problems related to geo-materials. N2 - Große Teile des Planeten auf dem wir leben sind für direkte Beobachtungen unzugänglich. Dieser Umstand umfasst nicht nur eine räumliche Komponente, so wie dies z.B. in den Tiefseegräben der Ozeane oder im Erdinneren der Fall ist sondern auch eine zeitliche Komponente, da viele für uns lebenswichtigen Prozesse, wie z.B. die Verschiebung der Kontinentalplatten, in für uns kaum beobachtbaren Raten stattfinden. Daher sind sogenannte Proxies, d.h. Archive in denen Informationen über die untersuchten Prozesse aus der längeren Vergangenheit gespeichert sind für die Geowissenschaften von sehr großer Bedeutung. Der wohl bekannteste Proxy ist zur Zeit CO2, dessen Konzentration in der Atmosphäre mit der Lufttemperatur korreliert wird. Als Archive für diesen Proxy dienen in der Regel Luftblasen in den Schichten der Eisschilde. Ist der Prozess bekannt, der den Proxy mit der gesuchten Information verbindet, im Falle von CO2 ist das der weitgehend bekannte sogenannte Treibhaus-Effekt, der die Oberflächentemperatur auf der Erde kontrolliert, kann man aus den Daten der Vergangenheit auf die Zukunft rückschließen. Wichtig ist dabei natürlich, dass der Prozess, der den Proxy kontrolliert genau bekannt ist, denn sonst führen dessen Messungen und die Interpretation der Daten zu falschen Rückschlüssen. In der von mir vorgelegten Habilitationsschrift geht es um Prozesse, die bestimmte Proxies in Gesteinen kontrollieren und darum, aus den Messungen der Proxies Rückschlüsse über Prozesse machen zu können, die weit außerhalb unseres direkt beobachtbaren Raumes liegen. Bei den untersuchten Prozessen handelt es sich um die sogenannte Lithosphärendynamik, die Bewegung der Gesteine in den obersten etwa 100km unseres Planeten. Diese Dynamik und die damit verbundenen Massenbewegungen sind weder räumlich noch zeitlich gut zu beobachten, die Prozesse laufen meist in größeren Tiefen und im Maßstab von Millionen von Jahren ab, sind aber dennoch für die Menschen von größter Bedeutung, da sie für Erdbeben, Vulkanausbrüche aber auch für die Lagerstättenbildung verantwortlich sind. Bewegungen der Gesteine in der Lithosphäre gehen mit Druck- und Temperaturänderungen in den Gesteinen einher. Die Gesteine versuchen sich diesen Änderungen anzupassen, was durch chemische Veränderungen in den Mineralen aus denen die Gesteine bestehen, geschieht. Solche Veränderungen infolge der Anpassung an sich ändernde Umweltbedingungen sind uns allen bekannt: Eis schmilzt, wenn die Umgebungstemperatur über dem Gefrierpunkt liegt und die Kraft, die wir im Verbrennungsmotor aus der chemischen Reaktion zwischen Benzin und Luft gewinnen setzen wir in Bewegung um. Die Berechnung solcher chemischer Anpassungen an sich ändernde Umgebungsbedingungen erfolgt mit Hilfe der Thermodynamik. Mit thermodynamischen Modellen können wir voraussagen welche Veränderungen in einem chemischen System auftreten, wenn sich die Umgebungsbedingungen ändern. Im Bezug auf Gesteine bedeutet dies, dass wir die chemische Zusammensetzung der Minerale bei bestimmten Druck und Temperaturbedingungen voraussagen können und umgekehrt auch aus der chemischen Zusammensetzung der Minerale auf die Druck- und Temperaturbedingungen bei ihrer Entstehung rückschließen können. Einige Minerale, wie z.B. Granat oder Feldspat weisen in Gesteinen oft eine chemische Zonierung auf, d.h. wie die Jahresringe in einem Baum haben solche Minerale konzentrische Anwachssäume, die sich in ihrer chemischen Zusammensetzung unterscheiden und so ein Archiv über die erfahrenen Druck- und Temperaturveränderungen in der Geschichte des Gesteins darstellen. Zur Interpretation dieser Zonierungen bedarf es komplexer thermodynamischer Modellierungen mit denen ich mich in den hier zusammengefassten publizierten Arbeiten beschäftigt habe. In den in dieser Habilitationsschrift zusammengefassten Arbeiten arbeite ich vor allem heraus, dass sowohl die Haupt- als auch die Spurenelementzonierungen in den Mineralen Granat und Hellglimmer hervorragende Indikatoren für Elementtransportprozesse in den Gesteinen sind. In Granat können Haupt- und Seltenerdelementzonierungen herangezogen werden um Elementfraktionierungsprozesse während der Gesteinsentwicklung zu detektieren. In den Hellglimmern ist die Konzentration und isotopische Zusammensetzung von Bor indikativ für eine Fluid-Gesteins-Wechselwirkung. Ich zeige, dass mit von mir und meinen Co-Autoren entwickelten thermodynamisch-geochemischen Modellen solche Elementtransportprozesse quantifiziert werden können. In den hier vorgelegten Arbeiten verwende ich solche numerischen Modelle um Prozesse vom µm bis km Maßstab zu quantifizieren. KW - geology KW - petrology KW - thermodynamic modelling KW - Geologie KW - Petrologie KW - thermodynamische Modellierungen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-101805 ER - TY - THES A1 - Qiu, Xunlin T1 - Ferroelectrets: heterogenous polymer electrets with high electromechanical response T1 - Ferroelektrete: heterogene Polymer-Elektrete mit großen elektromechanischen Effekten N2 - Ferroelectrets are internally charged polymer foams or cavity-containing polymer-_lm systems that combine large piezoelectricity with mechanical flexibility and elastic compliance. The term “ferroelectret” was coined based on the fact that it is a space-charge electret that also shows ferroic behavior. In this thesis, comprehensive work on ferroelectrets, and in particular on their preparation, their charging, their piezoelectricity and their applications is reported. For industrial applications, ferroelectrets with well-controlled distributions or even uniform values of cavity size and cavity shape and with good thermal stability of the piezoelectricity are very desirable. Several types of such ferroelectrets are developed using techniques such as straightforward thermal lamination, sandwiching sticky templates with electret films, and screen printing. In particular, uoroethylenepropylene (FEP) _lm systems with tubular-channel openings, prepared by means of the thermal lamination technique, show piezoelectric d33 coefficients of up to 160 pC/N after charging through dielectric barrier discharges (DBDs) . For samples charged at suitable elevated temperatures, the piezoelectricity is stable at temperatures of at least 130°C. These preparation methods are easy to implement at laboratory or industrial scales, and are quite flexible in terms of material selection and cavity geometry design. Due to the uniform and well-controlled cavity structures, samples are also very suitable for fundamental studies on ferroelectrets. Charging of ferroelectrets is achieved via a series of dielectric barrier discharges (DBDs) inside the cavities. In the present work, the DBD charging process is comprehensively studied by means of optical, electrical and electro-acoustic methods. The spectrum of the transient light from the DBDs in cellular polypropylene (PP) ferroelectrets directly confirms the ionization of molecular nitrogen, and allows the determination of the electric field in the discharge. Detection of the light emission reveals not only DBDs under high applied voltage but also back discharges when the applied voltage is reduced to sufficiently low values. Back discharges are triggered by the internally deposited charges, as the breakdown inside the cavities is controlled by the sum of the applied electric field and the electric field of the deposited charges. The remanent effective polarization is determined by the breakdown strength of the gas-filled cavities. These findings form the basis of more efficient charging techniques for ferroelectrets such as charging with high-pressure air, thermal poling and charging assisted by gas exchange. With the proposed charging strategies, the charging efficiency of ferroelectrets can be enhanced significantly. After charging, the cavities can be considered as man-made macroscopic dipoles whose direction can be reversed by switching the polarity of the applied voltage. Polarization-versus-electric-field (P(E)) hysteresis loops in ferroelectrets are observed by means of an electro-acoustic method combined with dielectric resonance spectroscopy. P(E) hysteresis loops in ferrroelectrets are also obtained by more direct measurements using a modified Sawyer-Tower circuit. Hysteresis loops prove the ferroic behavior of ferroelectrets. However, repeated switching of the macroscopic dipoles involves complex physico-chemical processes. The DBD charging process generates a cold plasma with numerous active species and thus modifies the inner polymer surfaces of the cavities. Such treatments strongly affect the chargeability of the cavities. At least for cellular PP ferroelectrets, repeated DBDs in atmospheric conditions lead to considerable fatigue of the effective polarization and of the resulting piezoelectricity. The macroscopic dipoles in ferroelectrets are highly compressible, and hence the piezoelectricity is essentially the primary effect. It is found that the piezoelectric d33 coefficient is proportional to the polarization and the elastic compliance of the sample, providing hints for developing materials with higher piezoelectric sensitivity in the future. Due to their outstanding electromechanical properties, there has been constant interest in the application of ferroelectrets. The antiresonance frequencies (fp) of ferroelectrets are sensitive to the boundary conditions during measurement. A tubular-channel FEP ferroelectret is conformably attached to a self-organized minimum-energy dielectric elastomer actuator (DEA). It turns out that the antiresonance frequency (fp) of the ferroelectret film changes noticeably with the bending angle of the DEA. Therefore, the actuation of DEAs can be used to modulate the fp value of ferroelectrets, but fp can also be exploited for in-situ diagnosis and for precise control of the actuation of the DEA. Combination of DEAs and ferroelectrets opens up various new possibilities for application. N2 - Ferroelektrete sind intern geladene Polymerschäume oder Polymerfilmsysteme mit definierten Hohlräumen, die große piezoelektrische Koeffizienten mit guter mechanischer Flexibilität und hoher elastischer Nachgiebigkeit vereinen. Der Begriff „Ferroelektret“ weist darauf hin, dass es sich um einen Ladungselektret handelt, der gleichzeitig ferroisches Verhalten zeigt. In der vorliegenden Arbeit werden umfangreiche Untersuchungen an Ferroelektreten, insbesondere zu ihrer Herstellung und Aufladung, ihrer Piezoelektrizität sowie ihren Anwendungen beschrieben und diskutiert. Für industrielle Anwendungen sind Ferroelektrete mit gut kontrollierten Verteilungen oder sogar einheitlichen Werten von Hohlraumgröße und Hohlraumform und mit hoher thermischer Stabilität der Piezoelektrizität sehr wünschenswert. Mehrere Typen solcher Ferroelektrete werden unter Verwendung von thermisch laminierten Folien, von Schichtaufbauten mit aufeinander haftenden Elektretfilmen und von Siebdruck-Verfahren entwickelt. Insbesondere zeigen durch thermisches Laminieren hergestellte Kopolymer-filmsysteme aus Fluor-Ethylen-Propylen (FEP) mit röhrenförmigen Kanälen parallel zur Oberfläche nach Aufladung durch dielektrische Barrierenentladungen (DBDs) piezoelektrische d33-Koeffizienten von bis zu 160 pC/N. Bei Proben, die bei erhöhten Temperaturen aufgeladen werden, ist die Piezoelektrizität bis mindestens 130 °C stabil. Die Herstellungsverfahren sind leicht im Labor- oder im Industriemaßstab zu realisieren, und sie sind hinsichtlich der Materialauswahl und der Hohlraumgeometrie sehr flexibel verwendbar. Aufgrund der gleichmäßigen und gut kontrollierbaren Hohlraumstrukturen eignen sich solche Proben auch für Grundlagenuntersuchungen an Ferroelektreten. Das Aufladen von Ferroelektreten erfolgt über dielektrische Barrierenentladungen (DBDs) innerhalb der Hohlräume. In der vorliegenden Arbeit wird diese Polungtechnik mittels optischer, elektrischer und elektroakustischer Verfahren umfassend untersucht. Das Spektrum des transienten Lichts aus den DBDs in zellulären Polypropylen (PP)-Ferroelektreten bestätigt die Ionisierung von molekularem Stickstoff und ermöglicht die Bestimmung des lokalen elektrischen Felds in der Entladung. Die damit verbundene Lichtemission zeigt nicht nur DBDs bei hoher angelegter Spannung, sondern auch Rückentladungen, wenn die angelegte Spannung auf ausreichend niedrige Werte reduziert wird. Die Rückentladungen werden durch die deponierten Ladungen ausgelöst, da der elektrische Durchschlag in den Hohlräumen durch die Summe des von außen angelegten elektrischen Felds und des elektrischen Felds der deponierten Ladungen bestimmt wird. Die remanente Polarisation wird durch die Durchschlagsfestigkeit der gasgefüllten Hohlräume begrenzt. Diese Erkenntnisse bilden die Grundlage für effizientere Aufladungsverfahren für Ferroelektrete wie z.B. das Aufladen in Luft unter erhöhtem Druck, das thermische Polen und das Aufladen mit gezieltem Gasaustausch. Mit den vorgeschlagenen Aufladestrategien kann die Effizienz der Aufladung von Ferroelektreten deutlich gesteigert werden. Die intern geladenen Hohlräume können als makroskopische Dipole betrachtet werden, deren Orientierung durch Umschalten der Polarität der angelegten Spannung umgekehrt werden kann. Hysteresekurven für das Verhalten der elektrischen Polarisation bei Variation des elektrischen Felds, d.h. sogenannte P(E)-Hysteresekurven, können in Ferroelektreten mittels eines elektroakustischen Verfahrens in Kombination mit der dielektrischen Resonanzspektroskopie beobachtet werden. Darüber hinaus können P(E)-Hysteresekurven auch durch direkte Messung des Polarisationsstromes unter Verwendung einer modifizierten Sawyer-Tower-Schaltung erhalten werden. Solche Hystereseschleifen sind ein direkter Nachweis des ferroischen Verhaltens der Ferroelektrete. Das wiederholte Schalten der makroskopischen Dipole ist jedoch von komplexen physikalisch-chemischen Prozessen begleitet. Der DBD-Ladeprozess erzeugt ein kaltes Plasma mit zahlreichen aktiven Spezies und modifiziert dadurch die inneren Oberflächen der Hohlräume. Dies wirkt sich in erheblichem Maße auf die wiederholte Aufladbarkeit der Hohlräume aus. So führen bei zellulären PP-Ferroelektreten wiederholte DBDs unter normalen atmosphärischen Bedingungen zu einer deutlichen Reduzierung der effektiven Polarisation und der daraus resultierenden Piezoelektrizität. Die makroskopischen Dipole in Ferroelektreten sind hoch-kompressibel, daher beruht die Piezoelektrizität im Wesentlichen auf dem primären piezoelektrischen Effekt, d.h. der Veränderung der Dipolmomente. Es wurde festgestellt, dass der piezoelektrische d33-Koeffizient proportional zur elektrischen Polarisation und zur elastischen Nachgiebigkeit der Probe ist. Daraus können Folgerungen für die künftige Entwicklung von Materialien mit höherer piezoelektrischer Empfindlichkeit gezogen werden. Aufgrund ihrer hervorragenden elektromechanischen Wandler-Eigenschaften besteht ständiges Interesse an der Anwendung von Ferroelektreten. Die Antiresonanzfrequenzen (fp) von Ferroelektreten hängen von den Randbedingungen des jeweiligen Experiments ab. So wurde ein FEP-Ferroelektret mit röhrenförmigen Kanälen mit einem dielektrischen Elastomer-Aktuator (DEA) in einer sich selbst einstellenden Konfiguration minimaler Energie kombiniert. Es zeigte sich, dass sich die Antiresonanzfrequenz des Ferroelektretfilms mit dem Biegewinkel des DEA merklich ändert. Somit können DEAs zur Modulation des fp –Wertes von Ferroelektreten eingesetzt werden, und umgekehrt können piezoelektrische Antiresonanzen für die in-situ-Diagnose und für eine präzise Ansteuerung von DEAs Anwendung finden. Auf diese Weise eröffnet die Kombination von DEAs und Ferroelektreten neue Anwendungsperspektiven nicht nur in der Sensorik und der Aktorik, sondern auch zur Energiegewinnung aus der Umgebung (sogenanntes „energy harvesting“). KW - ferroelectrets KW - electromechanical transducers (sensors and actuators) KW - thin flexible and conformable films KW - piezo-, pyro- and ferroelectricity KW - Ferroelektrete KW - elektromechanische Wandler (Sensoren und Aktoren) KW - dünne, flexible und formbare Schichten KW - Piezo-, Pyro-und Ferroelektrizität Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-398425 ER - TY - THES A1 - Habicht, Klaus T1 - Neutron-resonance spin-echo spectroscopy BT - a high resolution look at dispersive excitations Y1 - 2016 ER - TY - THES A1 - Knecht, Volker T1 - Modeling Biomolecular Association Y1 - 2017 ER - TY - THES A1 - Kersten, Birgit T1 - Proteom-weite Studien zur Phosphorylierung pflanzlicher Proteine mittels Proteinmikroarrays und Bioinformatik Y1 - 2016 ER - TY - THES A1 - Dunlop, John William Chapman T1 - The physics of shape changes in biology T1 - Die Physik von Formveränderungen in der Biologie N2 - Biological materials, in addition to having remarkable physical properties, can also change shape and volume. These shape and volume changes allow organisms to form new tissue during growth and morphogenesis, as well as to repair and remodel old tissues. In addition shape or volume changes in an existing tissue can lead to useful motion or force generation (actuation) that may even still function in the dead organism, such as in the well known example of the hygroscopic opening or closing behaviour of the pine cone. Both growth and actuation of tissues are mediated, in addition to biochemical factors, by the physical constraints of the surrounding environment and the architecture of the underlying tissue. This habilitation thesis describes biophysical studies carried out over the past years on growth and swelling mediated shape changes in biological systems. These studies use a combination of theoretical and experimental tools to attempt to elucidate the physical mechanisms governing geometry controlled tissue growth and geometry constrained tissue swelling. It is hoped that in addition to helping understand fundamental processes of growth and morphogenesis, ideas stemming from such studies can also be used to design new materials for medicine and robotics. N2 - Biologische Materialien verfügen nicht nur über außergewöhnliche physikalische Eigenschaften, sie können auch ihre Form und ihr Volumen verändern. Ermöglicht werden diese Anpassungen während der Morphogenese und des Wachstums sowohl durch die Bildung neuer Gewebe, als auch die Umformung und/oder Reparatur alter Gewebe. Zusätzlich führen Form? oder Volumenänderungen in Geweben häufig zur Generierung von Kräften (Aktuation) und daraus resultierenden Bewegungen. Ein bekanntes Beispiel dafür ist der feuchtigkeitsgetriebene Öffnungs? und Schließmechanismus der Schuppen von Kiefernzapfen, die ausschließlich aus totem Gewebe ohne aktiven Metabolismus bestehen. Bestimmend für Wachstum und Aktuation sind dabei nicht nur biochemische Faktoren sondern auch physikalische Randbedingung definiert durch die Umgebung und die Gewebearchitektur. Die vorliegende Habilitationsschrift basiert auf biophysikalischen Arbeiten der Gruppe „Biomimetic Actuation and Tissue Growth“ zu wachstums? und quellungsbedingten Formänderungen biologischer Systeme. Physikalische Mechanismen von Gewebewachstum und Quellprozessen unter dem kontrollierenden Einfluss von geometrischen Randbedingungen werden mit theoretischen und experimentellen Methoden untersucht und erklärt. Die gewonnenen Ergebnisse tragen nicht nur zum Verständnis grundlegender Wachstums? und Morphogeneseprozesse bei, sie könnten zukünftig auch für die Entwicklung neuer Materialien für die Medizin und Robotik von Nutzen sein. KW - tissue growth KW - actuation KW - swelling KW - biomechanics KW - biophysics KW - Biomechanik KW - Aktuation KW - Gewebewachstum KW - Biophysik KW - Morphogenese Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96554 ER - TY - THES A1 - Amaro-Seoane, Pau T1 - Dense stellar systems and massive black holes T1 - Dichte stellare Systeme und massive Schwarze Löcher BT - sources of gravitational radiation and tidal disruptions BT - Quellen von Gravitationsstrahlung und Gezeiten-Sternzerissereignissen N2 - Gravity dictates the structure of the whole Universe and, although it is triumphantly described by the theory of General Relativity, it is the force that we least understand in nature. One of the cardinal predictions of this theory are black holes. Massive, dark objects are found in the majority of galaxies. Our own galactic center very contains such an object with a mass of about four million solar masses. Are these objects supermassive black holes (SMBHs), or do we need alternatives? The answer lies in the event horizon, the characteristic that defines a black hole. The key to probe the horizon is to model the movement of stars around a SMBH, and the interactions between them, and look for deviations from real observations. Nuclear star clusters harboring a massive, dark object with a mass of up to ~ ten million solar masses are good testbeds to probe the event horizon of the potential SMBH with stars. The channel for interactions between stars and the central MBH are the fact that (a) compact stars and stellar-mass black holes can gradually inspiral into the SMBH due to the emission of gravitational radiation, which is known as an “Extreme Mass Ratio Inspiral” (EMRI), and (b) stars can produce gases which will be accreted by the SMBH through normal stellar evolution, or by collisions and disruptions brought about by the strong central tidal field. Such processes can contribute significantly to the mass of the SMBH. These two processes involve different disciplines, which combined will provide us with detailed information about the fabric of space and time. In this habilitation I present nine articles of my recent work directly related with these topics. N2 - Die Gravitation bestimmt die Struktur des ganzen Universums und ist, obwohl sie mit großem Erfolg durch die Theorie der Allgemeinen Relativitätstheorie beschrieben wird, die am wenigsten verstandene Kraft in der Natur. Eine der grundsätzlichsten Vorhersagen dieser Theorie sind Schwarze Löcher. Massive, dunkle Objekte befinden sich in einem Großteil aller Galaxien. Das Zentrum unserer eigenen Galaxis enthält solch ein Objekt mit einer Masse von etwa vier Millionen Sonnenmassen. Sind diese Objekte supermassive Schwarze Löcher oder brauchen wir Alternativen? Die Antwort liegt im Ereignishorizont, der Eigenschaft, die ein Schwarzes Loch definiert. Der Schlüssel um den Ereignishorizont zu untersuchen ist, die Bewegungen der Sterne um eine Supermassives Schwarzes Loch zu modellieren, sowie deren Interaktionen, und nach Abweichungen von unseren Erwartungen in echten Beobachtungen zu suchen. Zentrale Sternhaufen, die ein massives, dunkles Objekt mit einer Masse bis zu ∼ zehn Millionen Sonnenmassen enthalten, sind gute Laborarien um den Ereignishorizont eines möglichen supermassiven Schwarzen Lochs mit Hilfe von Sternen zu untersuchen. Die Kanäle für mögliche Wechselwirkungen zwischen Sternen und einem zentralen Schwarzen Loch sind: (a) Kompakte Sternreste und stellare Schwarze Löcher können durch die Emission von Gravitationswellen allmählich auf spiralförmigen Orbits in das supermassive Schwarze Loch fallen, was als “Extreme Mass Ratio Inspiral” (EMRI) bezeichent wird. (b) Durch normale Sternentwicklung (Sternwinde) sowie durch Sternkollisionen oder Zerstörung von Sternen im starken zentralen Gezeitenfeld kann Gas freigesetzt werden, welches anschließend vom supermassiven Schwarzen Loch akkretiert werden kann. Solche Prozesse können wesentlich zur Masse eines Supermassiven Schwarzen Lochs beitragen. Die beiden Prozesse (a und b) beinhalten verschiedene astrophysikalische Aspekte, welche uns in ihrer Kombination mit detaillierter Information über die Beschaffenheit der Raumzeit versorgen. In dieser Habilitationsschrift präsentiere ich neun Artikel aus meiner jüngeren Forschungsarbeit, welche direkt Probleme aus diesen Themenbereichen behandeln. KW - stellar dynamics KW - massive black holes KW - gravitational waves KW - general relativity KW - Stellardynamik KW - massive Schwarze Löcher KW - Gravitationswellen KW - allgemeine Relativitätstheorie Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-95439 ER - TY - THES A1 - Balazadeh, Salma T1 - New insights into the molecular mechanisms of leaf senescence Y1 - 2015 ER - TY - THES A1 - Weckmann, Ute T1 - Die elektrische Leitfähigkeit von fossilen Störungszonen und Mobile Belts T1 - The electrical conductivity of fossil shear zones and mobile belts N2 - In der vorliegenden Arbeit werden verschiedene Experimente zur Untersuchung der elektrischen Leitfähigkeit von Sutur- und Kollisionszonen im Zusammenhang diskutiert, um die Möglichkeiten, die die moderne Magnetotellurik (MT) für das Abbilden fossiler tektonischer Systeme bietet, aufzuzeigen. Aus den neuen hochauflösenden Abbildern der elektrischen Leitfähigkeit können potentielle Gemeinsamkeiten verschiedener tektonischer Einheiten abgeleitet werden. Innerhalb der letzten Dekade haben sich durch die Weiterentwicklung der Messgeräte und der Auswerte- und Interpretationsmethoden völlig neue Perspektiven für die geodynamische Tiefensondierung ergeben. Dies wird an meinen Forschungsarbeiten deutlich, die ich im Rahmen von Projekten selbst eingeworben und am Deutschen GeoForschungsZentrum Potsdam durchgeführt habe. In Tabelle A habe ich die in dieser Arbeit berücksichtigten Experimente aufgeführt, die in den letzten Jahren entweder als Array- oder als Profilmessungen durchgeführt wurden. Für derart große Feldexperimente benötigt man ein Team von WissenschaftlerInnen, StudentInnen und technischem Personal. Das bedeutet aber auch, dass von mir betreute StudentInnen und DoktorandInnen Teilaspekte dieser Experimente in Form von Diplom-, Bachelor- und Mastersarbeiten oder Promotionsschriften verarbeitet haben. Bei anschließender Veröffentlichung der Arbeiten habe ich als Co-Autor mitgewirkt. Die beiliegenden Veröffentlichungen enthalten eine Einführung in die Methode der Magnetotellurik und gegebenenfalls die Beschreibung neu entwickelter Methoden. Eine allgemeine Darstellung der theoretischen Grundlagen der Magnetotellurik findet man zum Beispiel in Chave & Jones (2012); Simpson & Bahr (2005); Kaufman & Keller (1981); Nabighian (1987); Weaver (1994). Die Arbeit beinhaltet zudem ein Glossar, in dem einige Begriffe und Abkürzungen erklärt werden. Ich habe mich entschieden, Begriffe, für die es keine adäquate deutsche Übersetzung gibt oder die im Deutschen eine andere oder missverständliche Bedeutung bekommen, auf Englisch in der Arbeit zu belassen. Sie sind durch eine kursive Schreibweise gekennzeichnet. N2 - In this habilitation thesis, I present and discuss different experiments to study the electrical conductivity of fossil shear zones, suture and continental collision zones, particularly in view of the possibilities offered by modern magnetotellurics (MT). With new high-resolution images of the electrical conductivity, properties of different tectonic units, environments and their evolution can be derived and compared. Within the past decade, advanced data acquisition systems together with novel analysis and interpretation methods have fostered burgeoning and completely new perspectives for electromagnetic depth sounding. This is impressively reflected in my research and proposed projects which were performed at the German Research Centre for Geosciences. The overview table contains research projects and field experiments that were carried out in recent years either with an array or a profile station layout. For conducting such large field experiments, a team of scientists, students and technicians is necessary; however, this also means that parts of this research has been done by (doctoral) students supervised by myself within the framework of their PhD, Diploma, Bachelor or Masters projects. In this case I have co-authored resulting publications. Some of the publications and the introductory chapters of this thesis include an introduction to the Magnetotelluric method and describe own methodological development work. A general theoretical background of MT can be found for example in Chave et al. (2012); Simpson et al. (2005); Kaufman et al. (1981); Nabighian (1987); Weaver (1994). The work also includes a glossary of some terms and abbreviations relevant for this thesis. The thesis is written in German, although the publications are in English. I have decided to keep English terms for which there is no adequate German translation or which have a different or ambiguous meaning in German. They are indicated by italic script. KW - Magnetotellurik KW - Störungszonen KW - elektrische Leitfähigkeit KW - Mobile Belts KW - electrical conductivity KW - Magnetotellurics KW - continental collision zones KW - suture zones Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88820 ER - TY - THES A1 - Lindemann, Anke T1 - Briefe von und an Friedrich Eberhard von Rochow BT - Briefe 1759 bis 1805 : 2 Teile Y1 - 2016 ER - TY - THES A1 - Festman, Julia T1 - Language processing : Multi-methodological studies with bi- and multilingual speakers Y1 - 2015 ER - TY - THES A1 - Heistermann, Maik T1 - Advancing weather radar in hydrology BT - the role of open source software Y1 - 2015 ER - TY - THES A1 - Yuan, Jiayin T1 - Poly(Ionic Liquid)s BT - innovative polyelectrolytes for materials applications Y1 - 2015 ER - TY - THES A1 - Müller, Eva Nora T1 - The ecohydrological transfers, interactions and degradation arising from high-intensity storm events Y1 - 2015 ER - TY - THES A1 - Kocyan, Alexander T1 - Evolution within the speciose plant group of asparagales BT - insights from molecular and morphological data Y1 - 2014 ER - TY - THES A1 - Giordano, Cristina T1 - A neglected world: transition metal nitride and metal carbide based nanostructures T1 - Eine vernachlässigte Welt: Übergangsmetallnitrid- und Metallcarbid-basierte Nanostrukturen BT - novel synthesis and future perspectives BT - neuartige Synthese und Zukunftsperspektiven N2 - Potentiality of nanosized materials has been largely proved but a closer look shows that a significant percentage of this research is related to oxides and metals, while the number drastically drops for metallic ceramics, namely transition metal nitrides and metal carbides. The lack of related publications do not reflect their potential but rather the difficulties related to their synthesis as dense and defect-free structures, fundamental prerequisites for advanced mechanical applications. The present habilitation work aims to close the gap between preparation and processing, indicating novel synthetic pathways for a simpler and sustainable synthesis of transition metal nitride (MN) and carbide (MC) based nanostructures and easier processing thereafter. In spite of simplicity and reliability, the designed synthetic processes allow the production of functional materials, with the demanded size and morphology. The goal was achieved exploiting classical and less-classical precursors, ranging from common metal salts and molecules (e.g. urea, gelatin, agar, etc), to more exotic materials, such as leafs, filter paper and even wood. It was found that the choice of precursors and reaction conditions makes it possible to control chemical composition (going for instance from metal oxides to metal oxy-nitrides to metal nitrides, or from metal nitrides to metal carbides, up to quaternary systems), size (from 5 to 50 nm) and morphology (going from mere spherical nanoparticles to rod-like shapes, fibers, layers, meso-porous and hierarchical structures, etc). The nature of the mixed precursors also allows the preparation of metal nitrides/carbides based nanocomposites, thus leading to multifunctional materials (e.g. MN/MC@C, MN/MC@PILs, etc) but also allowing dispersion in liquid media. Control over composition, size and morphology is obtained with simple adjustment of the main route, but also coupling it with processes such as electrospin, aerosol spray, bio-templating, etc. Last but not least, the nature of the precursor materials also allows easy processing, including printing, coating, casting, film and thin layers preparation, etc). The designed routes are, concept-wise, similar and they all start by building up a secondary metal ion-N/C precursor network, which converts, upon heat treatment, into an intermediate “glass”. This glass stabilizes the nascent nanoparticles during their nucleation and impairs their uncontrolled growth during the heat treatment (scheme 1). This way, one of the main problems related to the synthesis of MN/MC, i.e. the need of very high temperature, could also be overcome (from up to 2000°C, for classical synthesis, down to 700°C in the present cases). The designed synthetic pathways are also conceived to allow usage of non-toxic compounds and to minimize (or even avoid) post-synthesis purification, still bringing to phase pure and well-defined (crystalline) nanoparticles. This research aids to simplify the preparation of MN/MC, making these systems now readily available in suitable amounts both for fundamental and applied science. The prepared systems have been tested (in some cases for the first time) in many different fields, e.g. battery (MnN0.43@C shown a capacity stabilized at a value of 230 mAh/g, with coulombic efficiencies close to 100%), as alternative magnetic materials (Fe3C nanoparticles were prepared with different size and therefore different magnetic behavior, superparamagnetic or ferromagnetic, showing a saturation magnetization value up to 130 emu/g, i.e. similar to the value expected for the bulk material), as filters and for the degradation of organic dyes (outmatching the performance of carbon), as catalysts (both as active phase but also as active support, leading to high turnover rate and, more interesting, to tunable selectivity). Furthermore, with this route, it was possible to prepare for the first time, to the best of our knowledge, well-defined and crystalline MnN0.43, Fe3C and Zn1.7GeN1.8O nanoparticles via bottom-up approaches. Once the synthesis of these materials can be made straightforward, any further modification, combination, manipulation, is in principle possible and new systems can be purposely conceived (e.g. hybrids, nanocomposites, ferrofluids, etc). N2 - Materialien sind wichtige Hilfsmittel, die wir täglich benutzen, um unser Leben einfacher zu machen. Materialien werden durch ihre Eigenschaften charakterisiert. Manche sind stark, manche sind elektrisch, manche magnetisch, usw. Wenn ein Stoff auf die Dimension eines Virus verkleinert wird, zeigen sich besondere Veränderungen. War das Material groß z.B. elektrisch, hat es klein diese Eigenschaft nicht mehr. Groß war es glanzlos, aber klein ist es transparent... Das heißt, dass jedes bekannte Material prinzipiell ein neues Material werden kann, nur durch die Veränderung seiner Größe. Wegen dieser besonderen Entdeckung, ist seit vielen Jahren ein Großteil der Forschung Nanopartikeln gewidmet. Dennoch werden in diesem Gebiet meistens besondere Materialien untersucht, weil ihre Anwendungsfelder weithin bekannt und wichtig sind. Meine Forschung basiert auf der Untersuchung neuer oder weniger bekannter Materialien, nämlich Übergangsmetallnitride und Übergangsmetallcarbide als Nanostrukturen. Sie sind nicht so bekannt, weil sie nicht so einfach herzustellen waren (die klassische Synthese braucht eine hohe Temperatur bis 2000°C, und oft toxische Reaktionsmittel). Trotzdem sind sie sehr interessante Materialien, weil sie auf der Grenze zwischen reinen Metallen und reinen keramischen Materialien hinsichtlich der Eigenschaften liegen. Das heißt, sie sind z.B. sehr fest, aber auch leitend, sie haben einen hohen Schmelzpunkt und sind magnetisch, etc. Durch die hier vorgestellte Forschung wird die Synthese dieser Materialien einfacher gemacht, bei niedrigen Temperaturen, mit natürlichen Produkten (z.B. Harnstoff, Gelatine, Agar, Zellulose, etc). Die Eigenschaften und Anwendungsmöglichkeiten dieser Systeme wurden auch studiert, ebenso wie die Kontrolle der Größe und Form. So konnten wir sphärische, rohrförmige, und fiber-basierte Nanostrukturen synthetisieren, aber sogar Blätter und Holz konnten als Reaktionsmittel benutzt werden und in Nitrid und Carbid umgewandelt werden, ohne die Form zu ändern. Weil die Synthese dieser Materialien direkt gemacht werden konnte, ist prinzipiell jede weitere Modifikation, Kombination und Manipulation möglich. So können jetzt neue Systeme entworfen werden. KW - metal carbides KW - metal nitrides KW - nanostructures KW - sol-gel KW - Metallnitride KW - Metallcarbide KW - Nanostrukturen KW - Sol-Gel Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-75375 ER - TY - THES A1 - Kipp, Anna Patricia T1 - Physiologische und Tumor-Assoziierte Funktionen von Selen und Selenoproteinen Y1 - 2014 ER - TY - THES A1 - Faivre, Damien T1 - Biological and biomimetic formation and organization of magnetic nanoparticles T1 - Biologische und biomimetische Bildung und Anordnung von magnetischen Nanopartikel N2 - Biological materials have ever been used by humans because of their remarkable properties. This is surprising since the materials are formed under physiological conditions and with commonplace constituents. Nature thus not only provides us with inspiration for designing new materials but also teaches us how to use soft molecules to tune interparticle and external forces to structure and assemble simple building blocks into functional entities. Magnetotactic bacteria and their chain of magnetosomes represent a striking example of such an accomplishment where a very simple living organism controls the properties of inorganics via organics at the nanometer-scale to form a single magnetic dipole that orients the cell in the Earth magnetic field lines. My group has developed a biological and a bio-inspired research based on these bacteria. My research, at the interface between chemistry, materials science, physics, and biology focuses on how biological systems synthesize, organize and use minerals. We apply the design principles to sustainably form hierarchical materials with controlled properties that can be used e.g. as magnetically directed nanodevices towards applications in sensing, actuating, and transport. In this thesis, I thus first present how magnetotactic bacteria intracellularly form magnetosomes and assemble them in chains. I developed an assay, where cells can be switched from magnetic to non-magnetic states. This enabled to study the dynamics of magnetosome and magnetosome chain formation. We found that the magnetosomes nucleate within minutes whereas chains assembles within hours. Magnetosome formation necessitates iron uptake as ferrous or ferric ions. The transport of the ions within the cell leads to the formation of a ferritin-like intermediate, which subsequently is transported and transformed within the magnetosome organelle in a ferrihydrite-like precursor. Finally, magnetite crystals nucleate and grow toward their mature dimension. In addition, I show that the magnetosome assembly displays hierarchically ordered nano- and microstructures over several levels, enabling the coordinated alignment and motility of entire populations of cells. The magnetosomes are indeed composed of structurally pure magnetite. The organelles are partly composed of proteins, which role is crucial for the properties of the magnetosomes. As an example, we showed how the protein MmsF is involved in the control of magnetosome size and morphology. We have further shown by 2D X-ray diffraction that the magnetosome particles are aligned along the same direction in the magnetosome chain. We then show how magnetic properties of the nascent magnetosome influence the alignment of the particles, and how the proteins MamJ and MamK coordinate this assembly. We propose a theoretical approach, which suggests that biological forces are more important than physical ones for the chain formation. All these studies thus show how magnetosome formation and organization are under strict biological control, which is associated with unprecedented material properties. Finally, we show that the magnetosome chain enables the cells to find their preferred oxygen conditions if the magnetic field is present. The synthetic part of this work shows how the understanding of the design principles of magnetosome formation enabled me to perform biomimetic synthesis of magnetite particles within the highly desired size range of 25 to 100 nm. Nucleation and growth of such particles are based on aggregation of iron colloids termed primary particles as imaged by cryo-high resolution TEM. I show how additives influence magnetite formation and properties. In particular, MamP, a so-called magnetochrome proteins involved in the magnetosome formation in vivo, enables the in vitro formation of magnetite nanoparticles exclusively from ferrous iron by controlling the redox state of the process. Negatively charged additives, such as MamJ, retard magnetite nucleation in vitro, probably by interacting with the iron ions. Other additives such as e.g. polyarginine can be used to control the colloidal stability of stable-single domain sized nanoparticles. Finally, I show how we can “glue” magnetic nanoparticles to form propellers that can be actuated and swim with the help of external magnetic fields. We propose a simple theory to explain the observed movement. We can use the theoretical framework to design experimental conditions to sort out the propellers depending on their size and effectively confirm this prediction experimentally. Thereby, we could image propellers with size down to 290 nm in their longer dimension, much smaller than what perform so far. N2 - Biologische Materialien wie Knochen, Muscheln und Holz wurden von den Menschen seit den ältesten Zeiten verwendet. Diese biologisch gebildeten Materialien haben bemerkenswerte Eigenschaften. Dies ist besonders überraschend, da sie unter physiologischen Bedingungen und mit alltäglichen Bestandteilen gebildet sind. Die Natur liefert uns also nicht nur mit Inspiration für die Entwicklung neuer Materialien, sondern lehrt uns auch, wie biologische Additiven benutzen werden können, um einfache synthetische Bausteine in funktionale Einheiten zu strukturieren. Magnetotaktischen Bakterien und ihre Kette von Magnetosomen sind ein Beispiel, wo einfache Lebewesen die Eigenschaften von anorganischen Materialien steuern, um sich entlang den magnetischen Feldlinien der Erde zu orientieren. Die von den Bakterien gebildeten Magnetosomen sind von besonderem Interesse, da mit magnetischen Eisenoxid-Nanopartikeln in den letzten zehn Jahren einer Vielzahl von Bio-und nanotechnologischen Anwendungen entwickelt worden sind. In dieser Arbeit stelle ich eine biologische und eine bio-inspirierte Forschung auf der Grundlage der magnetotaktischen Bakterien vor. Diese Forschung verbindet die neuesten Entwicklungen von Nanotechnik in der chemischen Wissenschaft, die neuesten Fortschritte der Molekularbiologie zusammen mit modernen Messverfahren. Mein Forschungsschwerpunkt liegt somit an der Schnittstelle zwischen Chemie, Materialwissenschaften, Physik und Biologie. Ich will verstehen, wie biologische Systeme Materialien synthetisieren und organisieren, um Design-Prinzipien zu extrahieren, damit hierarchischen Materialien mit kontrollierten Eigenschaften nachhaltig gebildet werden. KW - magnetotaktische Bakterien KW - Magnetit Nanopartikel KW - Biomineralisation KW - magnetite KW - nanoparticle KW - biomineralization KW - magnetosome KW - magnetotactic bacteria Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72022 ER - TY - THES A1 - Kröner, Dominik T1 - Analysis and control of light-induced processes in molecules: Electron and nuclear quantum dynamics for aspects of stereoisomerism and spectroscopy T1 - Analyse und Kontrolle lichtinduzierter Prozesse in Molekülen: Elektronen- und Kernquantendynamik für Aspekte der Stereoisomerie und Spektroskopie N2 - The habilitation thesis covers theoretical investigations on light-induced processes in molecules. The study is focussed on changes of the molecular electronic structure and geometry, caused either by photoexcitation in the event of a spectroscopic analysis, or by a selective control with shaped laser pulses. The applied and developed methods are predominantly based on quantum chemistry as well as on electron and nuclear quantum dynamics, and in parts on molecular dynamics. The studied scientific problems deal with stereoisomerism and the question of how to either switch or distinguish chiral molecules using laser pulses, and with the essentials for the simulation of the spectroscopic response of biochromophores, in order to unravel their photophysics. The accomplished findings not only explain experimental results and extend existing approaches, but also contribute significantly to the basic understanding of the investigated light-driven molecular processes. The main achievements can be divided in three parts: First, a quantum theory for an enantio- and diastereoselective or, in general, stereoselective laser pulse control was developed and successfully applied to influence the chirality of molecular switches. The proposed axially chiral molecules possess different numbers of "switchable" stable chiral conformations, with one particular switch featuring even a true achiral "off"-state which allows to enantioselectively "turn on" its chirality. Furthermore, surface mounted chiral molecular switches with several well-defined orientations were treated, where a newly devised highly flexible stochastic pulse optimization technique provides high stereoselectivity and efficiency at the same time, even for coupled chirality-changing degrees of freedom. Despite the model character of these studies, the proposed types of chiral molecular switches and, all the more, the developed basic concepts are generally applicable to design laser pulse controlled catalysts for asymmetric synthesis, or to achieve selective changes in the chirality of liquid crystals or in chiroptical nanodevices, implementable in information processing or as data storage. Second, laser-driven electron wavepacket dynamics based on ab initio calculations, namely time-dependent configuration interaction, was extended by the explicit inclusion of magnetic field-magnetic dipole interactions for the simulation of the qualitative and quantitative distinction of enantiomers in mass spectrometry by means of circularly polarized ultrashort laser pulses. The developed approach not only allows to explain the origin of the experimentally observed influence of the pulse duration on the detected circular dichroism in the ion yield, but also to predict laser pulse parameters for an optimal distinction of enantiomers by ultrashort shaped laser pulses. Moreover, these investigations in combination with the previous ones provide a fundamental understanding of the relevance of electric and magnetic interactions between linearly or non-linearly polarized laser pulses and (pro-)chiral molecules for either control by enantioselective excitation or distinction by enantiospecific excitation. Third, for selected light-sensitive biological systems of central importance, like e.g. antenna complexes of photosynthesis, simulations of processes which take place during and after photoexcitation of their chromophores were performed, in order to explain experimental (spectroscopic) findings as well as to understand the underlying photophysical and photochemical principles. In particular, aspects of normal mode mixing due to geometrical changes upon photoexcitation and their impact on (time-dependent) vibronic and resonance Raman spectra, as well as on intramolecular energy redistribution were addressed. In order to explain unresolved experimental findings, a simulation program for the calculation of vibronic and resonance Raman spectra, accounting for changes in both vibrational frequencies and normal modes, was created based on a time-dependent formalism. In addition, the influence of the biochemical environment on the electronic structure of the chromophores was studied by electrostatic interactions and mechanical embedding using hybrid quantum-classical methods. Environmental effects were found to be of importance, in particular, for the excitonic coupling of chromophores in light-harvesting complex II. Although the simulations for such highly complex systems are still restricted by various approximations, the improved approaches and obtained results have proven to be important contributions for a better understanding of light-induced processes in biosystems which also adds to efforts of their artificial reproduction. N2 - Die Habilitationsschrift behandelt theoretische Untersuchungen von durch Licht ausgelösten Prozessen in Molekülen. Der Schwerpunkt liegt dabei auf Veränderungen in der Elektronenstruktur und der Geometrie der Moleküle, die durch Bestrahlung mit Licht entweder bei einer spektroskopischen Untersuchung oder bei gezielter Kontrolle durch geformte Laserpulse herbeigeführt werden. Um die dabei auftretende Elektronen- und Kerndynamik zu simulieren, wurden vornehmlich quantentheoretische Methoden eingesetzt und weiterentwickelt. Die wissenschaftlichen Fragestellungen beschäftigen sich mit dem gezielten Verändern und dem Erkennen der räumlichen Struktur von Molekülen ohne Drehspiegelachse, der sog. molekularen Chiralität, sowie mit durch Licht eingeleiteten Prozessen in biologisch relevanten Pigmenten auf sehr kurzen Zeitskalen. Die entwickelten Ansätze und gewonnenen Erkenntnisse lassen sich drei Haupterfolge unterteilen: Erstens gelang die Entwicklung einer generellen Kontrolltheorie für das Ein- und Umschalten von molekularer Chiralität mit geformten Laserpulsen. Dabei wird die räumliche Struktur der vorgeschlagenen molekularen Schalter zwischen ihren stabilen sog. stereoisomeren Formen selektiv geändert, was sich auf ihre optischen und chemischen Eigenschaften auswirkt. Für komplexere Bedingungen, wie z.B. auf einer Oberfläche verankerten molekularen Schaltern verschiedener Orientierung, wurde eine neue Pulsoptimierungsmethode basierend auf Wahrscheinlichkeiten und Statistik entwickelt. Solche laserpulskontrollierten chiralen molekularen Schalter hofft man u.a. in der Nanotechnologie zum Einsatz zu bringen, wo sie z.B. als Informationsspeicher dienen könnten. Zweitens konnte geklärt werden, welche die wesentlichen Einflüsse sind, die das Erkennen von sog. Enantiomeren, das sind spiegelbildliche Moleküle von entgegengesetzter Chiralität, nach Ionisierung durch ultrakurze zirkular polarisierte Laserpulse ermöglichen. Diese Form des sog. Zirkulardichroismus in der Ionenausbeute erlaubt die quantitative und qualitative Unterscheidung von Enantiomeren in der Massenspektrometrie. Durch Simulation der Elektronendynamik während der Laseranregung konnte u.a. erstmals gezeigt werden, dass neben der Zirkularpolarisation der Laserpulse vor allem die schwachen magnetischen Wechselwirkungen für die Unterscheidung entscheidend sind. Drittens wurden die Spektren von in der Natur vorkommenden Pigmenten simuliert, welche u.a. an wichtigen biologischen Funktionen, wie dem Sammeln von Sonnenenergie für die Photosynthese, beteiligt sind. Die Lichtanregung führt dabei zu einer Veränderung der Elektronenstruktur und Geometrie der Pigmente, wobei letzteres wichtige Konsequenzen für die Verteilung der Energie auf die spektroskopisch beobachteten Molekülschwingungen mit sich bringen. Auch der wichtige Einfluss der biochemischen Umgebung auf die Elektronenstruktur der Pigmente bzw. den Energietransfer zwischen solchen wurde untersucht. Neben der Klärung experimenteller Ergebnisse ermöglichen die Untersuchungen neue Einblicke in die fundamentalen Prozesse kurz nach der Lichtanregung -- Erkenntnisse, die auch für die technische Nachahmung der biologischen Funktionen von Bedeutung sein können. KW - Elektronendynamik KW - chirale Schalter KW - chirale Erkennung KW - Biochromophore KW - Laserpulskontrolle KW - electron dynamics KW - chiral switches KW - chiral recognition KW - biochromophores KW - laser pulse control Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-70477 ER - TY - THES A1 - Titirici, Maria-Magdalena T1 - Hydrothermal carbonisation T1 - Hydrothermale Karbonisierung BT - A sustainable alternative to versatile carbon materials BT - Eine nachhaltige Alternative zu Kohle N2 - The world’s appetite for energy is producing growing quantities of CO2, a pollutant that contributes to the warming of the planet and which currently cannot be removed or stored in any significant way. Other natural reserves are also being devoured at alarming rates and current assessments suggest that we will need to identify alternative sources in the near future. With the aid of materials chemistry it should be possible to create a world in which energy use needs not be limited and where usable energy can be produced and stored wherever it is needed, where we can minimize and remediate emissions as new consumer products are created, whilst healing the planet and preventing further disruptive and harmful depletion of valuable mineral assets. In achieving these aims, the creation of new and very importantly greener industries and new sustainable pathways are crucial. In all of the aforementioned applications, new materials based on carbon, ideally produced via inexpensive, low energy consumption methods, using renewable resources as precursors, with flexible morphologies, pore structures and functionalities, are increasingly viewed as ideal candidates to fulfill these goals. The resulting materials should be a feasible solution for the efficient storage of energy and gases. At the end of life, such materials ideally must act to improve soil quality and to act as potential CO2 storage sinks. This is exactly the subject of this habilitation thesis: an alternative technology to produce carbon materials from biomass in water using low carbonisation temperatures and self-generated pressures. This technology is called hydrothermal carbonisation. It has been developed during the past five years by a group of young and talented researchers working under the supervision of Dr. Titirici at the Max-Planck Institute of Colloids and Interfaces and it is now a well-recognised methodology to produce carbon materials with important application in our daily lives. These applications include electrodes for portable electronic devices, filters for water purification, catalysts for the production of important chemicals as well as drug delivery systems and sensors. N2 - Der stets wachsende globale Energiebedarf führt zu immer weiter zunehmenden Emissionen von Kohlenstoffdioxid, einem umweltschädlichen Gas, das als eines der Hauptprobleme im weltweiten Klimawandel darstellt. Bislang ist es jedoch nicht möglich, dieses Kohlenstoffdioxid in sinnvoller Weise zu verwerten oder einzulagern. Zudem existieren weitere Probleme in der globalen Energieversorgung, da viele natürlich vorkommende Rohstoffe sehr schnell ausgebeutet werden, so dass in naher Zukunft dringend alternative Energiequellen gefunden werden müssen, um den aktuellen Problemen zu begegnen. Der Wissenschaftszweig der Materialchemie zielt in diesem Zusammenhang darauf ab, dazu beizutragen, die bestehende Energieinfrastruktur nachhaltig zu verändern. Dabei stehen verschiedene Aspekte im Vordergrund: Energie sollte in allen gewünschten Mengen jederzeit verfügbar und auch speicherbar sein. Zudem sollte ihre Erzeugung ohne umweltschädliche Abfallprodukte ablaufen. Tiefgreifende Eingriffe in die Umwelt, v.a. durch den übermäßigen Abbau von Rohstoffen, sollte nicht mehr erforderlich sein. Auf diese Weise können die Folgen des bisherigen Klimawandels eingedämmt werden und neue Schäden an der Umwelt vermieden werden. Neue, grüne Industrie- und Energieprozesse schützen hier also nachhaltig den Planeten. Bei der Forschung an nachhaltigen Formen der Energieversorgung beschäftigen sich Materialchemiker in mannigfaltiger Weise mit Kohlenstoffmaterialien. Diese sollten idealerweise kostengünstig und ohne hohen Energiebedarf produziert werden können. Am vielversprechendsten sind Materialien, die eine flexibel gestaltbare Morphologie besitzen, d.h. die besondere strukturelle Eigenschaften besitzen, wie z.B. Porosität oder chemisch veränderte und damit funktionale Oberflächen. Idealerweise sollten solche neu entwickelten Materialien nicht nur als Speicher von Energie oder Energieträgern dienen, sondern auch nach ihrer Lebensdauer als funktionales Material zur Verbesserung der Bodenqualität eingesetzt werden können und dort noch weiter als potentielle Senke für Kohlenstoffdioxid dienen können. Die zuvor beschriebenen Themen und Probleme stellen den Gegenstand der vorliegenden Habilitationsschrift dar: die Entwicklung einer alternativen Methode zur Herstellung von Kohlenstoffmaterialien aus Biomasse in Wasser bei geringen Temperaturen. Dabei handelt es sich um die sogenannte hydrothermale Karbonisierung, die in den letzten fünf Jahren von einer Gruppe junger, talentierter Wissenschaftler unter der Anleitung von Frau Dr. Titirici am Max-Planck-Institut für Kolloid- und Grenzflächenforschung erarbeitet und weiterentwickelt wurde zu einer heutzutage anerkannten und verbreiteten Methode. Zudem wurden die über diesen Weg gewonnenen Materialien erfolgreich in zahlreichen, für den Alltag wichtigen Anwendungen eingesetzt, so z.B. als Elektroden in tragbaren elektronischen Geräten, als Filtermaterialien für die Aufreinigung kontaminierten Wassers, als Katalysatoren für wichtige chemische Reaktionen, als Trägermaterial für Arzneimittel und als Sensoren. KW - Hydrothermale Karbonisierung KW - Kohlenstoffe auf Biomasse-Basis KW - hydrothermal carbonization KW - biomass-derived carbons Y1 - 2013 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-66885 ER - TY - THES A1 - Vocks, Christian T1 - Electron kinetic processes in the solar corona and wind T1 - Elektronenkinetische Prozesse in der Korona der Sonne und im Sonnenwind N2 - The Sun is surrounded by a 10^6 K hot atmosphere, the corona. The corona and the solar wind are fully ionized, and therefore in the plasma state. Magnetic fields play an important role in a plasma, since they bind electrically charged particles to their field lines. EUV spectroscopes, like the SUMER instrument on-board the SOHO spacecraft, reveal a preferred heating of coronal ions and strong temperature anisotropies. Velocity distributions of electrons can be measured directly in the solar wind, e.g. with the 3DPlasma instrument on-board the WIND satellite. They show a thermal core, an anisotropic suprathermal halo, and an anti-solar, magnetic-field-aligned, beam or "strahl". For an understanding of the physical processes in the corona, an adequate description of the plasma is needed. Magnetohydrodynamics (MHD) treats the plasma simply as an electrically conductive fluid. Multi-fluid models consider e.g. protons and electrons as separate fluids. They enable a description of many macroscopic plasma processes. However, fluid models are based on the assumption of a plasma near thermodynamic equilibrium. But the solar corona is far away from this. Furthermore, fluid models cannot describe processes like the interaction with electromagnetic waves on a microscopic scale. Kinetic models, which are based on particle velocity distributions, do not show these limitations, and are therefore well-suited for an explanation of the observations listed above. For the simplest kinetic models, the mirror force in the interplanetary magnetic field focuses solar wind electrons into an extremely narrow beam, which is contradicted by observations. Therefore, a scattering mechanism must exist that counteracts the mirror force. In this thesis, a kinetic model for electrons in the solar corona and wind is presented that provides electron scattering by resonant interaction with whistler waves. The kinetic model reproduces the observed components of solar wind electron distributions, i.e. core, halo, and a "strahl" with finite width. But the model is not only applicable on the quiet Sun. The propagation of energetic electrons from a solar flare is studied, and it is found that scattering in the direction of propagation and energy diffusion influence the arrival times of flare electrons at Earth approximately to the same degree. In the corona, the interaction of electrons with whistler waves does not only lead to scattering, but also to the formation of a suprathermal halo, as it is observed in interplanetary space. This effect is studied both for the solar wind as well as the closed volume of a coronal magnetic loop. The result is of fundamental importance for solar-stellar relations. The quiet solar corona always produces suprathermal electrons. This process is closely related to coronal heating, and can therefore be expected in any hot stellar corona. In the second part of this thesis it is detailed how to calculate growth or damping rates of plasma waves from electron velocity distributions. The emission and propagation of electron cyclotron waves in the quiet solar corona, and that of whistler waves during solar flares, is studied. The latter can be observed as so-called fiber bursts in dynamic radio spectra, and the results are in good agreement with observed bursts. N2 - Die Sonne ist von einer 10^6 K heißen Atmosphäre, der Korona, umgeben. Sie ist ebenso wie der Sonnenwind vollständig ionisiert, also ein Plasma. Magnetfelder spielen in einem Plasma eine wichtige Rolle, da sie elektrisch geladene Teilchen an ihre Feldlinien binden. EUV-Spektroskope, wie SUMER auf der Raumsonde SOHO, zeigen eine bevorzugte Heizung koronaler Ionen sowie starke Temperaturanisotropien. Geschwindigkeitsverteilung von Elektronen können im Sonnenwind direkt gemessen werden, z.B. mit dem 3DPlasma Instrument auf dem Satelliten WIND. Sie weisen einen thermischen Kern, einen isotropen suprathermischen Halo, sowie einen anti-solaren, magnetfeldparallelen Strahl auf. Zum Verständnis der physikalischen Prozesse in der Korona wird eine geeignete Beschreibung des Plasms benötigt. Die Magnetohydrodynamik (MHD) betrachtet das Plasma einfach als elektrisch leitfähige Flüssigkeit. Mehrflüssigkeitsmodelle behandeln z.B. Protonen und Elektronen als getrennte Fluide. Damit lassen sich viele makroskopische Vorgänge beschreiben. Fluidmodelle basieren aber auf der Annahme eines Plasmas nahe am thermodynamischen Gleichgewicht. Doch die Korona ist weit davon entfernt. Ferner ist es mit Fluidmodellen nicht möglich, Prozesse wie die Wechselwirkung mit elektromagnetischen Wellen mikroskopisch zu beschreiben. Kinetische Modelle, die Geschwindigkeitsverteilungen beschreiben, haben diese Einschränkungen nicht und sind deshalb geeignet, die oben genannten Messungen zu erklären. Bei den einfachsten Modellen bündelt die Spiegelkraft im interplanetaren Magnetfeld die Elektronen des Sonnenwinds in einen extrem engen Strahl, im Widerspruch zur Beobachtung. Daher muss es einen Streuprozess geben, der dem entgegenwirkt. In der vorliegenden Arbeit wird ein kinetisches Modell für Elektronen in der Korona und im Sonnenwind präsentiert, bei dem die Elektronen durch resonante Wechselwirkung mit Whistler-Wellen gestreut werden. Das kinetische Modell reproduziert die beobachteten Bestandteile von Elektronenverteilungen im Sonnenwind, d.h. Kern, Halo und einen Strahl endlicher Breite. Doch es ist nicht nur auf die ruhige Sonne anwendbar. Die Ausbreitung energetischer Elektronen eines solaren Flares wird untersucht und dabei festgestellt, dass Streuung in Ausbreitungsrichtung und Diffusion in Energie die Ankunftszeiten von Flare-Elektronen bei der Erde in etwa gleichem Maße beeinflussen. Die Wechselwirkung von Elektronen mit Whistlern führt in der Korona nicht nur zu Streuung, sondern auch zur Erzeugung eines suprathermischen Halos, wie er im interplanetaren Raum gemessen wird. Dieser Effekt wird sowohl im Sonnenwind als auch in einem geschlossenen koronalen Magnetfeldbogen untersucht. Das Ergebnis ist von fundamentaler Bedeutung für solar-stellare Beziehungen. Die ruhige Korona erzeugt stets suprathermische Elektronen. Dieser Prozeß ist eng mit der Koronaheizung verbunden, und daher in jeder heißen stellaren Korona zu erwarten. Im zweiten Teil der Arbeit wird beschrieben, wie sich aus der Geschwindigkeitsverteilung der Elektronen die Dämpfung oder Anregung von Plasmawellen berechnen lässt. Die Erzeugung und Ausbreitung von Elektronenzyklotronwellen in der ruhigen Korona und von Whistlern während solarer Flares wird untersucht. Letztere sind als sogenannte fiber bursts in dynamischen Radiospektren beobachtbar, und die Ergebnisse stimmen gut mit beobachteten Bursts überein. KW - Sonnenkorona KW - Plasmaphysik KW - kinetische Theorie KW - Elektronen-Geschwindigkeitsverteilungen KW - Whistler-Wellen KW - Solar corona KW - plasma physics KW - kinetic theory KW - electron velocity distributions KW - whistler waves Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-65259 ER - TY - THES A1 - Pusch, Martin T1 - Horizontale und vertikale Konnektivität in Fließgewässern und Seen : ökologische Funktionen und anthropogene Überformung T1 - Horizontal and vertical connectivity in rivers and lakes : ecological functions and anthropogenic transformation N2 - Gewässer werden traditionellerweise als abgeschlossene Ökosysteme gesehen, und insbeson¬dere das Zirkulieren von Wasser und Nährstoffen im Pelagial von Seen wird als Beispiel dafür angeführt. Allerdings wurden in der jüngeren Vergangenheit wichtige Verknüpfungen des Freiwasserkörpers von Gewässern aufgezeigt, die einerseits mit dem Benthal und andererseits mit dem Litoral, der terrestrischen Uferzone und ihrem Einzugsgebiet bestehen. Dadurch hat in den vergangen Jahren die horizontale und vertikale Konnektivität der Gewässerökosysteme erhöhtes wissenschaftliches Interesse auf sich gezogen, und damit auch die ökologischen Funktionen des Gewässergrunds (Benthal) und der Uferzonen (Litoral). Aus der neu beschriebenen Konnektivität innerhalb und zwischen diesen Lebensräumen ergeben sich weitreichende Konsequenzen für unser Bild von der Funktionalität der Gewässer. In der vorliegenden Habilitationsschrift wird am Beispiel von Fließgewässern und Seen des nordostdeutschen Flachlandes eine Reihe von internen und externen funktionalen Verknüpfungen in den horizontalen und vertikalen räumlichen Dimensionen aufgezeigt. Die zugrunde liegenden Untersuchungen umfassten zumeist sowohl abiotische als auch biologische Variablen, und umfassten thematisch, methodisch und hinsichtlich der Untersuchungsgewässer ein breites Spektrum. Dabei wurden in Labor- und Feldexperimenten sowie durch quantitative Feldmes¬sungen ökologischer Schlüsselprozesse wie Nährstoffretention, Kohlenstoffumsatz, extrazellu¬läre Enzymaktivität und Ressourcenweitergabe in Nahrungsnetzen (mittels Stabilisotopen¬methode) untersucht. In Bezug auf Fließgewässer wurden dadurch wesentliche Erkenntnisse hinsichtlich der Wirkung einer durch Konnekticität geprägten Hydromorphologie auf die die aquatische Biodiversität und die benthisch-pelagische Kopplung erbracht, die wiederum einen Schlüsselprozess darstellt für die Retention von in der fließenden Welle transportierten Stoffen, und damit letztlich für die Produktivität eines Flussabschnitts. Das Litoral von Seen wurde in Mitteleuropa jahrzehntelang kaum untersucht, so dass die durchgeführten Untersuchungen zur Gemeinschaftsstruktur, Habitatpräferenzen und Nahrungs¬netzverknüpfungen des eulitoralen Makrozoobenthos grundlegend neue Erkenntnisse erbrach¬ten, die auch unmittelbar in Ansätze zur ökologischen Bewertung von Seeufern gemäß EG-Wasserrahmenrichtlinie eingehen. Es konnte somit gezeigt werden, dass die Intensität sowohl die internen als auch der externen ökologischen Konnektivität durch die Hydrologie und Morphologie der Gewässer sowie durch die Verfügbarkeit von Nährstoffen wesentlich beeinflusst wird, die auf diese Weise vielfach die ökologische Funktionalität der Gewässer prägen. Dabei trägt die vertikale oder horizontale Konnektivität zur Stabilisierung der beteiligten Ökosysteme bei, indem sie den Austausch ermöglicht von Pflanzennährstoffen, von Biomasse sowie von migrierenden Organismen, wodurch Phasen des Ressourcenmangels überbrückt werden. Diese Ergebnisse können im Rahmen der Bewirtschaftung von Gewässern dahingehend genutzt werden, dass die Gewährleistung horizontaler und vertikaler Konnektivität in der Regel mit räumlich komplexeren, diverseren, zeitlich und strukturell resilienteren sowie leistungsfähi¬geren Ökosystemen einhergeht, die somit intensiver und sicherer nachhaltig genutzt werden können. Die Nutzung einer kleinen Auswahl von Ökosystemleistungen der Flüsse und Seen durch den Menschen hat oftmals zu einer starken Reduktion der ökologischen Konnektivität, und in der Folge zu starken Verlusten bei anderen Ökosystemleistungen geführt. Die Ergebnisse der dargestellten Forschungen zeigen auch, dass die Entwicklung und Implementierung von Strategien zum integrierten Management von komplexen sozial-ökologischen Systemen wesentlich unterstützt werden kann, wenn die horizontale und vertikale Konnektivität gezielt entwickelt wird. N2 - Surface waters are seen traditionally as closed ecosystems, and the recirculation of water and nutrients in the pelagic zone of lakes is cited as an example fort his. However, recently important linkages have been demonstrated between the pelagic zone on one side, and the benthic and the littoral zones, the terrestrial shore area and the catchment on the other side. Therby, the horizontal and vertical connectivity of aquatic ecosystems has attracted intense scientific interest, and together with this the ecological functions of the bottom zone (benthic zone) and of the shore zone (littoral zone), too. From this newly described connectivity far-reaching consequences arise for our picture of the functionality of surface waters. In this habilitation thesis a number of internal and external functional linkages are depicted in the horizontal and vertical spatial dimensions, as exemplified by running waters and lakes of the north-east German lowlands. The underlying studies mostly comprised both abiotic and biotic variables, and a broad range of topics, methods and studied surface waters. Thereby, experiments in the lab and the field, as well as quantitative field measurements were used to investigate ecological key processes as nutrient retention, carbon dynamics, extracellular enzyme activity, and resource transfer in food webs (using stabile isotope technique). In respect to running waters this resulted in substantial insights into the effects of a hydromorphology exhibiting intense connectivity on aquatic biodiversity and benthic-pelagic coupling, which represents a key process for the retention of transported matter, and thus for the productivity of a river section. The littoral zone of lakes has hardly been studied in Central Europe for several decades. Thus, the results on community structure, habitat preference and food web linkages of eulittoral macrozoobenthos enabled fundamentally new insights, which can directly be used within approaches for the ecological assessment of lake shores according to the EU Water Framework Directive. Research results show that the development and implementation of strategies for an integrated management of complex social-ecological systems may be substantially underpinned by targeted development of horizontal and vertical connectivity. KW - Limnology KW - Aquatic Ecology KW - Connectivity KW - Lake KW - River KW - Limnologie KW - Gewässerökologie KW - Konnektivität KW - See KW - Fluss Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-63713 ER - TY - THES A1 - Bach, Stefan T1 - Empirical studies on tax distribution and tax reform in Germany T1 - Empirische Studien zu Steuerlastverteilung und Steuerreformen in Deutschland N2 - This professorial dissertation thesis collects several empirical studies on tax distribution and tax reform in Germany. Chapter 2 deals with two studies on effective income taxation, based on representative micro data sets from tax statistics. The first study analyses the effective income taxation at the individual level, in particular with respect to the top incomes. It is based on an integrated micro data file of household survey data and income tax statistics, which captures the entire income distribution up to the very top. Despite substantial tax base erosion and reductions of top tax rates, the German personal income tax has remained effectively progressive. The distribution of the tax burden is highly concentrated and the German economic elite is still taxed relatively heavily, even though the effective tax rate for this group has significantly declined. The second study of Chapter 2 highlights the effective income taxation of functional income sources, such as labor income, business and capital income, etc. Using income tax micro data and microsimulation models, we allocate the individual income tax liability to the respective income sources, according to different apportionment schemes accounting for losses. We find that the choice of the apportionment scheme markedly affects the tax shares of income sources and implicit tax rates, in particular those of capital income. Income types without significant losses such as labor income or transfer incomes show higher tax shares and implicit tax rates if we account for losses. The opposite is true for capital income, in particular for income from renting and leasing. Chapter 3 presents two studies on business taxation, based on representative micro data sets from tax statistics and the microsimulation model BizTax. The first part provides a study on fundamental reform options for the German local business tax. We find that today’s high concentration of local business tax revenues on corporations with high profits decreases if the tax base is broadened by integrating more taxpayers and by including more elements of business value added. The reform scenarios with a broader tax base distribute the local business tax revenue per capita more equally across regional categories. The second study of Chapter 3 discusses the macroeconomic performance of business taxation against the background of corporate income. A comparison of the tax base reported in tax statistics with the macroeconomic corporate income from national accounts gives hints to considerable tax base erosion. The average implicit tax rate on corporate income was around 20 percent since 2001, and thus falling considerably short of statutory tax rates and effective tax rates discussed in the literature. For lack of detailed accounting data it is hard to give precise reasons for the presumptive tax base erosion. Chapter 4 deals with several assessment studies on the ecological tax reform implemented in Germany as of 1999. First, we describe the scientific, ideological, and political background of the ecological tax reform. Further, we present the main findings of a first systematic impact analysis. We employ two macroeconomic models, an econometric input-output model and a recursive-dynamic computable general equilibrium (CGE) model. Both models show that Germany’s ecological tax reform helps to reduce energy consumption and CO2 emissions without having a substantial adverse effect on overall economic growth. It could have a slightly positive effect on employment. The reform’s impact on the business sector and the effects of special provisions granted to agriculture and the goods and materials sectors are outlined in a further study. The special provisions avoid higher tax burdens on the energy-intensive production. However, they widely reduce the marginal tax rates and thus the incentives to energy saving. Though the reform of special provisions 2003 increased the overall tax burden of the energy-intensive industry, the enlarged eligibility for tax rebates neutralizes the ecologic incentives. Based on the Income and Consumption Survey of 2003, we have analyzed the distributional impact of the ecological tax reform. The increased energy taxes show a clear regressive impact relative to disposable income. Families with children face a higher tax burden relative to household income. The reduction of pension contributions and the automatic adjustment of social security transfers widely mitigate this regressive impact. Households with low income or with many children nevertheless bear a slight increase in tax burden. Refunding the eco tax revenue by an eco bonus would make the reform clearly progressive. N2 - Diese Habilitationsschrift fasst verschiedene empirische Studien zu Steuerlastverteilung und Steuerreformen in Deutschland zusammen. In Kapitel 2 werden zwei Studien zur effektiven Einkommensteuerbelastung dargestellt. Die erste Studie analysiert die effektive Einkommensteuerbelastung auf der persönlichen Ebene, insbesondere bei Personen mit hohen Einkommen. Grundlage der Analyse ist ein integrierter Mikrodatensatz aus Haushaltserhebungen und Steuerstatistik, der die vollständige Einkommensverteilung zuverlässig abbildet. Trotz erheblicher Steuerbegünstigungen und Senkungen der Spitzensteuersätze wirkt die deutsche Einkommensteuer klar progressiv, auch wenn die Belastung der Top-Verdiener in den letzten Jahren deutlich gesunken ist. Die zweite Studie in Kapitel 2 analysiert die effektive Einkommensteuerbelastung von verschiedenen funktionalen Einkommensquellen. Auf Grundlage von steuerstatistischen Mikrodaten und Mikrosimulationsmodellen analysieren wir die Anteile der Einkunftsarten an der Steuerbelastung für verschiedene Aufteilungsregeln unter Berücksichtigung von Verlusten. Die Wahl der Aufteilungsregel wirkt sich spürbar auf den Steueranteil und die impliziten Steuersätze von Einkommensarten aus, wenn Verluste berücksichtigt werden, vor allem bei den Vermögenseinkommen. Kapitel 3 enthält zwei Studien zur Unternehmensbesteuerung, die auf repräsentativen Einzeldatensätzen der Steuerstatistik und dem Mikrosimulationsmodell BizTax basieren. Zunächst wird eine Mikrosimulationsanalyse zu grundlegenden Reformmodellen für die Gewerbesteuer vorgestellt. Die Ergebnisse zeigen, dass die starke Konzentration des Gewerbesteueraufkommens auf die Unternehmen mit höheren Gewinnen deutlich vermindert werden kann, wenn die Bemessungsgrundlagen verbreitert werden, durch Einbeziehung aller Unternehmen und eine Ausweitung auf weitere Komponenten der betrieblichen Wertschöpfung. Diese Reformszenarien verteilen das Steueraufkommen je Einwohner deutlich gleichmäßiger über die Regionen. In der zweiten Studie des Kapitels 3 analysieren wir das Unternehmensteueraufkommen vor dem Hintergrund der gesamtwirtschaftlichen Unternehmensgewinne. Ein Vergleich der steuerlichen Bemessungsgrundlagen mit den entsprechenden Unternehmensgewinnen der Volkswirtschaftlichen Gesamtrechnungen ergibt eine beträchtliche Besteuerungslücke. Die durchschnittliche effektive Unternehmensteuerbelastung dürfte sich seit 2001 um 20 Prozent bewegt haben. Dies ist deutlich niedriger als die nominalen tariflichen Steuersätze und die effektiven Steuersätze, die in der Literatur ermittelt werden. Mangels detaillierter statistischer Erfassung der steuerlichen Gewinnermittlung ist es derzeit nicht möglich, diese Besteuerungslücke genauer aufzuklären. In Kapitel 4 werden verschiedene Studien zur ökologischen Steuerreform dargestellt. Zunächst werden die wissenschaftlichen, ideologischen und politischen Hintergründe dieser Reform erläutert. Danach wird eine erste systematische Wirkungsanalyse dargestellt. Dabei werden zwei makroökonomische Modelle eingesetzt, ein ökonometrisches Input-Output-Modell und ein empirisches rekursiv-dynamisches allgemeines Gleichgewichtsmodell. Die Ergebnisse zeigen, dass die ökologische Steuerreform den Energieverbrauch und die CO2-Emissionen spürbar senken kann, ohne dass dies nennenswerte Wachstumseinbußen nach sich ziehen würde. Ferner löst die Reform leicht positive Beschäftigungseffekte aus. Die Wirkungen der ökologischen Steuerreform nach Wirtschaftsbereichen und die Wirkungen der Steuervergünstigungen für Landwirtschaft und Produzierendes Gewerbe werden in einer weiteren Studie analysiert. Die Steuervergünstigungen vermeiden höhere Belastungen in den energieintensiven Produktionsbereichen. Zugleich reduzieren sie die Grenzbelastungen und somit die Anreize zum Energiesparen in diesen Branchen weitgehend. Die Reform der Steuervergünstigungen hat zwar die Belastungen für die energieintensive Wirtschaft seit 2003 erhöht. Die zusätzlichen Anreizwirkungen wurden aber durch die Ausweitung des „Spitzenausgleichs“ konterkariert. Die Effekte der ökologischen Steuerreform auf die Einkommensverteilung wurden auf Grundlage der Einkommens- und Verbrauchsstichprobe 2003 untersucht. Die erhöhten Energiesteuern wirken klar regressiv bezogen auf das verfügbare Einkommen. Familien mit Kindern werden relativ stärker belastet. Die Senkung der Rentenbeiträge und die automatische Anpassung von Sozialleistungen mildern die regressive Belastungswirkung. Bei Haushalten mit niedrigen Einkommen oder bei Familien mit vielen Kindern bleiben jedoch Nettobelastungen bestehen. Eine Rückerstattung des Ökosteueraufkommens durch einen „Ökobonus“ würde die gesamten Verteilungswirkungen der Reform deutlich progressiv machen. KW - Steuerlastverteilung KW - Steuerreform KW - Mikrosimulation KW - Evaluierung der Steuerpolitik KW - Tax distribution KW - tax reform KW - microsimulation KW - tax policy evaluation Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60289 ER - TY - THES A1 - Bordihn, Henning T1 - Contributions to the syntactical analysis beyond context-freeness T1 - Beiträge zur syntaktischen Analyse nicht-kontextfreier Sprachen N2 - Parsability approaches of several grammar formalisms generating also non-context-free languages are explored. Chomsky grammars, Lindenmayer systems, grammars with controlled derivations, and grammar systems are treated. Formal properties of these mechanisms are investigated, when they are used as language acceptors. Furthermore, cooperating distributed grammar systems are restricted so that efficient deterministic parsing without backtracking becomes possible. For this class of grammar systems, the parsing algorithm is presented and the feature of leftmost derivations is investigated in detail. N2 - Ansätze zum Parsing verschiedener Grammatikformalismen, die auch nicht-kontextfreie Sprachen erzeugen können, werden diskutiert. Chomsky-Grammatiken, Lindenmayer-Systeme, Grammatiken mit gesteuerten Ersetzungen und Grammatiksysteme werden behandelt. Formale Eigenschaften dieser Mechanismen als Akzeptoren von Sprachen werden untersucht. Weiterhin werden kooperierende verteilte (CD) Grammatiksysteme derart beschränkt, dass effizientes deterministisches Parsing ohne Backtracking möglich ist. Für diese Klasse von Grammatiksystemen wird der Parsingalgorithmus vorgestellt und die Rolle von Linksableitungen wird detailliert betrachtet. KW - Parsing KW - Akzeptierende Grammatiken KW - Gesteuerte Ableitungen KW - Grammatiksysteme KW - Linksableitungen KW - Parsing KW - Accepting Grammars KW - Controlled Derivations KW - Grammar Systems KW - Leftmost Derivations Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59719 ER - TY - THES A1 - Theilmann, Florian T1 - Die Kunst der Untersuchung : Essays zu einem erscheinungsorientierten Physikunterricht T1 - The art of inquiry : essays on phenomenological science teaching N2 - Die vorliegende Arbeit versammelt zwei einleitende Kapitel und zehn Essays, die sich als kritisch-konstruktive Beiträge zu einem "erlebenden Verstehen" (Buck) von Physik lesen lassen. Die traditionelle Anlage von Schulphysik zielt auf eine systematische Darstellung naturwissenschaftlichen Wissens, das dann an ausgewählten Beispielen angewendet wird: Schulexperimente beweisen die Aussagen der Systematik (oder machen sie wenigstens plausibel), ausgewählte Phänomene werden erklärt. In einem solchen Rahmen besteht jedoch leicht die Gefahr, den Bezug zur Lebenswirklichkeit oder den Interessen der Schüler zu verlieren. Diese Problematik ist seit mindestens 90 Jahren bekannt, didaktische Antworten - untersuchendes Lernen, Kontextualisierung, Schülerexperimente etc. - adressieren allerdings eher Symptome als Ursachen. Naturwissenschaft wird dadurch spannend, dass sie ein spezifisch investigatives Weltverhältnis stiftet: man müsste gleichsam nicht Wissen, sondern "Fragen lernen" (und natürlich auch, wie Antworten gefunden werden...). Doch wie kann dergleichen auf dem Niveau von Schulphysik aussehen, was für einen theoretischen Rahmen kann es hier geben? In den gesammelten Arbeiten wird einigen dieser Spuren nachgegangen: Der Absage an das zu modellhafte Denken in der phänomenologischen Optik, der Abgrenzung formal-mathematischen Denkens gegen wirklichkeitsnähere Formen naturwissenschaftlicher Denkbewegungen und Evidenz, dem Potential alternativer Interpretationen von "Physikunterricht", der Frage nach dem "Verstehen" u.a. Dabei werden nicht nur Bezüge zum modernen bildungstheoretischen Paradigma der Kompetenz sichtbar, sondern es wird auch versucht, eine ganze Reihe konkrete (schul-)physikalische Beispiele dafür zu geben, was passiert, wenn nicht schon gewusste Antworten Thema werden, sondern Expeditionen, die sich der physischen Welt widmen: Die Schlüsselbegriffe des Fachs, die Methoden der Datenerhebung und Interpretation, die Such- und Denkbewegungen kommen dabei auf eine Weise zur Sprache, die sich nicht auf die Fachsystematik abstützen möchte, sondern diese motivieren, konturieren und verständlich machen will. N2 - This book is a collection of two introductory chapters and ten essays that address questions concerning "experiential learning" in physics. Traditionally, physics education has been trying to convey a systematic picture of salient scientific knowledge, which would then be applied to selected experiments and phenomena. However, within such a framework, students' real life experiences and interests can hardly be related to. This problem is well known, but typical solutions within science education address merely the methods and conditions of learning, thereby treating symptoms and missing the underlying problem. For our discussion we have chosen a different point of departure: The fascination of science arises from its investigative nature, which allows us to relate to our world in novel ways. Accordingly, we should teach how to inquire nature, rather than giving canonical answers. What would be the practical consequences of such an approach, and what would the theoretical framework look like? These collected essays investigate a number of approaches toward this issue: phenomenological optics and its rejection of kinematic pictures, the distinction between mathematical reasoning and scientific evidence, the potential of non-conventional interpretations of science teaching, the meaning of "understanding" etc. This discussion merges into the current discourse about competence, while illustrating a kind of physics teaching that encourages "expeditions" into the realm of physics. Here, the key concepts, methods of investigation, and ways of reasoning are not simply based on the established edifice of physics, but rather serve to motivate, clarify, and elucidate its structures and practices. KW - Physikdidaktik KW - Phänomenologie KW - Verstehen KW - Unterrichtsvorschläge KW - Wissenschaftstheorie KW - Physics Education KW - Phenomenology KW - Understanding KW - Science Curriculum KW - Philosophy of Science Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-56145 ER - TY - THES A1 - Hainzl, Sebastian T1 - Earthquake triggering and interaction T1 - Erdbebenentstehung und Wechselwirkungen N2 - Earthquake faults interact with each other in many different ways and hence earthquakes cannot be treated as individual independent events. Although earthquake interactions generally lead to a complex evolution of the crustal stress field, it does not necessarily mean that the earthquake occurrence becomes random and completely unpredictable. In particular, the interplay between earthquakes can rather explain the occurrence of pronounced characteristics such as periods of accelerated and depressed seismicity (seismic quiescence) as well as spatiotemporal earthquake clustering (swarms and aftershock sequences). Ignoring the time-dependence of the process by looking at time-averaged values – as largely done in standard procedures of seismic hazard assessment – can thus lead to erroneous estimations not only of the activity level of future earthquakes but also of their spatial distribution. Therefore, it exists an urgent need for applicable time-dependent models. In my work, I aimed at better understanding and characterization of the earthquake interactions in order to improve seismic hazard estimations. For this purpose, I studied seismicity patterns on spatial scales ranging from hydraulic fracture experiments (meter to kilometer) to fault system size (hundreds of kilometers), while the temporal scale of interest varied from the immediate aftershock activity (minutes to months) to seismic cycles (tens to thousands of years). My studies revealed a number of new characteristics of fluid-induced and stress-triggered earthquake clustering as well as precursory phenomena in earthquake cycles. Data analysis of earthquake and deformation data were accompanied by statistical and physics-based model simulations which allow a better understanding of the role of structural heterogeneities, stress changes, afterslip and fluid flow. Finally, new strategies and methods have been developed and tested which help to improve seismic hazard estimations by taking the time-dependence of the earthquake process appropriately into account. N2 - Erdbeben interagieren in vielfältiger Weise miteinander, weshalb sie nicht als einzelne, unabhängige Ereignisse behandelt werden können. Obwohl diese Erdbebenwechselwirkungen in der Regel zu einer komplexen Entwicklung des Spannungsfelds führen, bedeutet dies nicht zwangsläufig, dass Erdbeben rein zufällig und völlig unberechenbar auftreten. Insbesondere kann das Zusammenspiel zwischen Erdbeben zu ausgeprägten Charakteristiken wie Phasen beschleunigter Aktivität, seismischer Ruhe sowie raumzeitlichen Erdbebenanhäufungen (Schwärme und Nachbebensequenzen) führen. Die Vernachlässigung der Zeitabhängigkeit des Erdbebenprozesses kann somit zu fehlerhaften Einschätzungen nicht nur des zukünftigen Aktivitätsniveaus, sondern auch der räumlichen Verteilung führen. Daher besteht ein dringender Bedarf an geeigneten zeitabhängigen Seismizitätsmodellen. Meine Arbeit zielt auf ein verbessertes Verständnis und Charakterisierung der Interaktionen von Erdbeben ab, um Abschätzungen der Erdbebengefährdung zu verbessern. Zu diesem Zweck untersuche ich Seismizitätsmuster auf den räumlichen Skalen von hydraulisch induzierten Öffnungsbrüchen (Meter bis Kilometer) bis zu Verwerfungssystemen (Hunderte von Kilometern), während die zeitlichen Skalen von Nachbebenaktivität (Minuten bis Monate) bis zu seismischen Zyklen (bis zu mehrere tausendend Jahre) reichen. Meine Studien ergeben eine Reihe neuer Merkmale von Fluid- und Spannungs-induzierten Erdbeben. Ergänzend zur reinen Datenanalyse der Erdbeben- und Deformationsdaten liefern statistische und Physik-basierte Modellsimulationen ein besseres Verständnis der Rolle von strukturellen Heterogenitäten, Spannungsänderungen und postseismischen Prozessen. Schließlich konnten neue Strategien und Methoden entwickelt und getestet werden, mit denen die Erdbebengefährdung besser eingeschätzt werden kann, indem die Zeitabhängigkeit des Erdbebens Prozess angemessen berücksichtigt wird. KW - Erdbebeninteraktion KW - Erdbebengefährdung KW - earthquake interaction KW - seismic hazard Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50095 ER - TY - THES A1 - Knebe, Alexander T1 - Computational cosmology T1 - Numerische Kosmologie N2 - “Computational Cosmology” is the modeling of structure formation in the Universe by means of numerical simulations. These simulations can be considered as the only “experiment” to verify theories of the origin and evolution of the Universe. Over the last 30 years great progress has been made in the development of computer codes that model the evolution of dark matter (as well as gas physics) on cosmic scales and new research discipline has established itself. After a brief summary of cosmology we will introduce the concepts behind such simulations. We further present a novel computer code for numerical simulations of cosmic structure formation that utilizes adaptive grids to efficiently distribute the work and focus the computing power to regions of interests, respectively. In that regards we also investigate various (numerical) effects that influence the credibility of these simulations and elaborate on the procedure of how to setup their initial conditions. And as running a simulation is only the first step to modelling cosmological structure formation we additionally developed an object finder that maps the density field onto galaxies and galaxy clusters and hence provides the link to observations. Despite the generally accepted success of the cold dark matter cosmology the model still inhibits a number of deviations from observations. Moreover, none of the putative dark matter particle candidates have yet been detected. Utilizing both the novel simulation code and the halo finder we perform and analyse various simulations of cosmic structure formation investigating alternative cosmologies. These include warm (rather than cold) dark matter, features in the power spectrum of the primordial density perturbations caused by non-standard inflation theories, and even modified Newtonian dynamics. We compare these alternatives to the currently accepted standard model and highlight the limitations on both sides; while those alternatives may cure some of the woes of the standard model they also inhibit difficulties on their own. During the past decade simulation codes and computer hardware have advanced to such a stage where it became possible to resolve in detail the sub-halo populations of dark matter halos in a cosmological context. These results, coupled with the simultaneous increase in observational data have opened up a whole new window on the concordance cosmogony in the field that is now known as “Near-Field Cosmology”. We will present an in-depth study of the dynamics of subhaloes and the development of debris of tidally disrupted satellite galaxies.1 Here we postulate a new population of subhaloes that once passed close to the centre of their host and now reside in the outer regions of it. We further show that interactions between satellites inside the radius of their hosts may not be negliable. And the recovery of host properties from the distribution and properties of tidally induced debris material is not as straightforward as expected from simulations of individual satellites in (semi-)analytical host potentials. N2 - Die Kosmologie ist heutzutage eines der spannendsten Arbeitsgebiete in der Astronomie und Astrophysik. Das vorherrschende (Urknall-)Modell in Verbindung mit den neuesten und präzisesten Beobachtungsdaten deutet darauf hin, daß wir in einem Universum leben, welches zu knapp 24% aus Dunkler Materie und zu 72% aus Dunkler Energie besteht; die sichtbare Materie macht gerade einmal 4% aus. Und auch wenn uns derzeit eindeutige bzw. direkte Beweise für die Existenz dieser beiden exotischen Bestandteile des Universums fehlen, so ist es uns dennoch möglich, die Entstehung von Galaxien, Galaxienhaufen und der großräumigen Struktur in solch einem Universum zu modellieren. Dabei bedienen sich Wissenschaftler Computersimulationen, welche die Strukturbildung in einem expandierenden Universum mittels Großrechner nachstellen; dieses Arbeitsgebiet wird Numerische Kosmologie bzw. “Computational Cosmology” bezeichnet und ist Inhalt der vorliegenden Habilitationsschrift. Nach einer kurzen Einleitung in das Themengebiet werden die Techniken zur Durchführung solcher numerischen Simulationen vorgestellt. Die Techniken zur Lösung der relevanten (Differential-)Gleichungen zur Modellierung des “Universums im Computer” unterscheiden sich dabei teilweise drastisch voneinander (Teilchen- vs. Gitterverfahren), und es werden die verfahrenstechnischen Unterschiede herausgearbeitet. Und obwohl unterschiedliche Programme auf unterschiedlichen Methoden basieren, so sind die Unterschiede in den Endergebnissen doch (glücklicherweise) vernachlässigbar gering. Wir stellen desweiteren einen komplett neuen Code – basierend auf dem Gitterverfahren – vor, welcher einen Hauptbestandteil der vorliegenden Habilitation darstellt. Im weiteren Verlauf der Arbeit werden diverse kosmologische Simulationen vorgestellt und ausgewertet. Dabei werden zum einen die Entstehung und Entwicklung von Satellitengalaxien – den (kleinen) Begleitern von Galaxien wie unserer Milchstraße und der Andromedagalaxie – als auch Alternativen zum oben eingeführten “Standardmodell” der Kosmologie untersucht. Es stellt sich dabei heraus, daß keine der (hier vorgeschlagenen) Alternativen eine bedrohliche Konkurenz zu dem Standardmodell darstellt. Aber nichtsdestoweniger zeigen die Rechnungen, daß selbst so extreme Abänderungen wie z.B. modifizierte Newton’sche Dynamik (MOND) zu einem Universum führen können, welches dem beobachteten sehr nahe kommt. Die Ergebnisse in Bezug auf die Dynamik der Satellitengalaxien zeigen auf, daß die Untersuchung der Trümmerfelder von durch Gezeitenkräfte zerriebenen Satellitengalaxien Rückschlüsse auf Eigenschaften des ursprünglichen Satelliten zulassen. Diese Tatsache wird bei der Aufschlüsselung der Entstehungsgeschichte unserer eigenen Milchstraße von erheblichem Nutzen sein. Trotzdem deuten die hier vorgestellten Ergebnisse auch darauf hin, daß dieser Zusammenhang nicht so eindeutig ist, wie er zuvor mit Hilfe kontrollierter Einzelsimulationen von Satellitengalaxien in analytischen “Mutterpotentialen” vorhergesagt wurde: Das Zusammenspiel zwischen den Satelliten und der Muttergalaxie sowie die Einbettung der Rechnungen in einen kosmologischen Rahmen sind von entscheidender Bedeutung. Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41147 ER - TY - THES A1 - Kopka, Joachim T1 - Applied metabolome analysis : exploration, development and application of gas chromatography-mass spectrometry based metabolite profiling technologies T1 - Angewandte Metabolom Analyse : Erforschung, Entwicklung und Anwendung von auf Gaschromatographie-Massenspektrometrie basierenden N2 - The uptake of nutrients and their subsequent chemical conversion by reactions which provide energy and building blocks for growth and propagation is a fundamental property of life. This property is termed metabolism. In the course of evolution life has been dependent on chemical reactions which generate molecules that are common and indispensable to all life forms. These molecules are the so-called primary metabolites. In addition, life has evolved highly diverse biochemical reactions. These reactions allow organisms to produce unique molecules, the so-called secondary metabolites, which provide a competitive advantage for survival. The sum of all metabolites produced by the complex network of reactions within an organism has since 1998 been called the metabolome. The size of the metabolome can only be estimated and may range from less than 1,000 metabolites in unicellular organisms to approximately 200,000 in the whole plant kingdom. In current biology, three additional types of molecules are thought to be important to the understanding of the phenomena of life: (1) the proteins, in other words the proteome, including enzymes which perform the metabolic reactions, (2) the ribonucleic acids (RNAs) which constitute the so-called transcriptome, and (3) all genes of the genome which are encoded within the double strands of desoxyribonucleic acid (DNA). Investigations of each of these molecular levels of life require analytical technologies which should best enable the comprehensive analysis of all proteins, RNAs, et cetera. At the beginning of this thesis such analytical technologies were available for DNA, RNA and proteins, but not for metabolites. Therefore, this thesis was dedicated to the implementation of the gas chromatography – mass spectrometry technology, in short GC-MS, for the in-parallel analysis of as many metabolites as possible. Today GC-MS is one of the most widely applied technologies and indispensable for the efficient profiling of primary metabolites. The main achievements and research topics of this work can be divided into technological advances and novel insights into the metabolic mechanisms which allow plants to cope with environmental stresses. Firstly, the GC-MS profiling technology has been highly automated and standardized. The major technological achievements were (1) substantial contributions to the development of automated and, within the limits of GC-MS, comprehensive chemical analysis, (2) contributions to the implementation of time of flight mass spectrometry for GC-MS based metabolite profiling, (3) the creation of a software platform for reproducible GC-MS data processing, named TagFinder, and (4) the establishment of an internationally coordinated library of mass spectra which allows the identification of metabolites in diverse and complex biological samples. In addition, the Golm Metabolome Database (GMD) has been initiated to harbor this library and to cope with the increasing amount of generated profiling data. This database makes publicly available all chemical information essential for GC-MS profiling and has been extended to a global resource of GC-MS based metabolite profiles. Querying the concentration changes of hundreds of known and yet non-identified metabolites has recently been enabled by uploading standardized, TagFinder-processed data. Long-term technological aims have been pursued with the central aims (1) to enhance the precision of absolute and relative quantification and (2) to enable the combined analysis of metabolite concentrations and metabolic flux. In contrast to concentrations which provide information on metabolite amounts, flux analysis provides information on the speed of biochemical reactions or reaction sequences, for example on the rate of CO2 conversion into metabolites. This conversion is an essential function of plants which is the basis of life on earth. Secondly, GC-MS based metabolite profiling technology has been continuously applied to advance plant stress physiology. These efforts have yielded a detailed description of and new functional insights into metabolic changes in response to high and low temperatures as well as common and divergent responses to salt stress among higher plants, such as Arabidopsis thaliana, Lotus japonicus and rice (Oryza sativa). Time course analysis after temperature stress and investigations into salt dosage responses indicated that metabolism changed in a gradual manner rather than by stepwise transitions between fixed states. In agreement with these observations, metabolite profiles of the model plant Lotus japonicus, when exposed to increased soil salinity, were demonstrated to have a highly predictive power for both NaCl accumulation and plant biomass. Thus, it may be possible to use GC-MS based metabolite profiling as a breeding tool to support the selection of individual plants that cope best with salt stress or other environmental challenges. N2 - Die Aufnahme von Nährstoffen und ihre chemische Umwandlung mittels Reaktionen, die Energie und Baustoffe für Wachstum und Vermehrung bereitstellen, ist eine grundlegende Eigenschaft des Lebens. Diese Eigenschaft wird Stoffwechsel oder, wie im Folgenden, Metabolismus genannt. Im Verlauf der Evolution war alles Leben abhängig von solchen Reaktionen, die essentielle und allen Lebensformen gemeinsame Moleküle erzeugen. Über diese sogenannten Primärmetabolite hinaus sind hochdiverse Reaktionen entstanden. Diese erlauben Organismen, einzigartige sogenannte Sekundärmetabolite zu produzieren, die in der Regel einen zusätzlichen Überlebensvorteil vermitteln. Die Gesamtheit aller Metabolite, die von dem komplexen Reaktionsnetzwerk in Organismen erzeugt werden, nennt man seit 1998 das Metabolom. Die Größe des Metaboloms kann nur geschätzt werden. Neben der Gesamtheit aller Metabolite werden heute drei weitere Arten an Molekülen als wesentlich betrachtet, um die Phänomene des Lebens zu verstehen: erstens die Proteine, deren Summe, das Proteom, auch die Enzyme einschließt, die die obigen metabolischen Reaktionen durchführen, zweitens die Ribonukleinsäuren (RNS), deren Gesamtheit als Transkriptom bezeichnet wird, und drittens die doppelsträngige Desoxyribonukleinsäure (DNS), die das Genom, die Summe aller Gene eines Organismus, ausmacht. Die Untersuchung aller dieser vier molekularen Ebenen des Lebens erfordert Technologien, die idealerweise die vollständige Analyse der Gesamtheit aller DNS-, RNS-, Protein-Moleküle, bzw. Metabolite erlauben. Zu Beginn meiner Arbeiten waren solche Technologien für DNS, RNS, und Proteine verfügbar, aber nicht für Metabolite. Aus diesem Grund habe ich meine Forschungstätigkeit auf das Ziel ausgerichtet, so viele Metabolite wie irgend möglich in einer gemeinsamen Analyse zu erfassen. Zu diesem Zweck habe ich mich auf eine einzelne Technik, nämlich die gekoppelte Gaschromatographie und Massenspektrometrie, kurz GC-MS, konzentriert. Nicht zuletzt durch meine Arbeiten ist GC-MS heute eine der am häufigsten angewandten Technologien und unverzichtbar für das breite Durchmustern der Metabolite. Neben der Etablierung der grundlegenden GC-MS-Profilanalyse-Technologie liegen die Haupterrungenschaften meiner Arbeiten sowohl in den technischen Neuerungen als auch in den Einsichten in metabolische Mechanismen, die es Pflanzen erlauben, erfolgreich auf Umwelteinflüsse zu reagieren. Die technologischen Errungenschaften waren erstens wesentliche Beiträge zur Labor-Automatisierung und zur Auswertung von modernen, auf Flugzeitmassenspektrometrie beruhenden, GC-MS-Profilanalysen, zweitens die Entwicklung einer entsprechenden Prozessierungs-Software, genannt TagFinder, und drittens die Etablierung einer internationalen Datensammlung zur Metabolitidentifizierung aus komplexen Mischungen. Diese massenspektralen und gaschromatographischen Daten haben seit 2005 Eingang in die von mir initiierte Entwicklung der Golm Metabolom Datenbank (GMD) gefunden, die die zunehmend wachsenden GC-MS-Referenzdaten wie auch die Metabolitprofildaten verwaltet und öffentlich zugänglich macht. Darüber hinaus wurden die langfristigen Ziele einer verbesserten Präzision für relative und absolute Quantifizierung wie auch einer Kopplung von Konzentrationsbestimmung und metabolischen Flussanalysen mittels GC-MS verfolgt. Sowohl die Stoffmengen als auch die Geschwindigkeit der Stoffaufnahme und der chemischen Umsetzung, d.h. der metabolische Fluss, sind wesentlich für neue biologische Einsichten. In diesem Zusammenhang wurde von mir die Aufnahme von CO2 durch Pflanzen, der Basis allen Lebens auf der Erde, untersucht. Angewandt auf das Temperaturstress- und Salzstressverhalten von Modell- und Kulturpflanzen, nämlich des Ackerschmalwands (Arabidopsis thaliana), des Hornklees (Lotus japonicus) und der global bedeutendsten Nutzpflanze Reis (Oryza sativa), wurden detaillierte und vergleichende neue metabolische Einsichten in den Zeitverlauf der Temperaturanpassung und die Anpassung an zunehmend salzhaltige Böden erzielt. Metabolismus verändert sich unter diesen Bedingungen allmählich fortschreitend und nicht in plötzlichen Übergängen. Am Beispiel des Hornklees konnte gezeigt werden, dass Metabolitprofilanalysen eine hohe Vorhersagekraft für die Biomasseerzeugung unter Salzeinfluss wie auch für die Aufnahme von Salz durch die Pflanze haben. So mag es in Zukunft möglich werden, GC-MS-Profilanaysen anzuwenden, um den Züchtungsprozess von Kulturpflanzen zu beschleunigen. KW - Metabolomics KW - Metaboliten KW - Profilanalysen KW - Gaschromatographie KW - Massenspektrometrie KW - Metabolomics KW - Metabolites KW - Profiling KW - Gas Chromatography KW - Mass Spectrometry Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-40597 ER - TY - THES A1 - Thieken, Annegret T1 - Floods, flood losses and flood risk management in Germany T1 - Hochwasser, Hochwasserschäden und Hochwasserrisikomanagement in Deutschland N2 - Die vorliegende Habilitation beschäftigt sich mit verschiedenen Aspekten des Hochwasserrisikos in Deutschland. In zwölf Artikeln werden neue wissenschaftliche Erkenntnisse über Hochwassergefahren, über Faktoren, die Hochwasserschäden beeinflussen, sowie über effektive private Vorsorgemaßnahmen präsentiert. So wird die jahreszeitliche Verteilung von Hochwasser in ganz Deutschland gezeigt. Weiterhin werden mögliche Auswirkungen des Klimawandels auf Abflussverhältnisse und Häufigkeiten von Hochwasserereignissen am Beispiel des Rhein-Einzugsgebietes abgeschätzt. Ferner wird am Niederrhein simuliert, welche Auswirkungen Deichbrüche haben können. Hochwasserschäden stehen im zweiten Teil der Arbeit im Fokus: Nach dem August-Hochwasser 2002 wurden ca. 1700 Privathaushalte telefonisch befragt. Damit konnten die Einflüsse verschiedener Faktoren, wie der Überflutungsdauer oder der Verunreinigung des Hochwassers mit Öl, auf die Höhe von finanziellen Schäden quantifiziert werden. Daraus ist zum einen ein neues Modell entstanden, mit dem Hochwasserschäden großräumig berechnet werden können. Zum anderen konnten Hinweise für die Verbesserung der privaten Vorsorge abgeleitet werden. Beispielsweise zeigte sich, dass versicherte Haushalte schneller und besser entschädigt werden als Nicht-Versicherte. Ebenfalls wurde deutlich, dass verschiedene Bevölkerungsgruppen, wie Mieter und Hauseigentümer, unterschiedliche Möglichkeiten haben, Vorsorge zu betreiben. Dies ist zukünftig in der Risikokommunikation zu berücksichtigen. In den Jahren 2005 und 2006 waren Elbe und Donau wiederum von Hochwasser betroffen. Eine erneute Befragung von Privathaushalten und Behörden ermöglichte, die Verbesserung des Hochwasserrisikomanagement und der Vorsorge am Beispiel der Stadt Dresden zu untersuchen. Viele Methoden und Erkenntnisse dieser Arbeit sind in der wasserwirtschaftlichen Praxis anwendbar und tragen somit zur Verbesserung der Hochwasserrisikoanalyse und des Risikomanagements in Deutschland bei. N2 - This thesis deals with different aspects of flood risk in Germany. In twelve papers new scientific findings about flood hazards, factors that influence flood losses as well as effective private precautionary measures are presented. The seasonal distribution of flooding is shown for the whole of Germany. Furthermore, possible impacts of climate change on discharge and flood frequencies are estimated for the catchment of the river Rhine. Moreover, it is simulated at reaches of the Lower Rhine, which effects may result from levee breaches. Flood losses are the focus of the second part of the thesis: After the flood in August 2002 approximately 1700 households were interviewed by telephone. By this, it was possible to quantify the influence of different factors such as flood duration or the contamination of the flood water with oil on the extent of financial flood damage. On this basis, a new model was derived, by which flood losses can be calculated on a large scale. On the other hand, it was possible to derive recommendations for the improvement of private precaution. For example, the analysis revealed that insured households were compensated more quickly and to a better degree than uninsured. It became also clear that different groups like tenants and homeowners have different capabilities of performing precaution. This is to be considered in future risk communication. In 2005 and 2006, the rivers Elbe and Danube were again affected by flooding. A renewed pool among households and public authorities enabled us to investigate the improvement of flood risk management and the precaution in the City of Dresden. Several methods and finding of this thesis are applicable for water resources management issues and contribute to an improvement of flood risk analysis and management in Germany. KW - Hochwasserregime KW - Auswirkungen des Klimawandels KW - Schadensmodellierung KW - Eigenvorsorge KW - Hochwasserversicherung KW - flood regime KW - climate change impacts KW - loss modelling KW - private precaution KW - flood insurance Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29164 ER - TY - THES A1 - Börner, Hans Gerhard T1 - Exploiting self-organization and functionality of peptides for polymer science T1 - Peptide im Dienste der Polymerwissenschaften : Kontrolle der Selbstorganisation und der Funktionalität N2 - Controlling interactions in synthetic polymers as precisely as in proteins would have a strong impact on polymer science. Advanced structural and functional control can lead to rational design of, integrated nano- and microstructures. To achieve this, properties of monomer sequence defined oligopeptides were exploited. Through their incorporation as monodisperse segments into synthetic polymers we learned in recent four years how to program the structure formation of polymers, to adjust and exploit interactions in such polymers, to control inorganic-organic interfaces in fiber composites and induce structure in Biomacromolecules like DNA for biomedical applications. N2 - Die Kontrolle von Wechselwirkungen in synthetischen Polymersystemen mit vergleichbarer Präzision wie in Polypeptiden und Proteinen hätte einen dramatischen Einfluss auf die Möglichkeiten in den Polymer- und Materialwissenschaften. Um dies zu erreichen, werden im Rahmen dieser Arbeit Eigenschaften von Oligopeptiden mit definierter Monomersequenz ausgenutzt. Die Integration dieser monodispersen Biosegmente in synthetische Polymere erlaubt z. B. den Aufbau von Peptid-block-Polymer Copolymeren. In solchen sogenannten Peptid-Polymer-Konjugaten sind die Funktionalitäten, die Sekundärwechselwirkungen und die biologische Aktivität des Peptidsegments präzise programmierbar. In den vergangen vier Jahren konnte demonstriert werden, wie in Biokonjugatsystemen die Mikrostrukturbildung gesteuert werden kann, wie definierte Wechselwirkungen in diesen Systemen programmiert und ausgenutzt werden können und wie Grenzflächen zwischen anorganischen und organischen Komponenten in Faserkompositmaterialien kontrolliert werden können. Desweiteren konnten Peptid-Polymer-Konjugate verwendet werden, um für biomedizinische Anwendungen DNS gezielt zu komprimieren oder Zelladhäsion auf Oberflächen zu steuern. KW - Peptid-Polymer-Konjugate KW - Biokonjugate KW - Selbstorganisation KW - peptide-polymer conjugate KW - bioconjugate KW - self-assembly Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29066 ER - TY - THES A1 - Weikl, Thomas R. T1 - Transition states and loop-closure principles in protein folding T1 - Übergangszustände und Schleifenschließungsprinzipien bei der Proteinfaltung N2 - Proteins are chain molecules built from amino acids. The precise sequence of the 20 different types of amino acids in a protein chain defines into which structure a protein folds, and the three-dimensional structure in turn specifies the biological function of the protein. The reliable folding of proteins is a prerequisite for their robust function. Misfolding can lead to protein aggregates that cause severe diseases, such as Alzheimer's, Parkinson's, or the variant Creutzfeldt-Jakob disease. Small single-domain proteins often fold without experimentally detectable metastable intermediate states. The folding dynamics of these proteins is thought to be governed by a single transition-state barrier between the unfolded and the folded state. The transition state is highly instable and cannot be observed directly. However, mutations in which a single amino acid of the protein is substituted by another one can provide indirect access. The mutations slightly change the transition-state barrier and, thus, the folding and unfolding times of the protein. The central question is how to reconstruct the transition state from the observed changes in folding times. In this habilitation thesis, a novel method to extract structural information on transition states from mutational data is presented. The method is based on (i) the cooperativity of structural elements such as alpha-helices and beta-hairpins, and (ii) on splitting up mutation-induced free-energy changes into components for these elements. By fitting few parameters, the method reveals the degree of structure formation of alpha-helices and beta-hairpins in the transition state. In addition, it is shown in this thesis that the folding routes of small single-domain proteins are dominated by loop-closure dependencies between the structural elements. N2 - Proteine sind Kettenmoleküle, die aus einzelnen Aminosäuren aufgebaut sind. Die genaue Sequenz der 20 verschiedenartigen Aminosäuren innerhalb der Proteinkette bestimmt dabei, in welche spezielle Struktur sich ein Protein faltet. Die dreidimensionale Struktur bestimmt wiederum die Funktion der Proteine. Doch nur korrekt gefaltet kann ein Protein seine Funktion erfüllen. Fehler bei der Faltung können zu Proteinaggregaten führen, die schwere Krankheiten wie Alzheimer, Parkinson oder das Creutzfeldt-Jakob-Syndrom hervorrufen. Viele kleine Proteine falten ohne experimentell beobachtbare metastabile Zwischenzustände. Entscheidend für die Faltungsdynamik dieser Proteine ist der Übergangszustand zwischen dem ungefalteten und gefalteten Zustand. Der Übergangszustand ist instabil und kann nicht direkt beobachtet werden. Einen indirekten Zugang ermöglichen jedoch Mutationen eines Proteins, bei denen einzelne Aminosäuren ausgetauscht werden. Die Mutationen verändern geringfügig die Übergangszustandsbarriere, und damit die Faltungs- und Entfaltungszeiten des Proteins. Die zentrale Frage ist, wie sich der Übergangszustand aus den beobachteten Änderungen der Faltungszeit rekonstruieren lässt. In dieser Habilitationsschrift wird eine neuartige Methode zur Rekonstruktion von Übergangszuständen aus Mutationsdaten vorgestellt. Die Methode beruht auf (i) der Kooperativität von Strukturelementen wie alpha-Helizes und beta-Haarnadeln, und (ii) der Aufspaltung von mutationsinduzierten Veränderungen der freien Energie in Komponenten für diese Strukturelemente. Die Modellierung der experimentellen Daten verrät, in welchem Grad alpha-Helizes and beta-Haarnadeln im Übergangszustand strukturiert sind. Zudem wird in dieser Habilitationsschrift gezeigt, dass die Faltungswege vieler kleiner Proteine durch Schleifenschließungsbeziehungen zwischen den Strukturelementen dominiert werden. KW - Proteinfaltung KW - Faltungsdynamik KW - Übergangszustand KW - Stochastische Prozesse KW - Schleifenschließung KW - protein folding KW - folding dynamics KW - transition state KW - stochastic processes KW - loop closure Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-26975 ER - TY - THES A1 - Grenzer, Marina T1 - Photoinduced material transport in amorphous azobenzene polymer films T1 - Lichtinduzierter Massetransport in amorphen azobenzenhaltigen Polymerfilmen N2 - The role played by azobenzene polymers in the modern photonic, electronic and opto-mechanical applications cannot be underestimated. These polymers are successfully used to produce alignment layers for liquid crystalline fluorescent polymers in the display and semiconductor technology, to build waveguides and waveguide couplers, as data storage media and as labels in quality product protection. A very hot topic in modern research are light-driven artificial muscles based on azobenzene elastomers. The incorporation of azobenzene chromophores into polymer systems via covalent bonding or even by blending gives rise to a number of unusual effects under visible (VIS) and ultraviolet light irradiation. The most amazing effect is the inscription of surface relief gratings (SRGs) onto thin azobenzene polymer films. At least seven models have been proposed to explain the origin of the inscribing force but none of them describes satisfactorily the light induced material transport on the molecular level. In most models, to explain the mass transport over micrometer distances during irradiation at room temperature, it is necessary to assume a considerable degree of photoinduced softening, at least comparable with that at the glass transition. Contrary to this assumption, we have gathered a convincing evidence that there is no considerable softening of the azobenzene layers under illumination. Presently we can surely say that light induced softening is a very weak accompanying effect rather than a necessary condition for the formation of SRGs. This means that the inscribing force should be above the yield point of the azobenzene polymer. Hence, an appropriate approach to describe the formation and relaxation of SRGs is a viscoplastic theory. It was used to reproduce pulse-like inscription of SRGs as measured by VIS light scattering. At longer inscription times the VIS scattering pattern exhibits some peculiarities which can be explained by the appearance of a density grating that will be shown to arise due to the final compressibility of the polymer film. As a logical consequence of the aforementioned research, a thermodynamic theory explaining the light-induced deformation of free standing films and the formation of SRGs is proposed. The basic idea of this theory is that under homogeneous illumination an initially isotropic sample should stretch itself along the polarization direction to compensate the entropy decrease produced by the photoinduced reorientation of azobenzene chromophores. Finally, some ideas about further development of this controversial topic will be discussed. N2 - Azobenzenhaltige Polymere sind in modernen photonischen, elektronischen und opto-mechanischen Anwendungen nicht mehr wegzudenken. Diese Polymere werden erfolgreich in der Bildschirm- und Halbleitertechnologie eingesetzt, um Ausrichtungsschichten für flüssig-kristalline fluoreszierende Polymere zu produzieren sowie Wellenleiter und Wellenleiterkoppler herzustellen. Auch dienen sie als Medien für Datenspeicher oder der Sicherung von Qualitätsprodukten. Ein wichtiges Thema in der modernen Forschung sind lichtgetriebene künstliche Muskeln basierend auf azobenzenhaltigen Elastomeren. Die Inkorporation von Azobenzene in Polymersysteme durch kovalente Bindungen oder durch Vermischung resultiert in einer Anzahl ungewöhnlicher Effekte, welche unter Bestrahlung mit sichtbarem und ultraviolettem Licht auftreten. Der erstaunlichste Effekt ist das Erzeugen von Oberflächengittern (Surface Relief Gratings - SRGs) auf dünnen azobenzenhaltigen Polymerfilmen. Es wurden mindestens sieben Modelle zur Erklärung der Herkunft der dieses Gitter erzeugenden Kraft vorgeschlagen aber keines von diesen kann befriedigend den lichtinduzierten Massetransport auf molekularem Niveau beschreiben. Um einen Massetransport über Mikrometerabstände zu erklären, ist es in den meisten Modellen notwendig, eine deutliche lichtinduzierte Erweichung, die mit der Erweichung bei dem Glasübergang vergleichbar ist, anzunehmen. Entgegen dieser Annahme wurden in dieser Arbeit überzeugende Beweise gesammelt, dass es keine signifikante Erweichung in azobenzenhaltigen Schichten bei homogener Bestrahlung gibt. Deshalb kann man davon ausgehen, dass die lichtinduzierte Erweichung eher ein schwacher begleitender Effekt als eine notwendige Voraussetzung für die Bildung derartiger Oberflächengitter ist. Aus dieser Beobachtung muss geschlussfolgert werden, dass die erzeugende Kraft oberhalb der Fließgrenze azobenzenhaltiger Polymer liegt. Deshalb ist die viskoplastische Theorie ein geeigneter Ansatz zur Beschreibung der Formation von Oberflächengittern und deren Relaxation. Dieser Ansatz wurde genutzt, um die beim pulsartigen Erzeugen von Oberflächengittern gemessene Lichtstreuung mit einem Modell zu beschreiben. Bei längeren Bestrahlungszeiten weist das Streumuster einige Besonderheiten auf, die durch die Bildung eines Dichtegitters erklärt werden können. Dieses Gitter entsteht infolge der begrenzten Kompressibilität des Polymerfilms. Als logische Konsequenz der oben genannten Erkenntnisse wird eine thermodynamische Theorie, die die lichtinduzierte Deformation des freistehenden Filmes und die Oberflächen-gitterbildung wiedergeben kann, vorgeschlagen. Die Hauptidee ist, dass eine ursprünglich isotrope Probe sich unter homogener Bestrahlung entlang der Polarisationsrichtung ausdehnen muss, um die Entropieabnahme, die durch die lichtinduzierte Reorientierung der Azobenzene entstanden ist, zu kompensieren. In der Folge werden einige Ideen über die weitere Entwicklung dieses interessanten Themas diskutiert. KW - azobenzenhaltige Polymere KW - Oberflächengitter KW - viskoplastische Theorie KW - azobenzene polymer KW - surface relief grating KW - viscoplastic theory Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-15771 ER - TY - THES A1 - Wagner, Dirk T1 - Microbial perspectives of the methane cycle in permafrost ecosystems in the Eastern Siberian Arctic : implications for the global methane budget N2 - The Arctic plays a key role in Earth’s climate system as global warming is predicted to be most pronounced at high latitudes and because one third of the global carbon pool is stored in ecosystems of the northern latitudes. In order to improve our understanding of the present and future carbon dynamics in climate sensitive permafrost ecosystems, the present study concentrates on investigations of microbial controls of methane fluxes, on the activity and structure of the involved microbial communities, and on their response to changing environmental conditions. For this purpose an integrated research strategy was applied, which connects trace gas flux measurements to soil ecological characterisation of permafrost habitats and molecular ecological analyses of microbial populations. Furthermore, methanogenic archaea isolated from Siberian permafrost have been used as potential keystone organisms for studying and assessing life under extreme living conditions. Long-term studies on methane fluxes were carried out since 1998. These studies revealed considerable seasonal and spatial variations of methane emissions for the different landscape units ranging from 0 to 362 mg m-2 d-1. For the overall balance of methane emissions from the entire delta, the first land cover classification based on Landsat images was performed and applied for an upscaling of the methane flux data sets. The regionally weighted mean daily methane emissions of the Lena Delta (10 mg m-2 d-1) are only one fifth of the values calculated for other Arctic tundra environments. The calculated annual methane emission of the Lena Delta amounts to about 0.03 Tg. The low methane emission rates obtained in this study are the result of the used remotely sensed high-resolution data basis, which provides a more realistic estimation of the real methane emissions on a regional scale. Soil temperature and near soil surface atmospheric turbulence were identified as the driving parameters of methane emissions. A flux model based on these variables explained variations of the methane budget corresponding to continuous processes of microbial methane production and oxidation, and gas diffusion through soil and plants reasonably well. The results show that the Lena Delta contributes significantly to the global methane balance because of its extensive wetland areas. The microbiological investigations showed that permafrost soils are colonized by high numbers of microorganisms. The total biomass is comparable to temperate soil ecosystems. Activities of methanogens and methanotrophs differed significantly in their rates and distribution patterns along both the vertical profiles and the different investigated soils. The methane production rates varied between 0.3 and 38.9 nmol h-1 g-1, while the methane oxidation ranged from 0.2 to 7.0 nmol h-1 g-1. Phylogenetic analyses of methanogenic communities revealed a distinct diversity of methanogens affiliated to Methanomicrobiaceae, Methanosarcinaceae and Methanosaetaceae, which partly form four specific permafrost clusters. The results demonstrate the close relationship between methane fluxes and the fundamental microbiological processes in permafrost soils. The microorganisms do not only survive in their extreme habitat but also can be metabolic active under in situ conditions. It was shown that a slight increase of the temperature can lead to a substantial increase in methanogenic activity within perennially frozen deposits. In case of degradation, this would lead to an extensive expansion of the methane deposits with their subsequent impacts on total methane budget. Further studies on the stress response of methanogenic archaea, especially Methanosarcina SMA-21, isolated from Siberian permafrost, revealed an unexpected resistance of the microorganisms against unfavourable living conditions. A better adaptation to environmental stress was observed at 4 °C compared to 28 °C. For the first time it could be demonstrated that methanogenic archaea from terrestrial permafrost even survived simulated Martian conditions. The results show that permafrost methanogens are more resistant than methanogens from non-permafrost environments under Mars-like climate conditions. Microorganisms comparable to methanogens from terrestrial permafrost can be seen as one of the most likely candidates for life on Mars due to their physiological potential and metabolic specificity. N2 - Die Arktis spielt eine Schlüsselrolle im Klimasystem unserer Erde aus zweierlei Gründen. Zum einen wird vorausgesagt, dass die globale Erwärmung in den hohen Breiten am ausgeprägtesten sein wird. Zum anderen ist ein Drittel des globalen Kohlenstoffs in Ökosystemen der nördlichen Breiten gespeichert. Um ein besseres Verständnis der gegenwärtigen und zukünftigen Entwicklung der Kohlenstoffdynamik in klimaempfindlichen Permafrostökosystemen zu erlangen, konzentriert sich die vorliegende Arbeit auf Untersuchungen zur Kontrolle der Methanflüsse durch Mikroorganismen, auf die Aktivität und Struktur der beteiligten Mikroorganismen-gemeinschaften und auf ihre Reaktion auf sich ändernde Umweltbedingungen. Zu diesem Zweck wurde eine integrierte Forschungsstrategie entwickelt, die Spurengasmessungen mit boden- und molekularökologischen Untersuchungen der Mikroorganismengemeinschaften verknüpft. Langzeitmessungen zu den Methanflüssen werden seit 1998 durchgeführt. Diese Untersuchungen zeigten beträchtliche saisonale und räumliche Schwankungen der Methanemissionen auf, die zwischen 0 und 362 mg m-2 d-1 für die untersuchten Landschaftseinheiten schwankten. Für die Bilanzierung der Methanemissionen für das gesamte Delta wurde erstmals eine Klassifikation der unterschiedlichen Landschaftseinheiten anhand von Landsat-Aufnahmen durchgeführt und für eine Hochrechnung der Methandaten genutzt. Die Mittelwerte der regional gewichteten täglichen Methanemissionen des Lenadeltas (10 mg m-2 d-1) sind nur ein Fünftel so hoch wie die berechneten Werte für andere arktische Tundren. Die errechnete jährliche Methanemission des Lenadeltas beträgt demnach ungefähr 0,03 Tg. Die geringen Methanemissionsraten dieser Studie können durch den bisher noch nicht realisierten integrativen Ansatz, der Langzeitmessungen und Landschafts-klassifizierungen beinhaltet, erklärt werden. Bodentemperatur und oberflächennahe atmosphärische Turbulenzen wurden als die antreibenden Größen der Methanfreisetzung identifiziert. Ein Modell, das auf diesen Variablen basiert, erklärt die Veränderungen der Methanflüsse gemäß der dynamischen mikrobiellen Prozesse und der Diffusion von Methan durch den Boden und die Pflanzen zutreffend. Die Ergebnisse zeigen, dass das Lenadelta erheblich zur globalen Methanemission aufgrund seiner weitreichenden Feuchtgebiete beiträgt. Die mikrobiologischen Untersuchungen zeigten, dass Permafrostböden durch eine hohe Anzahl von Mikroorganismen besiedelt wird. Die Gesamtbiomasse ist dabei mit Bodenökosystemen gemäßigter Klimate vergleichbar. Die Stoffwechselaktivitäten von methanogenen Archaeen und methanotrophen Bakterien unterschieden sich erheblich in ihrer Rate und Verteilung im Tiefenprofil sowie zwischen den verschiedenen untersuchten Böden. Die Methanbildungsrate schwankte dabei zwischen 0,3 und 38,9 nmol h-1 g-1, während die Methanoxidation eine Rate von 0,2 bis 7,0 nmol h-1 g-1 aufwies. Phylogenetische Analysen der methanogenen Mikro-organismengemeinschaften zeigten eine ausgeprägte Diversität der methanogenen Archaeen auf. Die Umweltsequenzen bildeten vier spezifische Permafrostcluster aus, die den Gruppen Methanomicrobiaceae, Methanosarcinaceae und Methano-saetaceae zugeordnet werden konnten. Die Ergebnisse zeigen, dass die Methanfreisetzung durch die zugrunde liegenden mikrobiologischen Prozesse im Permafrostboden gesteuert wird. Die beteiligten Mikroorganismen überleben nicht nur in ihrem extremen Habitat, sondern zeigten auch Stoffwechselaktivität unter in-situ-Bedingungen. Ferner konnte gezeigt werden, dass eine geringfügige Zunahme der Temperatur zu einer erheblichen Zunahme der Methanbildungsaktivität in den ständig gefrorenen Permafrostablagerungen führen kann. Im Falle der Permafrostdegradation würde dieses zu einer gesteigerten Freisetzung von Methan führen mit bisher unbekannten Auswirkungen auf das Gesamtbudget der Methanfreistzung aus arktischen Gebieten. Weitere Untersuchungen zur Stresstoleranz von methanogenen Archaeen – insbesondere des neuen Permafrostisolates Methanosarcina SMA-21 - weisen eine unerwartete Widerstandsfähigkeit der Mikroorganismen gegenüber ungünstigen Lebensbedingungen auf. Eine bessere Anpassung an Umweltstress wurde bei 4°C im Vergleich zu 28°C beobachtet. Zum ersten Mal konnte gezeigt werden, dass methanogene Archaeen aus terrestrischem Permafrost unter simulierten Marsbedingungen unbeschadet überleben. Die Ergebnisse zeigen, dass methanogene Archaeen aus Permafrostböden resistenter gegenüber Umweltstress und Marsbedingungen sind als entsprechende Mikroorganismen aus Habitaten, die nicht durch Permafrost gekennzeichnet sind. Mikroorganismen, die den Archaeen aus terrestrischen Permafrosthabitaten ähneln, können als die wahrscheinlichsten Kandidaten für mögliches Leben auf dem Mars angesehen werden. KW - Methankreislauf KW - mikrobielle Prozesse KW - Diversität KW - Spurengasflüsse KW - Permafrostökosysteme KW - methane cycle KW - microbial processes KW - diversity KW - trace gas fluxes KW - permafrost ecosystems Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-15434 ER - TY - THES A1 - Green, Antony Dubach T1 - Phonology limited N2 - Phonology Limited is a study of the areas of phonology where the application of optimality theory (OT) has previously been problematic. Evidence from a wide variety of phenomena in a wide variety of languages is presented to show that interactions involving more than just faithfulness and markedness are best analyzed as involving language-specific morphological constraints rather than universal phonological constraints. OT has proved to be a highly insightful and successful theory of linguistics in general and phonology in particular, focusing as it does on surface forms and treating the relationship between inputs and outputs as a form of conflict resolution. Yet there have also been a number of serious problems with the approach that have led some detractors to argue that OT has failed as a theory of generative grammar. The most serious of these problems is opacity, defined as a state of affairs where the grammatical output of a given input appears to violate more constraints than an ungrammatical competitor. It is argued that these problems disappear once language-specific morphological constraints are allowed to play a significant role in analysis. Specifically, a number of processes of Tiberian Hebrew traditionally considered opaque are reexamined and shown to be straightforwardly transparent, but crucially involving morphological constraints on form, such as a constraint requiring certain morphological forms to end with a syllabic trochee, or a constraint requiring paradigm uniformity with regard to the occurrence of fricative allophones of stop phonemes. Language-specific morphological constraints are also shown to play a role in allomorphy, where a lexeme is associated with more than one input; the constraint hierarchy then decides which input is grammatical in which context. For example, [ɨ]/[ə] and [u]/[ə] alternation found in some lexemes but not in others in Welsh is attributed to the presence of two inputs for the lexemes with the alternation. A novel analysis of the initial consonant mutations of the modern Celtic languages argues that mutated forms are separately listed inputs chosen in appropriate contexts by constraints on morphology and syntax, rather than being outputs that are phonologically unfaithful to their unmutated inputs. Finally, static irregularities and lexical exceptions are examined and shown to be attributable to language-specific morphological constraints. In American English, the distribution of tense and lax vowels is predictable in several contexts; however, in some contexts, the distributions of tense [ɔ] vs. lax [a] and of tense [æ] vs. lax [æ] are not as expected. It is shown that clusters of output-output faithfulness constraints create a pattern to which words are attracted, which however violates general phonological considerations. New words that enter the language first obey the general phonological considerations before being attracted into the language-specific exceptional pattern. T3 - Linguistics in Potsdam - 27 KW - Allomorphy KW - English KW - Hebrew KW - Irish KW - language-specific constraint Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-15512 SN - 978-3-939469-93-3 SN - 1616-7392 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Dreyer, Ingo T1 - Biophysikalische und molekulare Grundlagen der Regulation des Kaliumtransports in Pflanzen T1 - Biophysical and molecular bases of the regulation of potassium transport in plants N2 - Kaliumionen (K+) sind die am häufigsten vorkommenden anorganischen Kationen in Pflanzen. Gemessen am Trockengewicht kann ihr Anteil bis zu 10% ausmachen. Kaliumionen übernehmen wichtige Funktionen in verschiedenen Prozessen in der Pflanze. So sind sie z.B. essentiell für das Wachstum und für den Stoffwechsel. Viele wichtige Enzyme arbeiten optimal bei einer K+ Konzentration im Bereich von 100 mM. Aus diesem Grund halten Pflanzenzellen in ihren Kompartimenten, die am Stoffwechsel beteiligt sind, eine kontrollierte Kaliumkonzentration von etwa 100 mM aufrecht. Die Aufnahme von Kaliumionen aus dem Erdreich und deren Transport innerhalb der Pflanze und innerhalb einer Pflanzenzelle wird durch verschiedene Kaliumtransportproteine ermöglicht. Die Aufrechterhaltung einer stabilen K+ Konzentration ist jedoch nur möglich, wenn die Aktivität dieser Transportproteine einer strikten Kontrolle unterliegt. Die Prozesse, die die Transportproteine regulieren, sind bis heute nur ansatzweise verstanden. Detailliertere Kenntnisse auf diesem Gebiet sind aber von zentraler Bedeutung für das Verständnis der Integration der Transportproteine in das komplexe System des pflanzlichen Organismus. In dieser Habilitationsschrift werden eigene Publikationen zusammenfassend dargestellt, in denen die Untersuchungen verschiedener Regulationsmechanismen pflanzlicher Kaliumkanäle beschrieben werden. Diese Untersuchungen umfassen ein Spektrum aus verschiedenen proteinbiochemischen, biophysikalischen und pflanzenphysiologischen Analysen. Um die Regulationsmechanismen grundlegend zu verstehen, werden zum einen ihre strukturellen und molekularen Besonderheiten untersucht. Zum anderen werden die biophysikalischen und reaktionskinetischen Zusammenhänge der Regulationsmechanismen analysiert. Die gewonnenen Erkenntnisse erlauben eine neue, detailliertere Interpretation der physiologischen Rolle der Kaliumtransportproteine in der Pflanze. N2 - Potassium ions (K+) are the most abundant anorganic cations in plants. They can constitute up to 10% of the plant dry weight. Potassium ions play important roles in different processes in the plant. For example, they are essential for growth and for metabolism. Many important enzymes work optimally at a K+ concentration within the range of about 100 mM. Therefore, plant cells maintain a controlled potassium concentration of approximately 100 mM in their compartments, which are involved in metabolism. The uptake of potassium ions from the soil and their transport within the plant and within a plant cell is accomplished by different potassium transporter proteins. However, the maintenance of a stable K+ concentration is only possible if the activity of these transporter proteins is subject to strict control. Up today the processes regulating the transporter proteins are only rudimentarily understood. More detailed knowledge in this area is, however, of central importance for the understanding of the integration of the transporter proteins into the complex system of the plant organism. This Habilitation-thesis summarizes own publications, in which the investigations of different regulation mechanisms of plant potassium channels are described. These investigations cover a spectrum of different protein-biochemical, biophysical and plant-physiological analyses. In order to understand the regulation mechanisms, on the one hand their structural and molecular characteristics are examined. On the other hand the biophysical and reaction-kinetic properties of the regulation mechanisms are analyzed. The obtained insights allow a new, more detailed view on the physiological role of potassium transporter proteins in the plant. KW - Kaliumion KW - Ionenkanal KW - Elektrophysiologie KW - Biophysik KW - Schmalwand KW - potassium ions KW - ion channel KW - electrophysiology KW - biophysics KW - Arabidopsis Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7708 ER - TY - THES A1 - Blenau, Wolfgang T1 - Aminerge Signaltransduktion bei Insekten T1 - Aminergic signal transduction in insects N2 - Biogene Amine sind kleine organische Verbindungen, die sowohl bei Wirbeltieren als auch bei Wirbellosen als Neurotransmitter, Neuromodulatoren und/oder Neurohormone wirken können. Sie bilden eine bedeutende Gruppe von Botenstoffen und entfalten ihre Wirkungen über die Bindung an eine bestimmte Klasse von Rezeptorproteinen, die als G-Protein-gekoppelte Rezeptoren bezeichnet werden. Bei Insekten gehören zur Substanzklasse der biogenen Amine die Botenstoffe Dopamin, Tyramin, Octopamin, Serotonin und Histamin. Neben vielen anderen Wirkung ist z.B. gezeigt worden, daß einige dieser biogenen Amine bei der Honigbiene (Apis mellifera) die Geschmacksempfindlichkeit für Zuckerwasser-Reize modulieren können. Ich habe verschiedene Aspekte der aminergen Signaltransduktion an den „Modellorganismen“ Honigbiene und Amerikanische Großschabe (Periplaneta americana) untersucht. Aus der Honigbiene, einem „Modellorganismus“ für das Studium von Lern- und Gedächtnisvorgängen, wurden zwei Dopamin-Rezeptoren, ein Tyramin-Rezeptor, ein Octopamin-Rezeptor und ein Serotonin-Rezeptor charakterisiert. Die Rezeptoren wurden in kultivierten Säugerzellen exprimiert, um ihre pharmakologischen und funktionellen Eigenschaften (Kopplung an intrazelluläre Botenstoffwege) zu analysieren. Weiterhin wurde mit Hilfe verschiedener Techniken (RT-PCR, Northern-Blotting, in situ-Hybridisierung) untersucht, wo und wann während der Entwicklung die entsprechenden Rezeptor-mRNAs im Gehirn der Honigbiene exprimiert werden. Als Modellobjekt zur Untersuchung der zellulären Wirkungen biogener Amine wurden die Speicheldrüsen der Amerikanischen Großschabe genutzt. An isolierten Speicheldrüsen läßt sich sowohl mit Dopamin als auch mit Serotonin Speichelproduktion auslösen, wobei Speichelarten unterschiedlicher Zusammensetzung gebildet werden. Dopamin induziert die Bildung eines völlig proteinfreien, wäßrigen Speichels. Serotonin bewirkt die Sekretion eines proteinhaltigen Speichels. Die Serotonin-induzierte Proteinsekretion wird durch eine Erhöhung der Konzentration des intrazellulären Botenstoffs cAMP vermittelt. Es wurden die pharmakologischen Eigenschaften der Dopamin-Rezeptoren der Schaben-Speicheldrüsen untersucht sowie mit der molekularen Charakterisierung putativer aminerger Rezeptoren der Schabe begonnen. Weiterhin habe ich das ebony-Gen der Schabe charakterisiert. Dieses Gen kodiert für ein Enzym, das wahrscheinlich bei der Schabe (wie bei anderen Insekten) an der Inaktivierung biogener Amine beteiligt ist und im Gehirn und in den Speicheldrüsen der Schabe exprimiert wird. N2 - Biogenic amines are small organic compounds that act as neurotransmitters, neuromodulators and/or neurohormones in vertebrates and in invertebrates. They form an important group of messenger substances and mediate their diverse effects by binding to membrane receptors that primarily belong to the large gene-family of G protein-coupled receptors. In insects, the group of biogenic amine messengers consists of five members: dopamine, tyramine, octopamine, serotonin, and histamine. Besides many other effects, some of these biogenic amines were shown, for example, to modulate gustatory sensitivity to sucrose stimuli in the honeybee (Apis mellifera). I have investigated various aspects of the aminergic signal transduction in the “model organisms” honeybee and American cockroach (Periplaneta americana). So far, I have characterized two dopamine receptors, a tyramine receptor, an octopamine receptor and a serotonin receptor of the honeybee, which is well-known for its learning and memory capacities. The receptors where expressed in cultivated mammalian cells in order to analyze their pharmacological and functional (i.e., second messenger coupling) properties. The spatiotemporal expression patterns of the respective receptor mRNA were investigated in the honeybee brain by using different techniques (RT PCR, Northern blotting, in situ-hybridization). The salivary glands of the American cockroach were used as a model object in order to investigate the cellular effects of biogenic amines. Both dopamine and serotonin trigger salivary secretion in isolated salivary glands. The quality of the secreted saliva is, however, different. Stimulation of the glands by serotonin results in the production of a protein-rich saliva, whereas stimulation by dopamine results in saliva that is protein-free. Serotonin-induced protein secretion is mediated by an increase in the intracellular concentration of cAMP. The pharmacological properties of dopamine receptors associated with cockroach salivary glands were investigated and the molecular characterization of putative aminergic receptors of the cockroach was initiated. Furthermore, I have characterized the ebony gene of the cockroach. This gene encodes an enzyme that is probably involved in the inactivation of biogenic amines in the cockroach (as in other insects). The ebony gene is expressed in the brain and in the salivary glands of the cockroach. KW - Neurotransmitter-Rezeptor KW - Dopamin KW - Tyramin KW - Octopamin KW - Serotonin KW - Insekten KW - Biene KW - Amerikanische Schabe KW - Biogene Amine KW - G-Protein-gekoppelte-Rezeptoren KW - biogenic amines KW - G protein-coupled receptors KW - honeybee KW - salivary gland Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7568 ER - TY - THES A1 - Zöller, Gert T1 - Critical states of seismicity : modeling and data analysis T1 - Kritische Zustände seismischer Dynamik : Modellierung und Datenanalyse N2 - The occurrence of earthquakes is characterized by a high degree of spatiotemporal complexity. Although numerous patterns, e.g. fore- and aftershock sequences, are well-known, the underlying mechanisms are not observable and thus not understood. Because the recurrence times of large earthquakes are usually decades or centuries, the number of such events in corresponding data sets is too small to draw conclusions with reasonable statistical significance. Therefore, the present study combines both, numerical modeling and analysis of real data in order to unveil the relationships between physical mechanisms and observational quantities. The key hypothesis is the validity of the so-called "critical point concept" for earthquakes, which assumes large earthquakes to occur as phase transitions in a spatially extended many-particle system, similar to percolation models. New concepts are developed to detect critical states in simulated and in natural data sets. The results indicate that important features of seismicity like the frequency-size distribution and the temporal clustering of earthquakes depend on frictional and structural fault parameters. In particular, the degree of quenched spatial disorder (the "roughness") of a fault zone determines whether large earthquakes occur quasiperiodically or more clustered. This illustrates the power of numerical models in order to identify regions in parameter space, which are relevant for natural seismicity. The critical point concept is verified for both, synthetic and natural seismicity, in terms of a critical state which precedes a large earthquake: a gradual roughening of the (unobservable) stress field leads to a scale-free (observable) frequency-size distribution. Furthermore, the growth of the spatial correlation length and the acceleration of the seismic energy release prior to large events is found. The predictive power of these precursors is, however, limited. Instead of forecasting time, location, and magnitude of individual events, a contribution to a broad multiparameter approach is encouraging. N2 - Das Auftreten von Erdbeben zeichnet sich durch eine hohe raumzeitliche Komplexität aus. Obwohl zahlreiche Muster, wie Vor- und Nachbeben bekannt sind, weiß man wenig über die zugrundeliegenden Mechanismen, da diese sich direkter Beobachtung entziehen. Die Zeit zwischen zwei starken Erdbeben in einer seismisch aktiven Region beträgt Jahrzehnte bis Jahrhunderte. Folglich ist die Anzahl solcher Ereignisse in einem Datensatz gering und es ist kaum möglich, allein aus Beobachtungsdaten statistisch signifikante Aussagen über deren Eigenschaften abzuleiten. Die vorliegende Arbeit nutzt daher numerische Modellierungen einer Verwerfungszone in Verbindung mit Datenanalyse, um die Beziehung zwischen physikalischen Mechanismen und beobachteter Seismizität zu studieren. Die zentrale Hypothese ist die Gültigkeit des sogenannten "kritischen Punkt Konzeptes" für Seismizität, d.h. starke Erdbeben werden als Phasenübergänge in einem räumlich ausgedehnten Vielteilchensystem betrachtet, ähnlich wie in Modellen aus der statistischen Physik (z.B. Perkolationsmodelle). Es werden praktische Konzepte entwickelt, die es ermöglichen, kritische Zustände in simulierten und in beobachteten Daten sichtbar zu machen. Die Resultate zeigen, dass wesentliche Eigenschaften von Seismizität, etwa die Magnitudenverteilung und das raumzeitliche Clustern von Erdbeben, durch Reibungs- und Bruchparameter bestimmt werden. Insbesondere der Grad räumlicher Unordnung (die "Rauhheit") einer Verwerfungszone hat Einfluss darauf, ob starke Erdbeben quasiperiodisch oder eher zufällig auftreten. Dieser Befund zeigt auf, wie numerische Modelle genutzt werden können, um den Parameterraum für reale Verwerfungen einzugrenzen. Das kritische Punkt Konzept kann in synthetischer und in beobachteter Seismizität verifiziert werden. Dies artikuliert sich auch in Vorläuferphänomenen vor großen Erdbeben: Die Aufrauhung des (unbeobachtbaren) Spannungsfeldes führt zu einer Skalenfreiheit der (beobachtbaren) Größenverteilung; die räumliche Korrelationslänge wächst und die seismische Energiefreisetzung wird beschleunigt. Ein starkes Erdbeben kann in einem zusammenhängenden Bruch oder in einem unterbrochenen Bruch (Vorbeben und Hauptbeben) stattfinden. Die beobachtbaren Vorläufer besitzen eine begrenzte Prognosekraft für die Auftretenswahrscheinlichkeit starker Erdbeben - eine präzise Vorhersage von Ort, Zeit, und Stärke eines nahenden Erdbebens ist allerdings nicht möglich. Die genannten Parameter erscheinen eher vielversprechend als Beitrag zu einem umfassenden Multiparameteransatz für eine verbesserte zeitabhängige Gefährdungsabschätzung. KW - Seismizität KW - Erdbebenvorhersage KW - statistische Physik KW - mathematische Modellierung KW - Datenanalyse KW - seismicity KW - earthquake prediction KW - statistical physics KW - mathematical modeling KW - data analysis Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7427 ER - TY - THES A1 - Kumke, Michael Uwe T1 - Huminstoffe und organische Modellliganden und ihre Wechselwirkung mit Metallionen und polyzyklischen aromatischen Kohlenwasserstoffen T1 - Humic substances and organic model ligands – Interactions with metal ions and polycyclic aromatic hydrocarbons N2 - Immobilisierung bzw. Mobilisierung und Transport von Schadstoffen in der Umwelt, besonders in den Kompartimenten Boden und Wasser, sind von fundamentaler Bedeutung für unser (Über)Leben auf der Erde. Einer der Hauptreaktionspartner für organische und anorganische Schadstoffe (Xenobiotika) in der Umwelt sind Huminstoffe (HS). HS sind Abbauprodukte pflanzlichen und tierischen Gewebes, die durch eine Kombination von chemischen und biologischen Ab- und Umbauprozessen entstehen. Bedingt durch ihre Genese stellen HS außerordentlich heterogene Stoffsysteme dar, die eine Palette von verschiedenartigen Wechselwirkungen mit Schadstoffen zeigen. Die Untersuchung der fundamentalen Wechselwirkungsmechanismen stellt ebenso wie deren quantitative Beschreibung höchste Anforderungen an die Untersuchungsmethoden. Zur qualitativen und quantitativen Charakterisierung der Wechselwirkungen zwischen HS und Xenobiotika werden demnach analytische Methoden benötigt, die bei der Untersuchung von extrem heterogenen Systemen aussagekräftige Daten zu liefern vermögen. Besonders spektroskopische Verfahren, wie z.B. lumineszenz-basierte Verfahren, besitzen neben der hervorragenden Selektivität und Sensitivität, auch eine Multidimensionalität (bei der Lumineszenz sind es die Beobachtungsgrößen Intensität IF, Anregungswellenlänge lex, Emissionswellenlänge lem und Fluoreszenzabklingzeit tF), die es gestattet, auch heterogene Systeme wie HS direkt zu untersuchen. Zur Charakterisierung können sowohl die intrinsischen Fluoreszenzeigenschaften der HS als auch die von speziell eingeführten Lumineszenzsonden verwendet werden. In beiden Fällen werden die zu Grunde liegenden fundamentalen Konzepte der Wechselwirkungen von HS mit Xenobiotika untersucht und charakterisiert. Für die intrinsische Fluoreszenz der HS konnte gezeigt werden, dass neben molekularen Strukturen besonders die Verknüpfung der Fluorophore im Gesamt-HS-Molekül von Bedeutung ist. Konformative Freiheit und die Nachbarschaft zu als Energieakzeptor fungierenden HS-eigenen Gruppen sind wichtige Komponenten für die Charakteristik der HS-Fluoreszenz. Die Löschung der intrinsischen Fluoreszenz durch Metallkomplexierung ist demnach auch das Resultat der veränderten konformativen Freiheit der HS durch die gebundenen Metallionen. Es zeigte sich, dass abhängig vom Metallion sowohl Löschung als auch Verstärkung der intrinsischen HS-Fluoreszenz beobachtet werden kann. Als extrinsische Lumineszenzsonden mit wohl-charakterisierten photophysikalischen Eigenschaften wurden polyzyklische aromatische Kohlenwasserstoffe und Lanthanoid-Ionen eingesetzt. Durch Untersuchungen bei sehr niedrigen Temperaturen (10 K) konnte erstmals die Mikroumgebung von an HS gebundenen hydrophoben Xenobiotika untersucht werden. Im Vergleich mit Raumtemperaturexperimenten konnte gezeigt werden, dass hydrophobe Xenobiotika an HS-gebunden in einer Mikroumgebung, die in ihrer Polarität analog zu kurzkettigen Alkoholen ist, vorliegen. Für den Fall der Metallkomplexierung wurden Energietransferprozesse zwischen HS und Lanthanoidionen bzw. zwischen verschiedenen, gebundenen Lanthanoidionen untersucht. Basierend auf diesen Messungen können Aussagen über die beteiligten elektronischen Zustände der HS einerseits und Entfernungen von Metallbindungsstellen in HS selbst angeben werden. Es ist dabei zu beachten, dass die Experimente in Lösung bei realen Konzentrationen durchgeführt wurden. Aus Messung der Energietransferraten können direkte Aussagen über Konformationsänderungen bzw. Aggregationsprozesse von HS abgeleitet werden. N2 - Transport and fate of xenobiotics in the environment, especially in water and soil, are of utmost importance for life on earth. A major reaction partner for xenobiotics in the environment are humic substances (HS). HS are degradation products of plant and animal tissue, which are formed in a combination of subsequent chemical and/or biochemical processes. Because of the complex history of their origin HS are extremely heterogeneous mixtures of different compounds. Consequently, they posses a great variety of interaction capabilities with various xenobiotics. The investigations of the fundamental interaction mechanisms between HS and xenobiotics make high demands on the analytical techniques used. Especially spectroscopic techniques are promising for the investigation of interaction mechanisms in complex systems. Luminescence spectroscopy has the great advantage of outstanding sensitivity and of multidimensionality, which in principle allows the investigation of HS under environmental relevant conditions. For the characterisation of interaction processes of HS with xenobiotics the intrinsic fluorescence of HS as well as the luminescence of extrinsic probes can be used. The intrinsic HS fluorescence is determined by the molecular structure as well as the connection of the basic fluorophores. Conformational freedom as well as the presence of energy accepting groups in the neighbourhood of the fluorophores are highly important for the overall intrinsic HS fluorescence. The presence of metal ions can either quench or enhance the intrinsic HS fluorescence, which depends on the metal ion as well as on the origin of the HS investigated. While in most cases Al3+ ions enhance the intrinsic HS fluorescence, Ln3+ ions induce a fluorescence quenching. Polycyclic aromatic hydrocarbons were used as extrinsic fluorescence probes in order to characterize the interaction of HS and hydrophobic organic xenobiotics. In investigations at ultra-low temperatures (10 K) it could be shown that pyrene is bound in a HS microenvironment with an polarity which resembles that of small alcohols (e.g., butanol). In case of metal complexation, the lanthanide ions Eu3+ and Tb3+ were used as luminescence probes. Due to the outstanding luminescence properties of those ions, information about metal binding sites in HS were obtained. Based on the measurements of intramolecular and intermolecular energy transfer processes average distances of metal binding sites were deduced. KW - Fluoreszenz KW - Huminstoffe KW - Lanthanoide KW - Huminstoffe KW - Fluoreszenz KW - Lanthanoide KW - Resonanzenergietransfer KW - Lumineszenzsonden KW - Fluorescence KW - humic substances KW - resonance energy transfer KW - luminescence probes KW - lanthanides Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6066 ER - TY - THES A1 - Mellinger, Axel T1 - Charge storage in electret polymers: mechanisms, characterization and applications T1 - Ladungsspeicherung in Elektret-Polymeren: Mechanismen, Charakterisierung und Anwendungen N2 - Electrets are materials capable of storing oriented dipoles or an electric surplus charge for long periods of time. The term "electret" was coined by Oliver Heaviside in analogy to the well-known word "magnet". Initially regarded as a mere scientific curiosity, electrets became increasingly imporant for applications during the second half of the 20th century. The most famous example is the electret condenser microphone, developed in 1962 by Sessler and West. Today, these devices are produced in annual quantities of more than 1 billion, and have become indispensable in modern communications technology. Even though space-charge electrets are widely used in transducer applications, relatively little was known about the microscopic mechanisms of charge storage. It was generally accepted that the surplus charges are stored in some form of physical or chemical traps. However, trap depths of less than 2 eV, obtained via thermally stimulated discharge experiments, conflicted with the observed lifetimes (extrapolations of experimental data yielded more than 100000 years). Using a combination of photostimulated discharge spectroscopy and simultaneous depth-profiling of the space-charge density, the present work shows for the first time that at least part of the space charge in, e.g., polytetrafluoroethylene, polypropylene and polyethylene terephthalate is stored in traps with depths of up to 6 eV, indicating major local structural changes. Based on this information, more efficient charge-storing materials could be developed in the future. The new experimental results could only be obtained after several techniques for characterizing the electrical, electromechanical and electrical properties of electrets had been enhanced with in situ capability. For instance, real-time information on space-charge depth-profiles were obtained by subjecting a polymer film to short laser-induced heat pulses. The high data acquisition speed of this technique also allowed the three-dimensional mapping of polarization and space-charge distributions. A highly active field of research is the development of piezoelectric sensor films from electret polymer foams. These materials store charges on the inner surfaces of the voids after having been subjected to a corona discharge, and exhibit piezoelectric properties far superior to those of traditional ferroelectric polymers. By means of dielectric resonance spectroscopy, polypropylene foams (presently the most widely used ferroelectret) were studied with respect to their thermal and UV stability. Their limited thermal stability renders them unsuitable for applications above 50 °C. Using a solvent-based foaming technique, we found an alternative material based on amorphous Teflon® AF, which exhibits a stable piezoelectric coefficient of 600 pC/N at temperatures up to 120 °C. N2 - Elektrete sind Materialien, welche orientierte elektrische Dipole oder eine elektrische Überschussladung über längere Zeit speichern können. Der Begriff wurde 1885 von Oliver Heaviside in Anlehnung an das Wort "Magnet" eingeführt. Zunächst nur als wissenschaftliche Kuriosität betrachtet, wurden sie seit Mitte des 20. Jahrhunderts in zunehmendem Maße für technische Anwendungen interessant. Als bekanntestes Beispiel sei hier das 1962 von Sessler und West entwickelte Elektret-Kondensator-Mikrofon erwähnt, welches in jährlichen Stückzahlen von mehr als 1 Milliarde hergestellt wird und aus der modernen Kommunikationstechnik nicht mehr wegzudenken ist. Trotz der weit verbreiteten Anwendungen in der Sensorik war bisher nur wenig über die mikroskopischen Mechanismen der Ladungsspeicherung bekannt. Allgemein wird davon ausgegangen, dass die Überschussladungen in physikalischen oder chemischen Haftstellen gespeichert sind. Bisherige Experimente zur thermisch stimulierten Entladung ergaben Bindungsenergien unterhalb von 2 eV, was im Widerspruch zu den beobachteten Lebensdauern (extrapoliert wurden Werte von mehr als 100000 Jahren) steht. Mittels photostimulierter Entladung sowie simultaner Messung des Ladungsprofils konnte nun für eine Reihe wichtiger Elektret-Polymere (darunter das unter dem Handelsnamen Teflon® bekannte Polytetrafluorethylen, Polypropylen und Polyethylenterephthalat) erstmals gezeigt werden, dass zumindest ein Teil der Ladungen in tiefen Haftstellen von bis zu 6 eV gespeichert wird, was auf eine tiefgreifende lokale Strukturänderung hinweist. Ausgehend von dieser Information könnten in Zukunft Materialien mit verbesserter Ladungsspeicherung gezielt entwickelt werden. Die neuen Messungen waren erst möglich, nachdem mehrere Verfahren zur Bestimmung elektrischer, elektromechanischer und mechanischer Eigenschaften von Elektreten für einen In Situ-Einsatz weiterentwickelt wurden. So konnten z. B. durch Anregung von kurzen Wärmepulsen in der Polymerfolie Informationen über das Tiefenprofil der Raumladung in Echtzeit gewonnen werden. Die schnelle Abtastung ermöglichte darüber hinaus die dreidimensionale Kartierung von Polarisationsprofilen und Raumladungen. Ein zur Zeit sehr aktives Forschungsgebiet ist die Entwicklung piezoelektrischer Sensorfolien aus geschäumten Elektret-Polymeren. Nach elektrischer Aufladung in einer Korona-Entladung werden Ladungen an der Innenseite der Gasbläschen gespeichert, wodurch das Material piezoelektrische Eigenschaften erhält, welche deutlich besser sind als die der herkömmlichen ferroelektrischen Polymere. Für die bisher gebräuchlichen Polypropylenschäume wurde neben der Temperaturstabilität mittels dielektrischer Resonanzspektroskopie auch das Verhalten unter UV-Bestrahlung untersucht. Aufgrund ihrer beschränkten thermischen Stabilität sind diese Schäume nicht für Anwendungen oberhalb von 50 °C geeignet. Mittels eines Lösungsmittel-basierten Schäumungsverfahrens wurde ein alternativer Werkstoff auf der Basis von amorphem Teflon® AF entwickelt, welcher einen stabilen piezoelektrischen Koeffizienten von 600 pC/N bei Temperaturen von bis zu 120 °C aufweist. KW - Elektret KW - Elektretfolie KW - Polymere / Physik KW - Fluorpolymere KW - Dielektrikum KW - Ladungsspeicherung KW - Ferroelektret KW - electret KW - charge storage KW - dielectrics KW - ferroelectret Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5689 ER - TY - THES A1 - Rader, Oliver T1 - Electron quantization and localization in metal films and nanostructures N2 - Es ist seit einigen Jahren bekannt, dass Elektronen unter bestimmten Bedingungen in dünne Filme eingeschlossen werden können, selbst wenn diese Filme aus Metall bestehen und auf Metall-Substrat aufgebracht werden. In Photoelektronenspektren zeigen diese Filme charakteristische diskrete Energieniveaus, und es hat sich herausgestellt, dass sie zu großen, technisch nutzbaren Effekten führen können, wie der oszillatorischen magnetischen Kopplung in modernen Festplatten-Leseköpfen. In dieser Arbeit wird untersucht, inwieweit die der Quantisierung in zweidimensionalen Filmen zu Grunde liegenden Konzepte auf niedrigere Dimensionalität übertragbar sind. Das bedeutet, dass schrittweise von zweidimensionalen Filmen auf eindimensionale Nanostrukturen übergegangen wird. Diese Nanostrukturen sind zum einen die Terrassen auf atomar gestuften Oberflächen, aber auch Atomketten, die auf diese Terrassen aufgebracht werden, bis hin zu einer vollständigen Bedeckung mit atomar dünnen Nanostreifen. Daneben werden Selbstorganisationseffekte ausgenutzt, um zu perfekt eindimensionalen Atomanordnungen auf Oberflächen zu gelangen. Die winkelaufgelöste Photoemission ist als Untersuchungsmethode deshalb so geeignet, weil sie das Verhalten der Elektronen in diesen Nanostrukturen in Abhängigkeit von der Raumrichtung zeigt, und unterscheidet sich darin beispielsweise von der Rastertunnelmikroskopie. Damit ist es möglich, deutliche und manchmal überraschend große Effekte der eindimensionalen Quantisierung bei verschiedenen exemplarischen Systemen zum Teil erstmals nachzuweisen. Die für zweidimensionale Filme wesentliche Rolle von Bandlücken im Substrat wird für Nanostrukturen bestätigt. Hinzu kommt jedoch eine bei zweidimensionalen Filmen nicht vorhandene Ambivalenz zwischen räumlicher Einschränkung der Elektronen in den Nanostrukturen und dem Effekt eines Übergitters aus Nanostrukturen sowie zwischen Effekten des Elektronenverhaltens in der Probe und solchen des Messprozesses. Letztere sind sehr groß und können die Photoemissionsspektren dominieren. Abschließend wird der Effekt der verminderten Dimensionalität speziell für die d-Elektronen von Mangan untersucht, die zusätzlich starken Wechselwirkungseffekten unterliegen. Auch hierbei treten überraschende Ergebnisse zu Tage. N2 - It has been known for several years that under certain conditions electrons can be confined within thin layers even if these layers consist of metal and are supported by a metal substrate. In photoelectron spectra, these layers show characteristic discrete energy levels and it has turned out that these lead to large effects like the oscillatory magnetic coupling technically exploited in modern hard disk reading heads. The current work asks in how far the concepts underlying quantization in two-dimensional films can be transferred to lower dimensionality. This problem is approached by a stepwise transition from two-dimensional layers to one-dimensional nanostructures. On the one hand, these nanostructures are represented by terraces on atomically stepped surfaces, on the other hand by atom chains which are deposited onto these terraces up to complete coverage by atomically thin nanostripes. Furthermore, self organization effects are used in order to arrive at perfectly one-dimensional atomic arrangements at surfaces. Angle-resolved photoemission is particularly suited as method of investigation because is reveals the behavior of the electrons in these nanostructures in dependence of the spacial direction which distinguishes it from, e. g., scanning tunneling microscopy. With this method intense and at times surprisingly large effects of one-dimensional quantization are observed for various exemplary systems, partly for the first time. The essential role of bandgaps in the substrate known from two-dimensional systems is confirmed for nanostructures. In addition, we reveal an ambiguity without precedent in two-dimensional layers between spacial confinement of electrons on the one side and superlattice effects on the other side as well as between effects caused by the sample and by the measurement process. The latter effects are huge and can dominate the photoelectron spectra. Finally, the effects of reduced dimensionality are studied in particular for the d electrons of manganese which are additionally affected by strong correlation effects. Surprising results are also obtained here. ---------------------------- Die Links zur jeweiligen Source der im Appendix beigefügten Veröffentlichungen befinden sich auf Seite 83 des Volltextes. T2 - Electron quantization and localization in metal films and nanostructures KW - elektronische Struktur KW - elektronische Eigenschaften KW - Dispersion KW - reduzierte Dimensionalität KW - Oberfläche KW - Nanostruktur KW - Quantendraht KW - Terrasse ... KW - electronic structure KW - electronic properties KW - dispersion KW - reduced dimensionality KW - 1D KW - 2D KW - surface KW - nanostructure KW - quantum wire KW - terrace ... Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001912 ER - TY - THES A1 - Schlaad, Helmut T1 - Polymer self-assembly : adding complexity to mesostructures of diblock copolymers by specific interactions N2 - In dieser Arbeit wurde die Rolle selektiver, nicht-kovalenter Wechselwirkungen bei der Selbstorganisation von Diblockcopolymeren untersucht. Durch Einführung elektrostatischer, dipolarer Wechselwirkungen oder Wasserstoffbrückenbindungen sollte es gelingen, komplexe Mesostrukturen zu erzeugen und die Ordnung vom Nanometerbereich auf größere Längenskalen auszuweiten. Diese Arbeit ist im Rahmen von Biomimetik zu sehen, da sie Konzepte der synthetischen Polymer- und Kolloidchemie und Grundprinzipien der Strukturbildung in supramolekularen und biologischen Systemen verbindet. Folgende Copolymersysteme wurden untersucht: (i) Blockionomere, (ii) Blockcopolymere mit chelatisierenden Acetoacetoxyeinheiten und (iii) Polypeptid-Blockcopolymere. N2 - In this work, the basic principles of self-organization of diblock copolymers having the in¬herent property of selective or specific non-covalent binding were examined. By the introduction of electrostatic, dipole–dipole, or hydrogen bonding interactions, it was hoped to add complexity to the self-assembled mesostructures and to extend the level of ordering from the nanometer to a larger length scale. This work may be seen in the framework of biomimetics, as it combines features of synthetic polymer and colloid chemistry with basic concepts of structure formation applying in supramolecular and biological systems. The copolymer systems under study were (i) block ionomers, (ii) block copolymers with acetoacetoxy chelating units, and (iii) polypeptide block copolymers. T2 - Polymer self-assembly : adding complexity to mesostructures of diblock copolymers by specific interactions KW - block copolymer KW - polypeptide KW - controlled polymerization KW - self-assembly KW - specific interactions KW - micelle KW - vesicle KW - solid-state structure KW - colloids KW - Blockcopolymer KW - Polypeptid KW - kontrollierte Polymerisation KW - Selbstorganisation KW - spezifische Wechselwirkungen KW - Mizelle KW - Vesikel KW - Festkörperstruktur KW - Kol Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001824 ER - TY - THES A1 - Fendt, Christian T1 - Formation of astrophysical jets N2 - populärwissenschaftlicher Abstract: Astrophysikalische Jets sind hochkollimierte Plasmaströmungen hoher Geschwindigkeit. Sie werden als allgemeines Phänomen bei unterschiedlichsten astronomischen Quellen gefunden - bei Objekten die sich sowohl in der Grössenskala als auch im Energieumsatz um viele Grössenordnungen unterscheiden. Jets werden beobachtet bei jungen stellaren Objekten (etwa TTauri-Sternen oder eingebettete IR-Quellen), bei sogenannten Mikroquasaren und bei aktiven galaktischen Kernen (etwa Radiogalaxien oder Quasare). So unterschiedlich die Jetquellen von ihrer Erscheinung sein mögen, zwei Tatsachen scheinen sie zu vereinen: Alle Jetquellen zeigen ebenfalls Hinweise auf die Existenz einer Akkretionsscheibe und von Magnetfeldern. Damit sind die wichtigsten Punkte einer Theorie der Jetentstehung schon umrissen. Sie muss sowohl die komplexe Struktur der Jetquelle berücksichtigen - ein System bestehend aus einem Zentralobjekt, der es umgebenden Scheibe, und dem Jet - als auch die magnetohydrodynamische Wechselwirkung zwischen diesen Komponenten. Die magnetohydrodynamischen Gleichungen für solch ein Problem sind derart kompliziert, dass sie meist nur numerisch, also nur mit dem Computer zu lösen sind. Zusätzlich sind viele vereinfachende Annahmen notwendig, da sonst auch der Computer überfordert waere. Im allgemeinen sind folgende Fragestellungen zu lösen: - Die Frage, wie ein Scheibenwind langsamer Geschwindigkeit beschleunigt wird und in einen Jet kollimiert wird ("jet formation"). - Die Frage, wie ein Ausfluss aus der Akkretionsscheibe überhaupt entsteht, d.h. die Frage wie die akkretierende Materie der Scheibe in den Scheibenwind umgelenkt wird ("jet launching"). - Die Frage, wie und wo das Magnetfeld, das zur Jetentstehung notwendig scheint, erzeugt wird. - Die Frage der Stabilität des asymptotischen Jets über weite Laengenskalen und die Rolle der Strahlungsprozesse. Die vorliegende Arbeit konzentriert sich auf die erste Frage. Der Versuch ihrer Beantwortung wird auf verschiedene Weise angestrebt. Zum einen durch Lösung der zeitunabhängigen Gleichungen, mit deren Hilfe das gesamte Jetentstehungsgebiet numerisch erfasst werden kann, zum anderen durch zeitabhängige Simulationen, die zwar nur einen Ausschnitt auflösen, dafür aber die zeitliche Entwicklung des Jets liefern koennen. Es werden relativistische und nicht-relativistische Lösungen diskutiert, Jets, die einen magnetisierten Stern im Ursprung haben und solche, wo dort ein schwarzes Loch existiert. Insgeamt sind grundlegenden Resultate aber allgemein gültig. Sie bestätigen die Vorstellung der magnetohydrodynamischen Entstehung astrophysikalischer Jets aus Akkretionsscheiben. N2 - Highly collimated, high velocity streams of hot plasma – the jets – are observed as a general phenomenon being found in a variety of astrophysical objects regarding their size and energy output. Known as jet sources are protostellar objects (T Tauri stars, embedded IR sources), galactic high energy sources ("microquasars"), and active galactic nuclei (extragalactic radio sources and quasars). Within the last two decades our knowledge regarding the processes involved in astro-physical jet formation has condensed in a kind of standard model. This is the scenario of a magnetohydrodynamically accelerated and collimated jet stream launched from the innermost part of an accretion disk close to the central object. Traditionally, the problem of jet formation is divided in two categories. One is the question how to collimate and accelerate an uncollimated low velocity disk wind into a jet. The second is the question how to initiate that outflow from a disk, i.e. how to turn accretion of matter into an ejection as a disk wind. My own work is mainly related to the first question, the collimation and acceleration process. Due to the complexity of both, the physical processes believed to be responsible for the jet launching and also the spatial configuration of the physical components of the jet source, the enigma of jet formation is not yet completely understood. On the theoretical side, there has been a substantial advancement during the last decade from purely station-ary models to time-dependent simulations lead by the vast increase of computer power. Observers, on the other hand, do not yet have the instruments at hand in order to spatially resolve observe the very jet origin. It can be expected that also the next years will yield a substantial improvement on both tracks of astrophysical research. Three-dimensional magnetohydrodynamic simu-lations will improve our understanding regarding the jet-disk interrelation and the time-dependent character of jet formation, the generation of the magnetic field in the jet source, and the interaction of the jet with the ambient medium. Another step will be the combina-tion of radiation transfer computations and magnetohydrodynamic simulations providing a direct link to the observations. At the same time, a new generation of telescopes (VLT, NGST) in combination with new instrumental techniques (IR-interferometry) will lead to a "quantum leap" in jet observation, as the resolution will then be sufficient in order to zoom into the innermost region of jet formation. T2 - Formation of astrophysical jets Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000733 ER - TY - THES A1 - Rosenblum, Michael T1 - Phase synchronization of chaotic systems : from theory to experimental applications N2 - In einem klassischen Kontext bedeutet Synchronisierung die Anpassung der Rhythmen von selbst-erregten periodischen Oszillatoren aufgrund ihrer schwachen Wechselwirkung. Der Begriff der Synchronisierung geht auf den berühmten niederläandischen Wissenschaftler Christiaan Huygens im 17. Jahrhundert zurück, der über seine Beobachtungen mit Pendeluhren berichtete. Wenn zwei solche Uhren auf der selben Unterlage plaziert wurden, schwangen ihre Pendel in perfekter Übereinstimmung. Mathematisch bedeutet das, daß infolge der Kopplung, die Uhren mit gleichen Frequenzen und engverwandten Phasen zu oszillieren begannen. Als wahrscheinlich ältester beobachteter nichtlinearer Effekt wurde die Synchronisierung erst nach den Arbeiten von E. V. Appleton und B. Van der Pol gegen 1920 verstanden, die die Synchronisierung in Triodengeneratoren systematisch untersucht haben. Seitdem wurde die Theorie gut entwickelt, und hat viele Anwendungen gefunden. Heutzutage weiss man, dass bestimmte, sogar ziemlich einfache, Systeme, ein chaotisches Verhalten ausüben können. Dies bedeutet, dass ihre Rhythmen unregelmäßig sind und nicht durch nur eine einzige Frequenz charakterisiert werden können. Wie in der Habilitationsarbeit gezeigt wurde, kann man jedoch den Begriff der Phase und damit auch der Synchronisierung auf chaotische Systeme ausweiten. Wegen ihrer sehr schwachen Wechselwirkung treten Beziehungen zwischen den Phasen und den gemittelten Frequenzen auf und führen damit zur Übereinstimmung der immer noch unregelmäßigen Rhythmen. Dieser Effekt, sogenannter Phasensynchronisierung, konnte später in Laborexperimenten anderer wissenschaftlicher Gruppen bestätigt werden. Das Verständnis der Synchronisierung unregelmäßiger Oszillatoren erlaubte es uns, wichtige Probleme der Datenanalyse zu untersuchen. Ein Hauptbeispiel ist das Problem der Identifikation schwacher Wechselwirkungen zwischen Systemen, die nur eine passive Messung erlauben. Diese Situation trifft häufig in lebenden Systemen auf, wo Synchronisierungsphänomene auf jedem Niveau erscheinen - auf der Ebene von Zellen bis hin zu makroskopischen physiologischen Systemen; in normalen Zuständen und auch in Zuständen ernster Pathologie. Mit unseren Methoden konnten wir eine Anpassung in den Rhythmen von Herz-Kreislauf und Atmungssystem in Menschen feststellen, wobei der Grad ihrer Interaktion mit der Reifung zunimmt. Weiterhin haben wir unsere Algorithmen benutzt, um die Gehirnaktivität von an Parkinson Erkrankten zu analysieren. Die Ergebnisse dieser Kollaboration mit Neurowissenschaftlern zeigen, dass sich verschiedene Gehirnbereiche genau vor Beginn des pathologischen Zitterns synchronisieren. Außerdem gelang es uns, die für das Zittern verantwortliche Gehirnregion zu lokalisieren. N2 - In a classical context, synchronization means adjustment of rhythms of self-sustained periodic oscillators due to their weak interaction. The history of synchronization goes back to the 17th century when the famous Dutch scientist Christiaan Huygens reported on his observation of synchronization of pendulum clocks: when two such clocks were put on a common support, their pendula moved in a perfect agreement. In rigorous terms, it means that due to coupling the clocks started to oscillate with identical frequencies and tightly related phases. Being, probably, the oldest scientifically studied nonlinear effect, synchronization was understood only in 1920-ies when E. V. Appleton and B. Van der Pol systematically - theoretically and experimentally - studied synchronization of triode generators. Since that the theory was well developed and found many applications. Nowadays it is well-known that certain systems, even rather simple ones, can exhibit chaotic behaviour. It means that their rhythms are irregular, and cannot be characterized only by one frequency. However, as is shown in the Habilitation work, one can extend the notion of phase for systems of this class as well and observe their synchronization, i.e., agreement of their (still irregular!) rhythms: due to very weak interaction there appear relations between the phases and average frequencies. This effect, called phase synchronization, was later confirmed in laboratory experiments of other scientific groups. Understanding of synchronization of irregular oscillators allowed us to address important problem of data analysis: how to reveal weak interaction between the systems if we cannot influence them, but can only passively observe, measuring some signals. This situation is very often encountered in biology, where synchronization phenomena appear on every level - from cells to macroscopic physiological systems; in normal states as well as in severe pathologies. With our methods we found that cardiovascular and respiratory systems in humans can adjust their rhythms; the strength of their interaction increases with maturation. Next, we used our algorithms to analyse brain activity of Parkinsonian patients. The results of this collaborative work with neuroscientists show that different brain areas synchronize just before the onset of pathological tremor. Morevoever, we succeeded in localization of brain areas responsible for tremor generation. KW - Chaotische Dynamik KW - Phase KW - Synchronization KW - Datenanalyse KW - Chaotic dynamics KW - phase KW - synchronization KW - data analysis Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000682 ER - TY - THES A1 - Zaks, Michael A. T1 - Fractal Fourier spectra in dynamical systems N2 - Eine klassische Art, die Dynamik nichtlinearer Systeme zu beschreiben, besteht in der Analyse ihrer Fourierspektren. Für periodische und quasiperiodische Prozesse besteht das Fourierspektrum nur aus diskreten Deltafunktionen. Das Spektrum einer chaotischen Bewegung ist hingegen durch das Vorhandensein einer stetigen Komponente gekennzeichnet. In der Arbeit geht es um einen eigenartigen, weder regulären noch vollständig chaotischen Zustand mit sogenanntem singulärstetigen Leistungsspektrum. Unsere Analyse ergab verschiedene Fälle aus weit auseinanderliegenden Gebieten, in denen singulär stetige (fraktale) Spektren auftreten. Die Beispiele betreffen sowohl physikalische Prozesse, die auf iterierte diskrete Abbildungen oder gar symbolische Sequenzen reduzierbar sind, wie auch Prozesse, deren Beschreibung auf den gewöhnlichen oder partiellen Differentialgleichungen basiert. N2 - One of the classical ways to describe the dynamics of nonlinear systems is to analyze theur Fourier spectra. For periodic and quasiperiodic processes the Fourier spectrum consists purely of discrete delta-functions. On the contrary, the spectrum of a chaotic motion is marked by the presence of the continuous component. In this work, we describe the peculiar, neither regular nor completely chaotic state with so called singular-continuous power spectrum. Our investigations concern various cases from most different fields, where one meets the singular continuous (fractal) spectra. The examples include both the physical processes which can be reduced to iterated discrete mappings or even symbolic sequences, and the processes whose description is based on the ordinary or partial differential equations. KW - Nichtlineares dynamisches System / Harmonische Analyse / Fraktal KW - Dynamische Systeme KW - Leistungsspektrum KW - Autokorrelation KW - dynamical systems KW - power spectrum KW - autocorrelation Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000500 ER - TY - THES A1 - Feldmeier, Achim T1 - Hydrodynamics of astrophysical winds driven by scattering in spectral lines N2 - Liniengetriebene Winde werden durch Impulsübertrag von Photonen auf ein Plasma bei Absorption oder Streuung in zahlreichen Spektrallinien beschleunigt. Dieser Prozess ist besonders effizient für ultraviolette Strahlung und Plasmatemperaturen zwischen 10^4 K und 10^5 K. Zu den astronomischen Objekten mit liniengetriebenen Winden gehören Sterne der Spektraltypen O, B und A, Wolf-Rayet-Sterne sowie Akkretionsscheiben verschiedenster Größenordnung, von Scheiben um junge Sterne und in kataklysmischen Veränderlichen bis zu Quasarscheiben. Es ist bislang nicht möglich, das vollständige Windproblem numerisch zu lösen, also die Hydrodynamik, den Strahlungstransport und das statistische Gleichgewicht dieser Strömungen gleichzeitig zu behandeln. Die Betonung liegt in dieser Arbeit auf der Windhydrodynamik, mit starken Vereinfachungen in den beiden anderen Gebieten. Wegen persönlicher Beteiligung betrachte ich drei Themen im Detail. 1. Windinstabilität durch Dopplerde-shadowing des Gases. Die Instabilität bewirkt, dass Windgas in dichte Schalen komprimiert wird, die von starken Stoßfronten begrenzt sind. Schnelle Wolken entstehen im Raum zwischen den Schalen und stoßen mit diesen zusammen. Dies erzeugt Röntgenflashes, die die beobachtete Röntgenstrahlung heißer Sterne erklären können. 2. Wind runway durch radiative Wellen. Der runaway zeigt, warum beobachtete liniengetriebene Winde schnelle, kritische Lösungen anstelle von Brisenlösungen (oder shallow solutions) annehmen. Unter bestimmten Bedingungen stabilisiert der Wind sich auf masseüberladenen Lösungen, mit einem breiten, abbremsenden Bereich und Knicken im Geschwindigkeitsfeld. 3. Magnetische Winde von Akkretionsscheiben um Sterne oder in aktiven Galaxienzentren. Die Linienbeschleunigung wird hier durch die Zentrifugalkraft entlang korotierender poloidaler Magnetfelder und die Lorentzkraft aufgrund von Gradienten im toroidalen Feld unterstützt. Ein Wirbelblatt, das am inneren Scheibenrand beginnt, kann zu stark erhöhten Massenverlustraten führen. N2 - Line driven winds are accelerated by the momentum transfer from photons to a plasma, by absorption and scattering in numerous spectral lines. Line driving is most efficient for ultraviolet radiation, and at plasma temperatures from 10^4 K to 10^5 K. Astronomical objects which show line driven winds include stars of spectral type O, B, and A, Wolf-Rayet stars, and accretion disks over a wide range of scales, from disks in young stellar objects and cataclysmic variables to quasar disks. It is not yet possible to solve the full wind problem numerically, and treat the combined hydrodynamics, radiative transfer, and statistical equilibrium of these flows. The emphasis in the present writing is on wind hydrodynamics, with severe simplifications in the other two areas. I consider three topics in some detail, for reasons of personal involvement. 1. Wind instability, as caused by Doppler de-shadowing of gas parcels. The instability causes the wind gas to be compressed into dense shells enclosed by strong shocks. Fast clouds occur in the space between shells, and collide with the latter. This leads to X-ray flashes which may explain the observed X-ray emission from hot stars. 2. Wind runaway, as caused by a new type of radiative waves. The runaway may explain why observed line driven winds adopt fast, critical solutions instead of shallow (or breeze) solutions. Under certain conditions the wind settles on overloaded solutions, which show a broad deceleration region and kinks in their velocity law. 3. Magnetized winds, as launched from accretion disks around stars or in active galactic nuclei. Line driving is assisted by centrifugal forces along co-rotating poloidal magnetic field lines, and by Lorentz forces due to toroidal field gradients. A vortex sheet starting at the inner disk rim can lead to highly enhanced mass loss rates. KW - Hydrodynamik KW - Strahlungstransport KW - Sternwinde KW - Akkretionsscheiben KW - hydrodynamics KW - radiative transfer KW - stellar winds KW - accretion disks Y1 - 2001 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000388 ER -