TY - THES A1 - Šustr, David T1 - Molecular diffusion in polyelectrolyte multilayers N2 - Research on novel and advanced biomaterials is an indispensable step towards their applications in desirable fields such as tissue engineering, regenerative medicine, cell culture, or biotechnology. The work presented here focuses on such a promising material: polyelectrolyte multilayer (PEM) composed of hyaluronic acid (HA) and poly(L-lysine) (PLL). This gel-like polymer surface coating is able to accumulate (bio-)molecules such as proteins or drugs and release them in a controlled manner. It serves as a mimic of the extracellular matrix (ECM) in composition and intrinsic properties. These qualities make the HA/PLL multilayers a promising candidate for multiple bio-applications such as those mentioned above. The work presented aims at the development of a straightforward approach for assessment of multi-fractional diffusion in multilayers (first part) and at control of local molecular transport into or from the multilayers by laser light trigger (second part). The mechanism of the loading and release is governed by the interaction of bioactives with the multilayer constituents and by the diffusion phenomenon overall. The diffusion of a molecule in HA/PLL multilayers shows multiple fractions of different diffusion rate. Approaches, that are able to assess the mobility of molecules in such a complex system, are limited. This shortcoming motivated the design of a novel evaluation tool presented here. The tool employs a simulation-based approach for evaluation of the data acquired by fluorescence recovery after photobleaching (FRAP) method. In this approach, possible fluorescence recovery scenarios are primarily simulated and afterwards compared with the data acquired while optimizing parameters of a model until a sufficient match is achieved. Fluorescent latex particles of different sizes and fluorescein in an aqueous medium are utilized as test samples validating the analysis results. The diffusion of protein cytochrome c in HA/PLL multilayers is evaluated as well. This tool significantly broadens the possibilities of analysis of spatiotemporal FRAP data, which originate from multi-fractional diffusion, while striving to be widely applicable. This tool has the potential to elucidate the mechanisms of molecular transport and empower rational engineering of the drug release systems. The second part of the work focuses on the fabrication of such a spatiotemporarily-controlled drug release system employing the HA/PLL multilayer. This release system comprises different layers of various functionalities that together form a sandwich structure. The bottom layer, which serves as a reservoir, is formed by HA/PLL PEM deposited on a planar glass substrate. On top of the PEM, a layer of so-called hybrids is deposited. The hybrids consist of thermoresponsive poly(N-isopropylacrylamide) (PNIPAM) -based hydrogel microparticles with surface-attached gold nanorods. The layer of hybrids is intended to serve as a gate that controls the local molecular transport through the PEM–solution-interface. The possibility of stimulating the molecular transport by near-infrared (NIR) laser irradiation is being explored. From several tested approaches for the deposition of hybrids onto the PEM surface, the drying-based approach was identified as optimal. Experiments, that examine the functionality of the fabricated sandwich at elevated temperature, document the reversible volume phase transition of the PEM-attached hybrids while sustaining the sandwich stability. Further, the gold nanorods were shown to effectively absorb light radiation in the tissue- and cell-friendly NIR spectral region while transducing the energy of light into heat. The rapid and reversible shrinkage of the PEM-attached hybrids was thereby achieved. Finally, dextran was employed as a model transport molecule. It loads into the PEM reservoir in a few seconds with the partition constant of 2.4, while it spontaneously releases in a slower, sustained manner. The local laser irradiation of the sandwich, which contains the fluorescein isothiocyanate tagged dextran, leads to a gradual reduction of fluorescence intensity in the irradiated region. The release system fabricated employs renowned photoresponsivity of the hybrids in an innovative setting. The results of the research are a step towards a spatially-controlled on-demand drug release system that paves the way to spatiotemporally controlled drug release. The approaches developed in this work have the potential to elucidate the molecular dynamics in ECM and to foster engineering of multilayers with properties tuned to mimic the ECM. The work aims at spatiotemporal control over the diffusion of bioactives and their presentation to the cells. N2 - Die Forschung an neuartigen und komplexen Biomaterialien ist unabdingbar für deren Einsatz in begehrten Bereichen wie der Gewebezüchtung, regenerativen Medizin, Zellkultivierung und Biotechnologie. Die hier vorgelegte Arbeit beschäftigt sich eingehend mit einem dieser vielversprechenden Materialien: Polyelektrolytische Multilayers (PEM), die aus Hyaluronsäure (Hyaluronic Acid, HA) und Poly-L-Lysin (PLL) zusammengesetzt sind. Diese gelartige Polymerbeschichtung ermöglicht es, (Bio-) Moleküle wie z.B. Proteine oder Medikamente zu akkumulieren und diese kontrolliert wieder abzugeben. Durch ihre Zusammensetzung und intrinsischen Merkmale können die PEM der Imitation einer Extrazellulären Matrix (ECM) dienen. Diese Eigenschaften machen die HA/PLL-PEM zu einem Anwärter auf verschiedene Bio-Anwendungen, wie den oben genannten. Die vorliegende Arbeit zielt auf die Entwicklung eines Ansatzes zur Einschätzung der multi-fraktionellen Diffusion in Multilayers (1. Teil), und auf die Kontrolle des lokalen molekularen Transports in und aus den Multilayers durch Laser-Stimulation (2. Teil). Der Aufnahme- und Freisetzungsmechanismus wird bestimmt von der Wechselwirkung zwischen Bioaktiva und den Bestandteilen der Multilayers, sowie allgemein vom Diffusionsprozess. Der Diffusion eines Molekül in HA/PLL-PEM weist unterschiedliche Diffusionsraten einzelner Molekülbestandteile auf. Derzeit existieren nur wenige Ansätze zur Einschätzung der Mobilität von Molekülen in derart komplexen Systemen. Diesem Mangel will die vorliegende Arbeit durch das Design eines neuartigen Evaluations-Instruments abhelfen. Dieses Instrument bedient sich eines simulationsbasierten Ansatzes zur Evaluation von Daten, die durch die fluorescence recovery after photobleaching (FRAP) -Methode erfasst wurden. Der Ansatz simuliert zunächst mögliche Szenarien der Fluoreszenz-Rückbildung, um diese anschließend mit Messdaten zu vergleichen; dazu werden Modell-Parameter angepasst, um suffiziente Vergleichswerte zu erzielen. Fluoreszierende Latex-Partikel verschiedener Größe und eine Fluoresceinlösung wurden als Kontroll- und Vergleichs-Proben verwendet, um die Ergebnisse zu überprüfen. Zusätzlich wurde die Diffusion des Proteins Cytochrom C in eine HA/PLL-PEM ausgewertet. Dieses Instrument weitet die Möglichkeiten der Analyse von spatiotemporären FRAP-Daten, die aus der multi-fraktionellen Diffusion stammen, erheblich und gleichzeitig ist es vielseitig einsetzbar. Das Instrument hat das Potential, die Mechanismen des Molekültransports weiter zu erhellen, und eine gezielte Steuerung der Freisetzung medikamentöser Wirkstoffe zu ermöglichen. Der zweite Teil der Arbeit widmet sich der Erstellung eines Systems zur spatiotemporären Wirkstofffreisetzung, das sich die HA/PLL-PEM zunutze macht. Dieses Freisetzungssystem umfasst verschiedene Lagen mit jeweils unterschiedlichen Funktionsweisen, die zusammen ein „Sandwich“ bilden. Die zugrundeliegende Schicht aus HA/PLL-PEM auf einem planaren Glassubstrat dient als Reservoir. Auf diese PEM ist eine Schicht sogenannter Hybride aufgebracht. Die Hybride bestehen aus thermoresponsiven Poly-N-Isopropylacrylamid (PNIPAM) -basierten Hydrogel-Mikropartikeln auf deren Gold-Nanostäbchen gebunden sind. Die Hybridschicht dient in der räumlichen Kontrolle des lokalen Molekültransports als „Schlupfloch“ an der Schnittstelle von PEM und Lösung. Die Möglichkeit der Stimulation des molekülaren Transports durch Bestrahlung mit einem Nah-Infrarot-Laser (NIR) wird hier untersucht. Von den mehreren getesteten Ansätzen zur Aufbringung von Hybriden auf die PEM-Oberfläche stellte sich die Trocknung als beste Möglichkeit heraus. Funktionalitätskontrollen des hergestellten Sandwiches bei erhöhter Temperatur ergaben eine reversible Volumenphasenübergang der PEM-gebundenen Hybride, wobei die Sandwich-Struktur erhalten blieb. Weiterhin wurde eine effektive Lichtabsorption durch die Gold-Nanostäbchen in den gewebe- und zellschonenden NIR-Spektrumsbereich gezeigt, wobei die aufgenommene Lichtenergie in Wärme umgewandelt wurde. Dadurch wurde eine schnelle und reversible Schrumpfung der PEM-gebundenen Hybride erreicht. Zuguterletzt wird Dextran als Modellmolekül für den Transport eingesetzt. Dieses wird in wenigen Sekunden – mit einem Verteilungskoeffizient von 2,4 – in das PEM-Reservoir aufgenommen, während es auf langsamere, anhaltende Weise freigesetzt wird. Die lokale Laser-Bestrahlung des Dextran-FITC-haltigen Sandwiches bewirkte eine schrittweise Reduktion der Fluoreszenz-Intensität in der bestrahlten Region. Das hier vorgestellte Molekül-Freisetzungssystem verwendet die vielzitierte Photoresponsivität von Hybriden auf neuartige Weise. Die Ergebnisse der Untersuchung bedeuten einen Fortschritt in Richtung eines räumlich kontrollierten, nach Bedarf steuerbaren Freisetzungs-Systems, das wiederum den Weg zu einer spatiotemporären Kontrollierbarkeit der Wirkstoff-Freisetzung bereiten könnte. Die in dieser Arbeit entwickelten Ansätze ermöglichen ein besseres Verständnis der Dynamik in der ECM, sowie die Entwicklung ECM-ähnlicher Multilayers. Die Arbeit hat die spatiotemporäre Kontrolle der Diffusion von bioaktiven Stoffen und deren Präsentation gegenüber Zellen zum Ziel. T2 - Molekulare Diffusion in Polyelektrolyt-Multischichten KW - polyelectrolyte multilayers KW - diffusion KW - simulation KW - FRAP KW - microgel KW - drug release KW - PNIPAM KW - IR laser KW - assessment of the diffusion KW - mulifractional diffusion KW - spatially and temporally controlled drug release KW - ordering of particles on the surface KW - close packing KW - dichteste Packung KW - Diffusion KW - Einschätzung der Diffusion KW - Wirkstoff-Freisetzun KW - Mikrogel KW - multi-fraktionelle Diffusion KW - Ordnung der Partikel auf der Oberfläche KW - Polyelektrolyt-Multischichten KW - Simulation KW - räumlich und zeitlich kontrollierte Wirkstoff-Freisetzung KW - FRAP KW - IR laser KW - PNIPAM Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-489038 ER - TY - THES A1 - Šedová, Barbora T1 - Heterogeneous effects of weather and climate change on human migration T1 - Heterogene Auswirkungen von Wetter und Klimawandel auf menschliche Migration N2 - While estimated numbers of past and future climate migrants are alarming, the growing empirical evidence suggests that the association between adverse climate-related events and migration is not universally positive. This dissertation seeks to advance our understanding of when and how climate migration emerges by analyzing heterogeneous climatic influences on migration in low- and middle-income countries. To this end, it draws on established economic theories of migration, datasets from physical and social sciences, causal inference techniques and approaches from systematic literature review. In three of its five chapters, I estimate causal effects of processes of climate change on inequality and migration in India and Sub-Saharan Africa. By employing interaction terms and by analyzing sub-samples of data, I explore how these relationships differ for various segments of the population. In the remaining two chapters, I present two systematic literature reviews. First, I undertake a comprehensive meta-regression analysis of the econometric climate migration literature to summarize general climate migration patterns and explain the conflicting findings. Second, motivated by the broad range of approaches in the field, I examine the literature from a methodological perspective to provide best practice guidelines for studying climate migration empirically. Overall, the evidence from this dissertation shows that climatic influences on human migration are highly heterogeneous. Whether adverse climate-related impacts materialize in migration depends on the socio-economic characteristics of the individual households, such as wealth, level of education, agricultural dependence or access to adaptation technologies and insurance. For instance, I show that while adverse climatic shocks are generally associated with an increase in migration in rural India, they reduce migration in the agricultural context of Sub-Saharan Africa, where the average wealth levels are much lower so that households largely cannot afford the upfront costs of moving. I find that unlike local climatic shocks which primarily enhance internal migration to cities and hence accelerate urbanization, shocks transmitted via agricultural producer prices increase migration to neighboring countries, likely due to the simultaneous decrease in real income in nearby urban areas. These findings advance our current understanding by showing when and how economic agents respond to climatic events, thus providing explicit contexts and mechanisms of climate change effects on migration in the future. The resulting collection of findings can guide policy interventions to avoid or mitigate any present and future welfare losses from climate change-related migration choices. N2 - Während die geschätzten Zahlen zukünftiger Klimamigranten alarmierend sind, deuten die wachsenden empirischen Belege darauf hin, dass der Klimawandel nicht automatisch zu mehr Migration führt. Denn auch wenn klimabezogene Einflüsse die Entscheidung zur Migration zunehmend beeinflussen, wird diese durch eine Vielzahl von Faktoren, wie beispielsweise den sozioökonomischen und politischen Bedingungen, beeinflusst. Der Zusammenhang zwischen Klimawandel und Migration ist also stark kontextabhängig. Diese Dissertation besteht aus fünf Artikeln und zeigt, wann und wie Klimamigration entsteht, indem sie die heterogenen klimatischen Einflüsse in Entwicklungsländern untersucht. Gestützt auf ökonomische Migrationstheorien analysiere ich Datensätze aus den Natur- und Sozialwissenschaften mithilfe von Methodiken der ökonometrischen Kausalanalyse, der Geoinformationssysteme und der systematischen Literatursynthese. In drei von fünf Kapiteln schätze ich die kausalen Auswirkungen des Klimawandels auf Ungleichheit und Migration in Indien und Subsahara Afrika. Durch die Verwendung von Interaktionstermen und die Analyse von Teilstichproben untersuche ich in Regressionsmodellen, wie sich diese Beziehungen für verschiedene Bevölkerungsgruppen unterscheiden. In den verbleibenden zwei Kapiteln fasse ich die ökonometrische Literatur zur Klimamigration systematisch zusammen. Zunächst führe ich eine umfassende Meta-Regressionsanalyse durch, um die allgemeine Klimamigrationsmuster zusammenzufassen und die widersprüchliche Evidenz zu erklären. In einem zweiten Schritt untersuche ich die ökonometrische Klimamigrationsliteratur aus einer methodologischen Perspektive, um Best-Practice-Leitlinien für künftige empirische Analysen von Klimamigration bereitzustellen. Insgesamt bestätigen die Ergebnisse dieser Dissertation, dass die klimatischen Einflüsse auf menschliche Migration heterogen sind und von den sozioökonomischen Merkmalen der einzelnen Haushalte wie dem Wohlstand und Bildungsniveau, der Abhängigkeit von der Landwirtschaft oder dem Zugang zu Anpassungstechnologien und Versicherungen, mitbestimmt werden. Ich finde beispielsweise, dass ungünstige klimatische Schocks zu einem Migrationsanstieg im ländlichen Indien führen, sie aber die Migration im landwirtschaftlichen Subsahara Afrika, wo das durchschnittliche Einkommensniveau viel niedriger ist, verhindern. Ich habe zudem herausgefunden, dass im Gegensatz zu lokalen klimatischen Schocks, die in erster Linie die Binnenmigration in die Städte verstärken und damit die Urbanisierung beschleunigen, globale Schocks über landwirtschaftliche Erzeugerpreise die Abwanderung in benachbarte Länder antreiben. Diese Ergebnisse erweitern unser derzeitiges Verständnis, indem sie verdeutlichen, wann und wie Akteure auf unterschiedliche Klimaereignisse mit der Entscheidung zur Migration reagieren. Die daraus resultierenden Erkenntnisse können helfen, Entscheidungsträger auf drei wichtige Arten zu informieren. Erstens, wenn man weiß, wer die Klimamigranten sind und welche Destinationsziele sie wählen, wird Klimamigration vorhersehbarer und damit kontrollierbarer. Dies kann verhindern, dass sie zu einer humanitären Krise wird. Zweitens hilft die Identifizierung von Bevölkerungsgruppen, die nicht in der Lage sind, sich durch Migration an die veränderten klimatischen Bedingungen anzupassen, dabei, unfreiwillige Immobilität zu vermeiden, was wiederum auch eine potenzielle humanitären Krise verhindert. Drittens können all diese Informationen helfen, Kosten und Nutzen der Klima(im)mobilität genauer zu bewerten und so die Social Cost of Carbon genauer einzuschätzen. KW - migration KW - weather KW - climate change KW - agriculture KW - food prices KW - inequality KW - econometrics KW - Landwirtschaft KW - Klimawandel KW - Ökonometrie KW - Lebensmittelpreise KW - Ungleichheit KW - Migration KW - Wetter Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536733 ER - TY - THES A1 - Şener, Ulaş T1 - Die relative Autonomie der Zentralbank BT - Eine politökonomische Analyse der türkischen Geldpolitik nach 2001 T2 - Potsdam Economic Studies N2 - Die vorliegende Arbeit untersucht die Politik der Zentralbankunabhängigkeit (ZBU) am Beispiel der Türkei. Im Mittelpunkt der Arbeit stehen theoretische und empirische Fragen und Probleme, die sich im Zusammenhang mit der ZBU stellen und anhand der türkischen Geldpolitik diskutiert werden. Ein zentrales Ziel der Arbeit besteht darin, zu untersuchen, ob und inwiefern die türkische Zentralbank nach Erlangung der de jure institutionellen Unabhängigkeit tatsächlich als unabhängig und entpolitisiert eingestuft werden kann. Um diese Forschungsfrage zu beantworten, werden die institutionellen Bedingungen, die Ziele und die Regeln, nach denen sich die türkische Geldpolitik richtet, geklärt. Anschließend wird empirisch überprüft, ob die geldpolitische Praxis der CBRT sich an dem offiziell vorgegebenen Regelwerk orientiert. Die Hauptthese dieser Arbeit lautet, dass die formelle Unabhängigkeit der CBRT und die regelorientierte Geldpolitik nicht mit einer Entpolitisierung der Geldpolitik in der Türkei gleichzusetzen ist. Als Alternative schlägt die vorliegende Studie vor, den institutionellen Status der CBRT als einen der relativen Autonomie zu untersuchen. Auch eine de jure unabhängige Zentralbank kann sich nicht von politischen Eingriffen abkoppeln, wie das Fallbeispiel Türkei zeigen wird. N2 - This book examines the relationship between central bank independence and monetary policy in Turkey with a political economic approach. Focusing on the Turkish example, it addresses the theoretical and empirical questions that arise in connection with central bank independence. It analyses the Turkish central bank's institutional statue and its implications for monetary policy since its formal independence in 2001. The main outcome is that Turkey's central bank cannot be regarded as an independent and depoliticized monetary institution, not least due to the high political pressure the ruling Justice and Development Party was able to put on monetary policy decision, especially after the global financial crises 2007-08. The book investigates further domestic and international political economic conditions and developments in regards to the exertion of influence on the Turkish monetary policy. The case of Turkey shows that even a formally independent central bank is unable to detach itself from political interference, in spite of a strong ideology of de-politicized monetary policy. To conceptually grasp this outcome the present title proposes an understanding of the CBRT’s institutional status as one of ‘relative autonomy’. T3 - Potsdam Economic Studies - 5 KW - Geldpolitik KW - Zentralbankunabhängigkeit KW - Türkei KW - relative Autonomie KW - politische Ökonomie KW - monetary policy KW - central bank independence KW - Turkey KW - relative autonomy KW - political economy Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88856 SN - 978-3-86956-362-6 SN - 2196-8691 SN - 2196-9302 VL - 5 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Öztürk, Ugur T1 - Learning more to predict landslides T1 - Ein verbessertes Wissen zur Prognose von Hangrutschungen N2 - Landslides are frequent natural hazards in rugged terrain, when the resisting frictional force of the surface of rupture yields to the gravitational force. These forces are functions of geological and morphological factors, such as angle of internal friction, local slope gradient or curvature, which remain static over hundreds of years; whereas more dynamic triggering events, such as rainfall and earthquakes, compromise the force balance by temporarily reducing resisting forces or adding transient loads. This thesis investigates landslide distribution and orientation due to landslide triggers (e.g. rainfall) at different scales (6-4∙10^5 km^2) and aims to link rainfall movement with the landslide distribution. It additionally explores the local impacts of the extreme rainstorms on landsliding and the role of precursory stability conditions that could be induced by an earlier trigger, such as an earthquake. Extreme rainfall is a common landslide trigger. Although several studies assessed rainfall intensity and duration to study the distribution of thus triggered landslides, only a few case studies quantified spatial rainfall patterns (i.e. orographic effect). Quantifying the regional trajectories of extreme rainfall could aid predicting landslide prone regions in Japan. To this end, I combined a non-linear correlation metric, namely event synchronization, and radial statistics to assess the general pattern of extreme rainfall tracks over distances of hundreds of kilometers using satellite based rainfall estimates. Results showed that, although the increase in rainfall intensity and duration positively correlates with landslide occurrence, the trajectories of typhoons and frontal storms were insufficient to explain landslide distribution in Japan. Extreme rainfall trajectories inclined northwestwards and were concentrated along some certain locations, such as coastlines of southern Japan, which was unnoticed in the landslide distribution of about 5000 rainfall-triggered landslides. These landslides seemed to respond to the mean annual rainfall rates. Above mentioned findings suggest further investigation on a more local scale to better understand the mechanistic response of landscape to extreme rainfall in terms of landslides. On May 2016 intense rainfall struck southern Germany triggering high waters and landslides. The highest damage was reported at the Braunsbach, which is located on the tributary-mouth fan formed by the Orlacher Bach. Orlacher Bach is a ~3 km long creek that drains a catchment of about ~6 km^2. I visited this catchment in June 2016 and mapped 48 landslides along the creek. Such high landslide activity was not reported in the nearby catchments within ~3300 km^2, despite similar rainfall intensity and duration based on weather radar estimates. My hypothesis was that several landslides were triggered by rainfall-triggered flash floods that undercut hillslope toes along the Orlacher Bach. I found that morphometric features such as slope and curvature play an important role in landslide distribution on this micro scale study site (<10 km^2). In addition, the high number of landslides along the Orlacher Bach could also be boosted by accumulated damages on hillslopes due karst weathering over longer time scales. Precursory damages on hillslopes could also be induced by past triggering events that effect landscape evolution, but this interaction is hard to assess independently from the latest trigger. For example, an earthquake might influence the evolution of a landscape decades long, besides its direct impacts, such as landslides that follow the earthquake. Here I studied the consequences of the 2016 Kumamoto Earthquake (MW 7.1) that triggered some 1500 landslides in an area of ~4000 km^2 in central Kyushu, Japan. Topography, i.e. local slope and curvature, both amplified and attenuated seismic waves, thus controlling the failure mechanism of those landslides (e.g. progressive). I found that topography fails in explaining the distribution and the preferred orientation of the landslides after the earthquake; instead the landslides were concentrated around the northeast of the rupture area and faced mostly normal to the rupture plane. This preferred location of the landslides was dominated mainly by the directivity effect of the strike-slip earthquake, which is the propagation of wave energy along the fault in the rupture direction; whereas amplitude variations of the seismic radiation altered the preferred orientation. I suspect that the earthquake directivity and the asymmetry of seismic radiation damaged hillslopes at those preferred locations increasing landslide susceptibility. Hence a future weak triggering event, e.g. scattered rainfall, could further trigger landslides at those damaged hillslopes. N2 - Hangrutschungen treten häufig in steilem Gelände auf, wenn die Erdanziehungskraft die Scherkräfte an der Oberfläche übersteigt. Diese Kräfte beinhalten geologische und geomorphologische Faktoren wie den Reibungswinkel oder die Neigung und Krümmung von Hängen, die über Jahrhunderte statisch bleiben können. Dynamische Ereignisse wie Regenfälle und Erdbeben können hingegen das Kräftegleichgewicht beeinträchtigen, indem sie Widerstandskräfte vorübergehend reduzieren oder Lasten temporär hinzufügen. Diese Arbeit untersucht die Verteilung und Orientierung von Hangrutschungen in Abhängigkeit von Auslösern (z.B. Niederschlag) auf verschiedenen Skalenebenen (6-4∙10^5 km^2) und verknüpft die Bewegung des Niederschlagssystems mit der Hangrutschungsverteilung. Zudem werden lokale Auswirkungen von extremen Gewittern auf Hangrutschungen untersucht, sowie vorausgehende Stabilitätsbedingungen, die durch ein früheres Ereignis, beispielsweise ein Erdbeben, verändert werden können. Extremer Niederschlag ist ein weithin bekannter Auslöser für Hangrutschungen. Obwohl mehrere Studien die Verteilung von Hangrutschungen mit der Niederschlagsintensität und -dauer verglichen haben, beachteten nur wenige Fallstudien das räumliche Bewegungsmuster des Niederschlags, i.e. den orographischen Effekt. Eine solche Quantifizierung könnte die Vorhersage von hangrutschungsgefährdete Regionen in Japan verbessern. Hierfür habe ich ein nicht-lineares Korrelationsmaß (event synchronization) auf regionale Sturmbahnen in Japan angewendet, um deren räumliche Verteilung durch satellitengestützen Regenschätzungen nachzuvollziehen. Die durchgeführten Untersuchungen zeigten, dass sich die Verteilung von Hangrutschungen nur unzureichend mit den Zugbahnen von Taifunen und Sturmtiefen erklären lässt. Die Stabilität von Hängen scheint mehr durch mittlere Jahresniederschlagsmengen beeinflusst zu werden. Erzielte Ergebnisse zeigen, dass weitere Untersuchungen auf lokaler Ebene nötig sind, um die unmittelbare Auswirkungen von Extremniederschlägen auf Hangstabilität und -rutschungen besser zu verstehen. Im Mai 2016 kam es in Süddeutschland zu einem heftigen Gewitter, das Hochwasser und Hangrutschungen ausgelöst hat. Der höchste Schaden wurde in Braunsbach, dessen Zentrum sich am Zufluss des Orlacher Bachs befindet, gemeldet. Der Orlacher Bach ist ~3 lang und hat ein Einzugsgebiet von etwa ~6 km^2. Ich habe dieses Einzugsgebiet im Juni 2016 besucht und 48 Hangrutschungen entlang des Baches kartiert. Ich vermutete, dass mehrere Hangrutschungen durch Sturzfluten ausgelöst wurden, welche die Hänge entlang des Orlacher Baches unterspülten. Ich stellte fest, dass morphometrische Merkmale wie die lokale Hangneigung und -krümmung eine wichtige Rolle bei der Hangrutschungsverteilung auf dieser Mikroskala spielen (<10 km^2). Darüber hinaus könnte die hohe Anzahl von Hangrutschungen am Orlacher Bach auch durch Karstverwitterung über längere Zeiträume verstärkt werden. Zahlreiche in der Vergangenheit liegende Ereignisse können die Stabilität eines Hanges beeinflussen. Der Einfluss solcher Ereignisse ist nur sehr schwer unabhängig voneinander abschätzbar. Beispielseise könnte ein Erdbeben die Entwicklung einer Landschaft über Jahrzehnte hin beeinflussen. Hier erforsche ich die Folgen des Kumamoto-Erdbebens 2016 (MW 7.1) das im Zentrum von Kyushu, Japan, ca. 1500 Hangrutschungen in einem Gebiet von ~4000 km^2 ausgelöst hat. Die Topographie (Hangneigung und -krümmung) verstärkte schwächte seismische Wellen gleichermaßen ab, wodurch der Auslösemechanismus dieser Hangrutschungen (z.B. progressiv) gesteuert wird. Ich konnte belegen, dass die Topographie die Verteilung und die bevorzugte Ausrichtung der Hangrutsche nach dem Erdbeben nicht erklären kann; stattdessen waren die Hangrutschungen um den Nordosten des Bruchgebiets herum konzentriert und standen meist senkrecht zur Bruchfläche. Diese bevorzugte Lage der Erdrutsche wurde hauptsächlich durch den Richtwirkungseffekt des Blattverschiebung-Erdbebens dominiert. Bei diesem handelt es sich um die Ausbreitung der Wellenenergie entlang des Bruches in Bruchrichtung, während Amplitudenvariationen der seismischen Strahlung die bevorzugte Orientierung ändern. Ich vermute, dass die Richtwirkung des Erdbebens und die Asymmetrie der seismischen Strahlung die Hangneigung an diesen bevorzugten Stellen schädigten und die Anfälligkeit für Hangrutschungen erhöhten. Daher könnte ein zukünftiges schwaches Ereignis wie z.B. ein unbedeutender Niederschlag an diesen beschädigten Hängen weitere Hangrutschungen auslösen. KW - landslides KW - complex networks KW - event synchronization KW - typhoons KW - Kumamoto earthquake KW - Braunsbach flash flood KW - Hangrutschungen KW - komplexes Netzwerk KW - Synchronisation von Ereignissen KW - Taifune KW - Kumamoto Erdbeben KW - Braunsbach Sturzflut Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-426439 ER - TY - THES A1 - Ötsch, Rainald T1 - Stromerzeugung in Deutschland unter den Rahmenbedingungen von Klimapolitik und liberalisiertem Strommarkt : Bewertung von Kraftwerksinvestitionen mit Bayes’schen Einflussdiagrammen T1 - Electricity generation in Germany under the conditions of climate policy and liberalized electricity market : valuation of power plant investments with Bayesian influence diagrams N2 - Mit der Liberalisierung des Strommarkts, den unsicheren Aussichten in der Klimapolitik und stark schwankenden Preisen bei Brennstoffen, Emissionsrechten und Kraftwerkskomponenten hat bei Kraftwerksinvestitionen das Risikomanagement an Bedeutung gewonnen. Dies äußert sich im vermehrten Einsatz probabilistischer Verfahren. Insbesondere bei regulativen Risiken liefert der klassische, häufigkeitsbasierte Wahrscheinlichkeitsbegriff aber keine Handhabe zur Risikoquantifizierung. In dieser Arbeit werden Kraftwerksinvestitionen und -portfolien in Deutschland mit Methoden des Bayes'schen Risikomanagements bewertet. Die Bayes'sche Denkschule begreift Wahrscheinlichkeit als persönliches Maß für Unsicherheit. Wahrscheinlichkeiten können auch ohne statistische Datenanalyse allein mit Expertenbefragungen gewonnen werden. Das Zusammenwirken unsicherer Werttreiber wurde mit einem probabilistischen DCF-Modell (Discounted Cash Flow-Modell) spezifiziert und in ein Einflussdiagramm mit etwa 1200 Objekten umgesetzt. Da der Überwälzungsgrad von Brennstoff- und CO2-Kosten und damit die Höhe der von den Kraftwerken erwirtschafteten Deckungsbeiträge im Wettbewerb bestimmt werden, reicht eine einzelwirtschaftliche Betrachtung der Kraftwerke nicht aus. Strompreise und Auslastungen werden mit Heuristiken anhand der individuellen Position der Kraftwerke in der Merit Order bestimmt, d.h. anhand der nach kurzfristigen Grenzkosten gestaffelten Einsatzreihenfolge. Dazu wurden 113 thermische Großkraftwerke aus Deutschland in einer Merit Order vereinigt. Das Modell liefert Wahrscheinlichkeitsverteilungen für zentrale Größen wie Kapitalwerte von Bestandsportfolien sowie Stromgestehungskosten und Kapitalwerte von Einzelinvestitionen (Steinkohle- und Braunkohlekraftwerke mit und ohne CO2-Abscheidung sowie GuD-Kraftwerke). Der Wert der Bestandsportfolien von RWE, E.ON, EnBW und Vattenfall wird primär durch die Beiträge der Braunkohle- und Atomkraftwerke bestimmt. Erstaunlicherweise schlägt sich der Emissionshandel nicht in Verlusten nieder. Dies liegt einerseits an den Zusatzgewinnen der Atomkraftwerke, andererseits an den bis 2012 gratis zugeteilten Emissionsrechten, welche hohe Windfall-Profite generieren. Dadurch erweist sich der Emissionshandel in seiner konkreten Ausgestaltung insgesamt als gewinnbringendes Geschäft. Über die Restlaufzeit der Bestandskraftwerke resultiert ab 2008 aus der Einführung des Emissionshandels ein Barwertvorteil von insgesamt 8,6 Mrd. €. In ähnlicher Dimension liegen die Barwertvorteile aus der 2009 von der Bundesregierung in Aussicht gestellten Laufzeitverlängerung für Atomkraftwerke. Bei einer achtjährigen Laufzeitverlängerung ergäben sich je nach CO2-Preisniveau Barwertvorteile von 8 bis 15 Mrd. €. Mit höheren CO2-Preisen und Laufzeitverlängerungen von bis zu 28 Jahren würden 25 Mrd. € oder mehr zusätzlich anfallen. Langfristig erscheint fraglich, ob unter dem gegenwärtigen Marktdesign noch Anreize für Investitionen in fossile Kraftwerke gegeben sind. Zu Beginn der NAP 2-Periode noch rentable Investitionen in Braunkohle- und GuD-Kraftwerke werden mit der auslaufenden Gratiszuteilung von Emissionsrechten zunehmend unrentabler. Die Rentabilität wird durch Strommarkteffekte der erneuerbaren Energien und ausscheidender alter Gas- und Ölkraftwerke stetig weiter untergraben. Steinkohlekraftwerke erweisen sich selbst mit anfänglicher Gratiszuteilung als riskante Investition. Die festgestellten Anreizprobleme für Neuinvestitionen sollten jedoch nicht dem Emissionshandel zugeschrieben werden, sondern resultieren aus den an Grenzkosten orientierten Strompreisen. Das Anreizproblem ist allerdings bei moderaten CO2-Preisen am größten. Es gilt auch für Kraftwerke mit CO2-Abscheidung: Obwohl die erwarteten Vermeidungskosten für CCS-Kraftwerke gegenüber konventionellen Kohlekraftwerken im Jahr 2025 auf 25 €/t CO2 (Braunkohle) bzw. 38,5 €/t CO2 (Steinkohle) geschätzt werden, wird ihr Bau erst ab CO2-Preisen von 50 bzw. 77 €/t CO2 rentabel. Ob und welche Kraftwerksinvestitionen sich langfristig rechnen, wird letztlich aber politisch entschieden und ist selbst unter stark idealisierten Bedingungen kaum vorhersagbar. N2 - Power plant investors face large uncertainties due to ongoing liberalization, climate policy, and long investment horizons. This study provides a probabilistic appraisal of power plant investments within the framework of Bayesian decision theory. A Bayesian influence diagram is used for setting up a discounted cash flow model and analysing the profitability of power plants. As the study explicitly models merit order pricing, the pass-through of random fuel and carbon costs may be analysed. The study derives probabilistic statements about net present values of single investments and company portfolios and explores the sensitivity of profits to variations of select input variables. In the majority of cases, an increase in the price of emission allowances also increases the net present value of existing power plant portfolios. A substantially increased carbon prices also is the prerequisite to diversify power plant portfolios by gas and CCS plants. For the currently prevailing German electricity market, we argue that investors may lack incentives for new investments in fossil generation, a finding that holds true also with implementation of CCS. Our estimates are conservative, as profitability will further deteriorate with the build-up of renewables. KW - Elektrizitätsmarkt KW - Liberalisierung KW - Emissionshandel KW - Bayes-Entscheidungstheorie KW - Deutschland KW - Bayesian statistical decision theory KW - Electric power production KW - Investments environmental aspects Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-69056 ER - TY - THES A1 - Önel, Hakan T1 - Electron acceleration in a flare plasma via coronal circuits T1 - Elektronenbeschleunigung im Flareplasma modelliert mit koronalen Schaltkreisen N2 - The Sun is a star, which due to its proximity has a tremendous influence on Earth. Since its very first days mankind tried to "understand the Sun", and especially in the 20th century science has uncovered many of the Sun's secrets by using high resolution observations and describing the Sun by means of models. As an active star the Sun's activity, as expressed in its magnetic cycle, is closely related to the sunspot numbers. Flares play a special role, because they release large energies on very short time scales. They are correlated with enhanced electromagnetic emissions all over the spectrum. Furthermore, flares are sources of energetic particles. Hard X-ray observations (e.g., by NASA's RHESSI spacecraft) reveal that a large fraction of the energy released during a flare is transferred into the kinetic energy of electrons. However the mechanism that accelerates a large number of electrons to high energies (beyond 20 keV) within fractions of a second is not understood yet. The thesis at hand presents a model for the generation of energetic electrons during flares that explains the electron acceleration based on real parameters obtained by real ground and space based observations. According to this model photospheric plasma flows build up electric potentials in the active regions in the photosphere. Usually these electric potentials are associated with electric currents closed within the photosphere. However as a result of magnetic reconnection, a magnetic connection between the regions of different magnetic polarity on the photosphere can establish through the corona. Due to the significantly higher electric conductivity in the corona, the photospheric electric power supply can be closed via the corona. Subsequently a high electric current is formed, which leads to the generation of hard X-ray radiation in the dense chromosphere. The previously described idea is modelled and investigated by means of electric circuits. For this the microscopic plasma parameters, the magnetic field geometry and hard X-ray observations are used to obtain parameters for modelling macroscopic electric components, such as electric resistors, which are connected with each other. This model demonstrates that such a coronal electric current is correlated with large scale electric fields, which can accelerate the electrons quickly up to relativistic energies. The results of these calculations are encouraging. The electron fluxes predicted by the model are in agreement with the electron fluxes deduced from the measured photon fluxes. Additionally the model developed in this thesis proposes a new way to understand the observed double footpoint hard X-ray sources. N2 - Die Sonne ist ein Stern, der aufgrund seiner räumlichen Nähe einen großen Einfluss auf die Erde hat. Seit jeher hat die Menschheit versucht die "Sonne zu verstehen" und besonders im 20. Jahrhundert gelang es der Wissenschaft viele der offenen Fragen mittels Beobachtungen zu beantworten und mit Modellen zu beschreiben. Die Sonne ist ein aktiver Stern, dessen Aktivität sich in seinem magnetischen Zyklus ausdrückt, welcher in enger Verbindung zu den Sonnenfleckenzahlen steht. Flares spielen dabei eine besondere Rolle, da sie hohe Energien auf kurzen Zeitskalen freisetzen. Sie werden begleitet von erhöhter Strahlungsemission über das gesamte Spektrum hinweg und setzen darüber hinaus auch energetische Teilchen frei. Beobachtungen von harter Röntgenstrahlung (z.B. mit der RHESSI Raumsonde der NASA) zeigen, dass ein großer Teil der freigesetzten Energie in die kinetische Energie von Elektronen transferiert wird. Allerdings ist nach wie vor nicht verstanden, wie die Beschleunigung der vielen Elektronen auf hohe Energien (jenseits von 20 keV) in Bruchteilen einer Sekunde erfolgt. Die vorliegende Arbeit präsentiert ein Model für die Erzeugung von energetischen Elektronen während solarer Flares, das auf mit realen Beobachtungen gewonnenen Parametern basiert. Danach bauen photosphärische Plasmaströmungen elektrische Spannungen in den aktiven Regionen der Photosphäre auf. Für gewöhnlich sind diese Potentiale mit elektrischen Strömen verbunden, die innerhalb der Photosphäre geschlossen sind. Allerdings kann infolge von magnetischer Rekonnektion eine magnetische Verbindung in der Korona aufgebaut werden, die die Regionen von magnetisch unterschiedlicher Polarität miteinander verbindet. Wegen der deutlich höheren koronalen elektrischen Leitfähigkeit, kann darauf die photosphärische Spannungsquelle über die Korona geschlossen werden. Das auf diese Weise generierte elektrische Feld führt nachfolgend zur Erzeugung eines hohen elektrischen Stromes, der in der dichten Chromosphäre harte Röntgenstrahlung generiert. Die zuvor erläuterte Idee wird mit elektrischen Schaltkreisen modelliert und untersucht. Dafür werden die mikroskopischen Plasmaparameter, die Geometrie des Magnetfeldes und Beobachtungen der harten Röntgenstrahlung verwendet, um makroskopische elektronische Komponenten, wie z.B. elektrische Widerstände zu modellieren und miteinander zu verbinden. Es wird gezeigt, dass der auftretende koronale Strom mit hohen elektrischen Feldern verbunden ist, welche Elektronen schnell auf hohe relativistische Energien beschleunigen können. Die Ergebnisse dieser Berechnungen sind ermutigend. Die vorhergesagten Elektronenflüsse stehen im Einklang mit aus gemessenen Photonenflüssen gewonnenen Elektronenflüssen. Zudem liefert das Model einen neuen Ansatz für das Verständnis der harten Röntgendoppelquellen in den Fußpunkten. KW - Elektronenbeschleunigung KW - Flarephysik KW - koronale Stromsysteme KW - electron acceleration KW - physics of flares KW - coronal currents Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29035 ER - TY - THES A1 - Zühlke, Martin T1 - Elektrosprayionisation Ionenmobilitätsspektrometrie T1 - Electrospray ionization Ion mobility spectrometry BT - Entwicklung, Charakterisierung und Anwendung zur HPLC-Detektion und zum Reaktionsmonitoring BT - development, characterization and application for HPLC detection and reaction monitoring N2 - Die Elektrosprayionisation (ESI) ist eine der weitverbreitetsten Ionisationstechniken für flüssige Pro-ben in der Massen- und Ionenmobilitäts(IM)-Spektrometrie. Aufgrund ihrer schonenden Ionisierung wird ESI vorwiegend für empfindliche, komplexe Moleküle in der Biologie und Medizin eingesetzt. Überdies ist sie allerdings für ein sehr breites Spektrum an Substanzklassen anwendbar. Die IM-Spektrometrie wurde ursprünglich zur Detektion gasförmiger Proben entwickelt, die hauptsächlich durch radioaktive Quellen ionisiert werden. Sie ist die einzige analytische Methode, bei der Isomere in Echtzeit getrennt und über ihre charakteristische IM direkt identifiziert werden können. ESI wurde in den 90ger Jahren durch die Hill Gruppe in die IM-Spektrometrie eingeführt. Die Kombination wird bisher jedoch nur von wenigen Gruppen verwendet und hat deshalb noch ein hohes Entwick-lungspotential. Ein vielversprechendes Anwendungsfeld ist der Einsatz in der Hochleistungs-flüssigkeitschromatographie (HPLC) zur mehrdimensionalen Trennung. Heutzutage ist die HPLC die Standardmethode zur Trennung komplexer Proben in der Routineanalytik. HPLC-Trennungsgänge sind jedoch häufig langwierig und der Einsatz verschiedener Laufmittel, hoher Flussraten, von Puffern, sowie Laufmittelgradienten stellt hohe Anforderungen an die Detektoren. Die ESI-IM-Spektrometrie wurde in einigen Studien bereits als HPLC-Detektor eingesetzt, war dort bisher jedoch auf Flussratensplitting oder geringe Flussraten des Laufmittels beschränkt. In dieser kumulativen Doktorarbeit konnte daher erstmals ein ESI IM-Spektrometer als HPLC-Detektor für den Flussratenbereich von 200-1500 μl/min entwickelt werden. Anhand von fünf Publi-kationen wurden (1) über eine umfassende Charakterisierung die Eignung des Spektrometers als HPLC-Detektor festgestellt, (2) ausgewählte komplexe Trenngänge präsentiert und (3) die Anwen-dung zum Reaktionsmonitoring und (4, 5) mögliche Weiterentwicklungen gezeigt. Erfolgreich konnten mit dem selbst-entwickelten ESI IM-Spektrometer typische HPLC-Bedingungen wie Wassergehalte im Laufmittel von bis zu 90%, Pufferkonzentrationen von bis zu 10 mM, sowie Nachweisgrenzen von bis zu 50 nM erreicht werden. Weiterhin wurde anhand der komplexen Trennungsgänge (24 Pestizide/18 Aminosäuren) gezeigt, dass die HPLC und die IM-Spektrometrie eine hohe Orthogonalität besitzen. Eine effektive Peakkapazität von 240 wurde so realisiert. Auf der HPLC-Säule koeluierende Substanzen konnten über die Driftzeit getrennt und über ihre IM identifi-ziert werden, sodass die Gesamttrennzeiten erheblich minimiert werden konnten. Die Anwend-barkeit des ESI IM-Spektrometers zur Überwachung chemischer Synthesen wurde anhand einer dreistufigen Reaktion demonstriert. Es konnten die wichtigsten Edukte, Zwischenprodukte und Produkte aller Stufen identifiziert werden. Eine quantitative Auswertung war sowohl über eine kurze HPLC-Vortrennung als auch durch die Entwicklung eines eigenen Kalibrierverfahrens, welches die Ladungskonkurrenz bei ESI berücksichtigt, ohne HPLC möglich. Im zweiten Teil der Arbeit werden zwei Weiterentwicklungen des Spektrometers präsentiert. Eine Möglichkeit ist die Reduzierung des Drucks in den intermediären Bereich (300 - 1000 mbar) mit dem Ziel der Verringerung der benötigten Spannungen. Mithilfe von Streulichtbildern und Strom-Spannungs-Kurven wurden für geringe Drücke eine verminderte Freisetzung der Analyt-Ionen aus den Tropfen festgestellt. Die Verluste konnten jedoch über höhere elektrische Feldstärken ausgeglichen werden, sodass gleiche Nachweisgrenzen bei 500 mbar und bei 1 bar erreicht wurden. Die zweite Weiterentwicklung ist ein neuartiges Ionentors mit Pulsschaltung, welches eine Verdopplung der Auflösung auf bis zu R > 100 bei gleicher Sensitivität ermöglichte. Eine denkbare Anwendung im Bereich der Peptidanalytik wurde mit beachtlichen Auflösungen der Peptide von R = 90 gezeigt. N2 - Electrospray ionization (ESI) is one of the most widespread ionization techniques for liquid samples in mass and ion mobility (IM) spectrometry. Due to its gentle ionization, ESI is often used for sensitive, complex molecules in biology and medicine. However, it is also applicable to a wide range of substance classes. IM spectrometry was originally developed for the detection of gaseous samples, which are mainly ionized by radioactive sources. It is the only analytical method in which isomers can be separated in real time and directly identified by their characteristic IM. ESI was introduced to IM spectrometry by the Hill Group in the 90s. So far, the combination was only used by a limited number of groups and therefore there is still a large development potential. A highly promising field of application is highperformance liquid chromatography (HPLC) for multidimensional separations. At present, HPLC is the standard method for the separation of complex samples in routine analysis. However, HPLC separations are often time-consuming and the use of different solvents, high flow rates, buffers, as well as solvent gradients impose high demands on the detectors. ESI IM spectrometry was already used as an HPLC detector in a number of studies. However, these studies were restricted to splitting or low flow rates of the mobile phase. In this cumulative thesis, an ESI IM spectrometer was developed as an HPLC detector for the flow rate range of 200-1500 μl/min for the first time. Based on five publications, (1) the suitability of the spectrometer as an HPLC detector was comprehensively characterized, (2) selected complex separations are presented, and (3) the application to the reaction monitoring as well as (4, 5) possible further developments are shown. With the in-house developed ESI IM spectrometer, typical HPLC conditions such as water contents in the mobile phase of up to 90%, buffer concentrations of up to 10 mM, as well as detection limits of up to 50 nM, were achieved successfully. Furthermore, on the basis of a complex separation (24 pesticides/18 amino acids), it could be demonstrated that HPLC and IM spectrometry possess a high degree of orthogonality. An effective peak capacity of 240 was thus realized. Substances coeulating on the HPLC column could be separated in the drift time and were identified by their IM. Thus, the overall separation times could be significantly reduced. The applicability of the ESI IM spectrometer for the monitoring of chemical syntheses was demonstrated for a three-stage reaction. The main starting materials, intermediates and products of all stages could be identified. A quantitative evaluation was possible both by means of a short HPLC pre-separation as well as by a newly developed calibration procedure, which takes charge competition during ESI into account, without HPLC. In the second part of the thesis, two further developments of the spectrometer are presented. One possibility is a reduction of the pressure to the intermediate range (300 - 1000 mbar) with the aim of reducing the required voltages. With the help of scattered light images and current-voltage curves, a reduced release of analyte ions from the droplets was determined at low pressures. However, these losses could be compensated for by higher electric field strengths. Therefore, the same detection limits were achieved at 500 mbar and at 1 bar. The second development is a novel ion gate with pulse switching, which allows a doubling of the resolution up to R > 100 with equal sensitivity. A possible application in the field of peptide analysis was demonstrated, achieving a considerable resolutions of R = 90 for the peptides. KW - HPLC KW - HPLC KW - Ionenmobilitätsspektrometrie KW - Elektrosprayionisation KW - ion mobility spectrometry KW - electrospray ionization (ESI) Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-407452 ER - TY - THES A1 - Zöller, Gert T1 - Analyse raumzeitlicher Muster in Erdbebendaten N2 - Die vorliegende Arbeit beschäftigt sich mit der Charakterisierung von Seismizität anhand von Erdbebenkatalogen. Es werden neue Verfahren der Datenanalyse entwickelt, die Aufschluss darüber geben sollen, ob der seismischen Dynamik ein stochastischer oder ein deterministischer Prozess zugrunde liegt und was daraus für die Vorhersagbarkeit starker Erdbeben folgt. Es wird gezeigt, dass seismisch aktive Regionen häufig durch nichtlinearen Determinismus gekennzeichent sind. Dies schließt zumindest die Möglichkeit einer Kurzzeitvorhersage ein. Das Auftreten seismischer Ruhe wird häufig als Vorläuferphaenomen für starke Erdbeben gedeutet. Es wird eine neue Methode präsentiert, die eine systematische raumzeitliche Kartierung seismischer Ruhephasen ermöglicht. Die statistische Signifikanz wird mit Hilfe des Konzeptes der Ersatzdaten bestimmt. Als Resultat erhält man deutliche Korrelationen zwischen seismischen Ruheperioden und starken Erdbeben. Gleichwohl ist die Signifikanz dafür nicht hoch genug, um eine Vorhersage im Sinne einer Aussage über den Ort, die Zeit und die Stärke eines zu erwartenden Hauptbebens zu ermöglichen. KW - Erdbeben KW - nichtlineare Dynamik Y1 - 1999 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000122 ER - TY - THES A1 - Zurell, Damaris T1 - Integrating dynamic and statistical modelling approaches in order to improve predictions for scenarios of environmental change T1 - Integration dynamischer und statistischer Modellansätze zur Verbesserung von Arealvorhersagen für Szenarien globalen Wandels N2 - Species respond to environmental change by dynamically adjusting their geographical ranges. Robust predictions of these changes are prerequisites to inform dynamic and sustainable conservation strategies. Correlative species distribution models (SDMs) relate species’ occurrence records to prevailing environmental factors to describe the environmental niche. They have been widely applied in global change context as they have comparably low data requirements and allow for rapid assessments of potential future species’ distributions. However, due to their static nature, transient responses to environmental change are essentially ignored in SDMs. Furthermore, neither dispersal nor demographic processes and biotic interactions are explicitly incorporated. Therefore, it has often been suggested to link statistical and mechanistic modelling approaches in order to make more realistic predictions of species’ distributions for scenarios of environmental change. In this thesis, I present two different ways of such linkage. (i) Mechanistic modelling can act as virtual playground for testing statistical models and allows extensive exploration of specific questions. I promote this ‘virtual ecologist’ approach as a powerful evaluation framework for testing sampling protocols, analyses and modelling tools. Also, I employ such an approach to systematically assess the effects of transient dynamics and ecological properties and processes on the prediction accuracy of SDMs for climate change projections. That way, relevant mechanisms are identified that shape the species’ response to altered environmental conditions and which should hence be considered when trying to project species’ distribution through time. (ii) I supplement SDM projections of potential future habitat for black grouse in Switzerland with an individual-based population model. By explicitly considering complex interactions between habitat availability and demographic processes, this allows for a more direct assessment of expected population response to environmental change and associated extinction risks. However, predictions were highly variable across simulations emphasising the need for principal evaluation tools like sensitivity analysis to assess uncertainty and robustness in dynamic range predictions. Furthermore, I identify data coverage of the environmental niche as a likely cause for contrasted range predictions between SDM algorithms. SDMs may fail to make reliable predictions for truncated and edge niches, meaning that portions of the niche are not represented in the data or niche edges coincide with data limits. Overall, my thesis contributes to an improved understanding of uncertainty factors in predictions of range dynamics and presents ways how to deal with these. Finally I provide preliminary guidelines for predictive modelling of dynamic species’ response to environmental change, identify key challenges for future research and discuss emerging developments. N2 - Das Vorkommen von Arten wird zunehmend bedroht durch Klima- und Landnutzungswandel. Robuste Vorhersagen der damit verbundenen Arealveränderungen sind ausschlaggebend für die Erarbeitung dynamischer und nachhaltiger Naturschutzstrategien. Habitateignungsmodelle erstellen statistische Zusammenhänge zwischen dem Vorkommen einer Art und relevanten Umweltvariablen und erlauben zügige Einschätzungen potentieller Arealveränderungen. Dabei werden jedoch transiente Dynamiken weitgehend ignoriert sowie demographische Prozesse und biotische Interaktionen. Daher wurden Vorschläge laut, diese statistischen Modelle mit mechanistischeren Ansätzen zu koppeln. In der vorliegenden Arbeit zeige ich zwei verschiedene Möglichkeiten solcher Kopplung auf. (i) Ich beschreibe den sogenannten ‚Virtuellen Ökologen’-Ansatz als mächtiges Validierungswerkzeug, in dem mechanistische Modelle virtuelle Testflächen bieten zur Erforschung verschiedener Probenahmedesigns oder statistischer Methoden sowie spezifischer Fragestellungen. Auch verwende ich diesen Ansatz, um systematisch zu untersuchen wie sich transiente Dynamiken sowie Arteigenschaften und ökologische Prozesse auf die Vorhersagegüte von Habitateignungsmodellen auswirken. So kann ich entscheidende Prozesse identifizieren welche in zukünftigen Modellen Berücksichtigung finden sollten. (ii) Darauf aufbauend koppele ich Vorhersagen von Habitateignungsmodellen mit einem individuen-basierten Populationsmodell, um die Entwicklung des Schweizer Birkhuhnbestandes unter Klimawandel vorherzusagen. Durch die explizite Berücksichtigung der Wechselwirkungen zwischen Habitat und demographischer Prozesse lassen sich direktere Aussagen über Populationsentwicklung und damit verbundener Extinktionsrisiken treffen. Allerdings führen verschiedene Simulationen auch zu hoher Variabilität zwischen Vorhersagen, was die Bedeutung von Sensitivitätsanalysen unterstreicht, um Unsicherheiten und Robustheit von Vorhersagen einzuschätzen. Außerdem identifiziere ich Restriktionen in der Datenabdeckung des Umweltraumes als möglichen Grund für kontrastierende Vorhersagen verschiedener Habitateignungsmodelle. Wenn die Nische einer Art nicht vollständig durch Daten beschrieben ist, kann dies zu unrealistischen Vorhersagen der Art-Habitat-Beziehung führen. Insgesamt trägt meine Arbeit erheblich bei zu einem besseren Verständnis der Auswirkung verschiedenster Unsicherheitsfaktoren auf Vorhersagen von Arealveränderungen und zeigt Wege auf, mit diesen umzugehen. Abschließend erstelle ich einen vorläufigen Leitfaden für Vorhersagemodelle und identifiziere Kernpunkte für weitere Forschung auf diesem Gebiet. KW - species distribution models KW - dynamic population models KW - climate change KW - prediction KW - uncertainty KW - Habitatmodelle KW - dynamische Populationsmodelle KW - Klimawandel KW - Vorhersage KW - Unsicherheit Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-56845 ER - TY - THES A1 - Zur, Avichai T1 - פרדוקס 'הידיעה והבחירה' במשנת ר' צדוק הכהן מלובלין T1 - The Paradox of Divine Foreknowledge ('Yediah') and Human Free Will ('Bechira') in the Theosophy of Rabbi Zadok Ha-Kohen of Lublin T1 - Das Paradox des göttlichen Vorwissens ('Yediah') und der menschliche freie Wille ('Bechira') in der Theosophie von Rabbi Zadok Ha-Kohen von Lublin N2 - This research deals with R. Zadok's innovative writings. According to most scholars R. Zadok continues the doctrine of his rabbi R. Mordechai Yosef Leiner of Izbica and introduces existential fatalism: man has the freedom to act against the customary law, according to God's will which is revealed in his heart, even in his passions, which exceed the Halacha; however, man does not determine the will that is revealed in the root of his soul, but only uncovers it. Many expressions, in content and form, of this fatalism can be found in R. Zadok's writings; yet, he also introduces many remarks about human free choice and its creative power to establish and determine man's root and re-establish and influence the Divine worlds and this world. This research focuses on these passages whose centrality has been so far neglected by research. Hence, its renewed understanding of his doctrine. R. Zadok's position can be explained by means of the paradoxical perception, which claims the full strength of the two opposites and even a mutual influence between them, which creates a difficult yet fertile tension: as opposed to the a priori intellectual and formal process of fatalism where Divine Foreknowledge eliminates free choice, R. Zadok introduces fatality which identifies in reality itself the Divine foreknowledge and will that exist in all things. In R. Zadok's fatality, Divine foreknowledge does not eliminate free choice; on the contrary, without Divine foreknowledge, nothing has existence. Therefore, only the existence of Divine foreknowledge within free choice enables its true and indeed free fulfillment. R. Zadok's ontological perception is realized not only in the direct content of his words but also indirectly, in the method of his exegesis and the sense he gives to the concepts he discusses. Therefore the fatality is revealed in other areas in which there is a gap between the absolute dimension ('Yedi'ah') and the contingent dimension ('Bechirah'): the lie, imagination, evil, sin, suffering etc., indeed contingent compared with the absoluteness of truth, good, etc.; however, according to R. Zadok, God wants them as such – that is to say, they have an essential existence and actuality that are not absolute, but rather as such: as contingent, temporary and relative. However, these essential existence and actuality do not confirm them as they are but create a transformation within them. For example, evil does not become absolute good or remains evil but rather turns into 'Very Good' (Tov Me'od) which includes evil and according to Rabbi Zadok is greater than regular good. From this, rises also the opposite influence: that of free choice, or contingent Bechira in general, on Divine Foreknowledge, or absolute Yediah in general. According to R. Zadok, when the contingency and relativity of "Bechirah" received its essential existence and actuality, it has the power so to speak, to add dynamism to the permanent Divine absoluteness of the 'Yedi'ah': the affliction (Nega; נגע) of sin or suffering turns by itself, by interchanging its letters, into pleasure (Oneg; ענג) which is greater than regular delight. Man has the power to influence the upper worlds by decreeing decrees or by canceling Divine decrees; he also has the power to influence the daily novelties of this world, by the novellaes of the Oral Law and the sanctification of the new month which is capable of changing the movement of the zodiac. The human creativity of the novellae of the Oral Law is included in the Divine truth which is hidden in the Written Law and it only reveals and interprets the latter; but on the other hand, according to R. Zadok, the source of the dynamic vital novellaes of the Oral Law is higher than the source of the permanent absoluteness of Written Law and they are those which create and determine the latter. R. Zadok introduces two main concepts for his paradox: On the ontological perception – Yichud Gamur, the Ultimate Unification of God, in which the contingent duality (between God and His creation, and the choice it enables) of the Lower Unification paradoxically exists with the absolute unification and Divine Foreknowledge of the Upper Unification. On the perception of man's existential situation – HaShoresh HaNe'elam, The Hidden Root: unlike Rabbi Mordechai Yosef, his rabbi, rabbi Zadok claims that man determines his destiny by his willful contingent actions – yet, simultaneously, like his rabbi, he also claims that the man's permanent root is determined by God and His Foreknowledge and it is what determines his actions for better or worse. But above these R. Zadok points to an additional Hidden Root which is higher than the permanent one: it is indeed an absolute root (Yediah) yet is determined and established by man's willful actions (Bechira), similar to the Divine creation of 'ex nihilo'. N2 - מחקר זה עוסק במשנתו החדשנית של ר' צדוק הכהן מלובלין. לפי רוב החוקרים, ר' צדוק ממשיך את משנת רבו, ר' מרדכי יוסף ליינער מאיזביצה, ומציג פטליזם אקזיסטנציאליסטי: לאדם יש חופש כנגד החוק המקובל, לפי רצון האל הנגלה בליבו, אפילו בתשוקותיו, החורג מההלכה; ואולם, האדם אינו קובע את הרצון המתגלה בשורש נשמתו, אלא חושפו בלבד. בכתבי ר' צדוק ניתן למצוא ביטויים רבים, בתוכן ובצורה, לפטליזם זה; עם זאת, הוא מציג גם התבטאויות רבות בדבר הבחירה האנושית החופשית וכוחה היצירתי לכונן ולקבוע את שורשו של האדם, ולחדש ולהשפיע על העולמות האלוקיים ועל העולם-הזה. מחקר זה מתמקד בקטעים אלו שמרכזיותם הוזנחה במחקר עד כה, ומכאן הבנתו המחודשת במשנתו. את עמדת ר' צדוק ניתן להסביר באמצעות התפיסה הפרדוקסלית, הטוענת לכוחם המלא של שני הקטבים הסותרים ואף להשפעה הדדית ביניהם, היוצרת מתח קשה אך פורה: בניגוד לתהליך הפורמלי, האניטלקטואלי והאפריורי של הפטליזם, שבו 'הידיעה' האלוהית מבטלת את 'הבחירה' האנושית החופשית, ר' צדוק מציג פטאליות, המזהה המציאות עצמה את הידיעה והרצון האלוהיים המצויים בכל. בפטליות זו הידיעה אינה מבטלת את הבחירה; להיפך: ללא הידיעה האלוקית אין לאף דבר קיום, ולכן רק מציאות הידיעה בבחירה היא המאפשרת את קיומה הממשי. תפיסתו האונטולוגית של ר' צדוק מתקיימת לא רק בתוכן הישיר של דבריו, אלא גם בעקיפין, באופן דרשנותו ובמובן שהוא מעניק למושגים שבהם הוא דן; לכן, הפטליות מתגלה גם בתחומים נוספים, שבהם מצוי פער בין הממד המוחלט וההכרחי ('ידיעה') לממד הקונטינגנטי, הארעי והיחסי ('בחירה'): השקר, הדמיון, הרוע, החטא, הייסורים ועוד, אמנם קונטינגנטיים ויחסיים לעומת מוחלטות האמת, הטוב וכו'; אך לפי ר' צדוק, האל רוצה בהם ככאלה – כלומר יש להם ממשות שאינה מוחלטת, אלא ממשות ככאלה, כקונטינגנטיים. אך ממשות זו אינה מאשרת אותם כפי שהם, אלא יוצרת בהם-עצמם טרנספורמציה. למשל, הרוע אינו הופך לטוב מוחלט או נותר כרוע, אלא הופך ל'טוב מאד' שלפי ר' צדוק גדול מהטוב הרגיל. מכאן עולה גם ההשפעה ההפוכה, זו של הבחירה על הידיעה. לפי ר' צדוק, משקבלה הקונטינגנטיות והיחסיות של 'הבחירה' – שהיא למעשה מהות הבריאה ומהות האדם ומעשיו – את ממשותה, בכוחה אף להוסיף כביכול על המוחלטות האלוקית הקבועה של 'הידיעה': 'נגע' החטא או הייסורים הופך בעצמו, בחילוף אותם אותיות, ל'ענג' הגדול מההנאה הרגילה; בכוח האדם להשפיע על העולמות העליונים בגזירת גזירות ובביטול גזירות אלוקיות; בכוחו אף להשפיע על העולם-הזה, בחידושו היומיומי על-ידי חידושי התושב"ע, ובקידוש החודש המסוגל לשנות את תנועת המזלות השמימיים. מצד אחד, היצירתיות האנושית של חידושי התושב"ע כלולה באמת האלוקית הגנוזה בתושב"כ האלוקית והיא רק חושפת אותה; אך לפי ר"צ, מצד אחר מתברר שמקור חידושי התושב"ע דווקא גבוה ממקור התושב"כ והם אלו היוצרים וקובעים אותה. ר' צדוק מציג שני מושגים מרכזיים לפרדוקס שלו: בממד האונטולוגי – 'הייחוד הגמור' של האל, שבו הדואליות הקונטינגנטית (בין האל לנבראיו, והבחירה שהיא מאפשרת) של 'הייחוד התחתון' מתקיימת פרדוקסלית עם האחדות המוחלטת ו'הידיעה' האלוהית של 'הייחוד העליון'. בממד של מצבו האקזיסטנציאלי של האדם – 'השורש הנעלם': בניגוד לר' מרדכי יוסף רבו, ר' צדוק טוען שהאדם קובע את גורלו על-ידי מעשיו הבחיריים והקונטינגנטיים; ואולם, במקביל, בדומה לרבו, הוא טוען גם שהשורש הקבוע של האדם נקבע על-ידי 'הידיעה' האלוהית והיא זו הקובעת את מעשיו לטוב או למוטב. אך מעל אלו מציג ר' צדוק שורש נוסף, 'נעלם' הגבוה מהשורש הקבוע: הוא אכן שורש מוחלט ('ידיעה'), אך הוא נקבע ומכוּנן על-ידי מעשיו הבחיריים של האדם, בדומה לבריאה האלוהית 'יש מאין'. KW - paradox KW - Paradox KW - free choice/ will KW - freie Wahl KW - divine foreknowledge KW - göttliches Vorwissen KW - hassidism KW - Chassidismus KW - Zadok Hakohen of Lublin KW - Zadok Hakohen von Lublin KW - Friedrich Nietzsche KW - Friedrich Nietzsche KW - Kabbalah KW - Kabbala KW - existentialism KW - Existentialismus KW - Sefirot KW - Sephiroth KW - evil KW - Böse KW - sin KW - Sünde KW - determinism KW - Determinismus KW - fatalism KW - Fatalismus KW - predestination KW - Prädestination KW - contingency KW - Kontingenz KW - Maimonides KW - Maimonides KW - Izbica KW - Izbica KW - Lublin KW - Lublin KW - transcendence KW - Transzendenz KW - Immanenz KW - immanence KW - pantheism KW - Pantheismus KW - panentheism KW - Panentheismus KW - the oral Torah/ Law KW - die mündliche Thora KW - compatibilism KW - Kompatibilismus KW - pessimism KW - Pessimismus KW - קומפטיביליזם KW - קונטינגנטיות KW - דטרמיניזם KW - ידיעה אלוהית מוקדמת KW - רוע KW - אקזיסטנציאליזם KW - פטאליזם KW - רצון/בחירה חופשי/ת KW - פרידריך ניטשה KW - חסידות KW - אימננטיות KW - איזביצה KW - קבלה KW - לובלין KW - הרמב"ם KW - פנתאיזם KW - פרדוקס KW - פסימיזם KW - פרידסטינציה KW - ספירות KW - חטא KW - התורה שבעל-פה KW - טרנסצנדנטיות KW - צדוק הכהן מלובלין KW - פנאנתאיזם Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412201 ER - TY - THES A1 - Zuo, Zhe T1 - From unstructured to structured: Context-based named entity mining from text T1 - Von unstrukturiert zu strukturiert: Kontextbasierte Gewinnung benannter Entitäten von Text N2 - With recent advances in the area of information extraction, automatically extracting structured information from a vast amount of unstructured textual data becomes an important task, which is infeasible for humans to capture all information manually. Named entities (e.g., persons, organizations, and locations), which are crucial components in texts, are usually the subjects of structured information from textual documents. Therefore, the task of named entity mining receives much attention. It consists of three major subtasks, which are named entity recognition, named entity linking, and relation extraction. These three tasks build up an entire pipeline of a named entity mining system, where each of them has its challenges and can be employed for further applications. As a fundamental task in the natural language processing domain, studies on named entity recognition have a long history, and many existing approaches produce reliable results. The task is aiming to extract mentions of named entities in text and identify their types. Named entity linking recently received much attention with the development of knowledge bases that contain rich information about entities. The goal is to disambiguate mentions of named entities and to link them to the corresponding entries in a knowledge base. Relation extraction, as the final step of named entity mining, is a highly challenging task, which is to extract semantic relations between named entities, e.g., the ownership relation between two companies. In this thesis, we review the state-of-the-art of named entity mining domain in detail, including valuable features, techniques, evaluation methodologies, and so on. Furthermore, we present two of our approaches that focus on the named entity linking and relation extraction tasks separately. To solve the named entity linking task, we propose the entity linking technique, BEL, which operates on a textual range of relevant terms and aggregates decisions from an ensemble of simple classifiers. Each of the classifiers operates on a randomly sampled subset of the above range. In extensive experiments on hand-labeled and benchmark datasets, our approach outperformed state-of-the-art entity linking techniques, both in terms of quality and efficiency. For the task of relation extraction, we focus on extracting a specific group of difficult relation types, business relations between companies. These relations can be used to gain valuable insight into the interactions between companies and perform complex analytics, such as predicting risk or valuating companies. Our semi-supervised strategy can extract business relations between companies based on only a few user-provided seed company pairs. By doing so, we also provide a solution for the problem of determining the direction of asymmetric relations, such as the ownership_of relation. We improve the reliability of the extraction process by using a holistic pattern identification method, which classifies the generated extraction patterns. Our experiments show that we can accurately and reliably extract new entity pairs occurring in the target relation by using as few as five labeled seed pairs. N2 - Mit den jüngsten Fortschritten in den Gebieten der Informationsextraktion wird die automatisierte Extrahierung strukturierter Informationen aus einer unüberschaubaren Menge unstrukturierter Textdaten eine wichtige Aufgabe, deren manuelle Ausführung unzumutbar ist. Benannte Entitäten, (z.B. Personen, Organisationen oder Orte), essentielle Bestandteile in Texten, sind normalerweise der Gegenstand strukturierter Informationen aus Textdokumenten. Daher erhält die Aufgabe der Gewinnung benannter Entitäten viel Aufmerksamkeit. Sie besteht aus drei groen Unteraufgaben, nämlich Erkennung benannter Entitäten, Verbindung benannter Entitäten und Extraktion von Beziehungen. Diese drei Aufgaben zusammen sind der Grundprozess eines Systems zur Gewinnung benannter Entitäten, wobei jede ihre eigene Herausforderung hat und für weitere Anwendungen eingesetzt werden kann. Als ein fundamentaler Aspekt in der Verarbeitung natürlicher Sprache haben Studien zur Erkennung benannter Entitäten eine lange Geschichte, und viele bestehenden Ansätze erbringen verlässliche Ergebnisse. Die Aufgabe zielt darauf ab, Nennungen benannter Entitäten zu extrahieren und ihre Typen zu bestimmen. Verbindung benannter Entitäten hat in letzter Zeit durch die Entwicklung von Wissensdatenbanken, welche reiche Informationen über Entitäten enthalten, viel Aufmerksamkeit erhalten. Das Ziel ist es, Nennungen benannter Entitäten zu unterscheiden und diese mit dazugehörigen Einträgen in einer Wissensdatenbank zu verknüpfen. Der letzte Schritt der Gewinnung benannter Entitäten, die Extraktion von Beziehungen, ist eine stark anspruchsvolle Aufgabe, nämlich die Extraktion semantischer Beziehungen zwischen Entitäten, z.B. die Eigentümerschaft zwischen zwei Firmen. In dieser Doktorarbeit arbeiten wir den aktuellen Stand der Wissenschaft in den Domäne der Gewinnung benannter Entitäten auf, unter anderem wertvolle Eigenschaften und Evaluationsmethoden. Darüberhinaus präsentieren wir zwei Ansätze von uns, die jeweils ihren Fokus auf die Verbindung benannter Entitäten sowie der Aufgaben der Extraktion von Beziehungen legen. Um die Aufgabe der Verbindung benannter Entitäten zu lösen schlagen wir hier die Verbindungstechnik BEL vor, welche auf einer textuellen Bandbreite relevanter Begriffe agiert und Entscheidungen einer Kombination von einfacher Klassifizierer aggregiert. Jeder dieser Klassifizierer arbeitet auf einer zufällig ausgewählten Teilmenge der obigen Bandbreite. In umfangreichen Experimenten mit handannotierten sowie Vergleichsdatensätzen hat unser Ansatz andere Lösungen zur Verbindung benannter Entitäten, die auf dem Stand der aktuellen Technik beruhen, sowie in Bezug auf Qualität als auch Effizienz geschlagen. Für die Aufgabe der Extraktion von Beziehungen fokussieren wir uns auf eine bestimmte Gruppe schwieriger Beziehungstypen, nämlich die Geschäftsbeziehungen zwischen Firmen. Diese Beziehungen können benutzt werden, um wertvolle Erkenntnisse in das Zusammenspiel von Firmen zu gelangen und komplexe Analysen ausführen, beispielsweise die Risikovorhersage oder Bewertung von Firmen. Unsere teilbeaufsichtigte Strategie kann Geschäftsbeziehungen zwischen Firmen anhand nur weniger nutzergegebener Startwerte von Firmenpaaren extrahieren. Dadurch bieten wir auch eine Lösung für das Problem der Richtungserkennung asymmetrischer Beziehungen, beispielsweise der Eigentumsbeziehung. Wir verbessern die Verlässlichkeit des Extraktionsprozesses, indem wir holistische Musteridentifikationsmethoden verwenden, welche die erstellten Extraktionsmuster klassifizieren. Unsere Experimente zeigen, dass wir neue Entitätenpaare akkurat und verlässlich in der Zielbeziehung mit bereits fünf bezeichneten Startpaaren extrahieren können. KW - named entity mining KW - information extraction KW - natural language processing KW - Gewinnung benannter Entitäten KW - Informationsextraktion KW - maschinelle Verarbeitung natürlicher Sprache Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-412576 ER - TY - THES A1 - Zuhr, Alexandra T1 - Proxy signal formation in palaeoclimate archives T1 - Proxy-Signalbildung in Paläoklimaarchiven BT - a characterisation of climate signal deposition and modification in marine sediments and polar ice BT - eine Charakterisierung der Ablagerung und Veränderung von Klimasignalen in Meeressedimenten und Polarem Ei N2 - Throughout the last ~3 million years, the Earth's climate system was characterised by cycles of glacial and interglacial periods. The current warm period, the Holocene, is comparably stable and stands out from this long-term cyclicality. However, since the industrial revolution, the climate has been increasingly affected by a human-induced increase in greenhouse gas concentrations. While instrumental observations are used to describe changes over the past ~200 years, indirect observations via proxy data are the main source of information beyond this instrumental era. These data are indicators of past climatic conditions, stored in palaeoclimate archives around the Earth. The proxy signal is affected by processes independent of the prevailing climatic conditions. In particular, for sedimentary archives such as marine sediments and polar ice sheets, material may be redistributed during or after the initial deposition and subsequent formation of the archive. This leads to noise in the records challenging reliable reconstructions on local or short time scales. This dissertation characterises the initial deposition of the climatic signal and quantifies the resulting archive-internal heterogeneity and its influence on the observed proxy signal to improve the representativity and interpretation of climate reconstructions from marine sediments and ice cores. To this end, the horizontal and vertical variation in radiocarbon content of a box-core from the South China Sea is investigated. The three-dimensional resolution is used to quantify the true uncertainty in radiocarbon age estimates from planktonic foraminifera with an extensive sampling scheme, including different sample volumes and replicated measurements of batches of small and large numbers of specimen. An assessment on the variability stemming from sediment mixing by benthic organisms reveals strong internal heterogeneity. Hence, sediment mixing leads to substantial time uncertainty of proxy-based reconstructions with error terms two to five times larger than previously assumed. A second three-dimensional analysis of the upper snowpack provides insights into the heterogeneous signal deposition and imprint in snow and firn. A new study design which combines a structure-from-motion photogrammetry approach with two-dimensional isotopic data is performed at a study site in the accumulation zone of the Greenland Ice Sheet. The photogrammetry method reveals an intermittent character of snowfall, a layer-wise snow deposition with substantial contributions by wind-driven erosion and redistribution to the final spatially variable accumulation and illustrated the evolution of stratigraphic noise at the surface. The isotopic data show the preservation of stratigraphic noise within the upper firn column, leading to a spatially variable climate signal imprint and heterogeneous layer thicknesses. Additional post-depositional modifications due to snow-air exchange are also investigated, but without a conclusive quantification of the contribution to the final isotopic signature. Finally, this characterisation and quantification of the complex signal formation in marine sediments and polar ice contributes to a better understanding of the signal content in proxy data which is needed to assess the natural climate variability during the Holocene. N2 - Während der letzten ~3 Millionen Jahre war das Klimasystem der Erde durch Zyklen von Glazialen und Interglazialen gekennzeichnet. Die aktuelle Warmperiode, das Holozän, ist vergleichsweise stabil und hebt sich von dieser langen Zyklizität ab. Seit der industriellen Revolution wird das Klima jedoch zunehmend durch einen vom Menschen verursachten Anstieg der Treibhausgaskonzentrationen beeinflusst. Während instrumentelle Beobachtungen die Veränderungen der letzten ~200 Jahre beschreiben können, liefern Proxydaten die meisten klimatischen Informationen für den Zeitraum vor diesen Beobachtungen. Proxies zeichnen vergangene Klimabedingungen auf und sind in Paläoklimaarchiven rund um die Erde gespeichert. Das Proxysignal wird durch eine Vielzahl an Prozessen beeinflusst, die unabhängig von den vorherrschenden klimatischen Bedingungen sind. Insbesondere bei sedimentären Archiven wie Meeressedimenten und Eisschilden kann es während oder nach der Ablagerung zu einer Umverteilung des Materials und einer Änderung des Signals kommen. Dies führt zu nicht-klimatischen Unsicherheiten in den Daten, was zuverlässige Rekonstruktionen auf lokalen oder kurzen zeitlichen Skalen erschwert. Diese Dissertation charakterisiert die Ablagerung des Klimasignals und quantifiziert die daraus resultierende archiv-interne Heterogenität und ihren Einfluss auf das beobachtete Proxysignal, um die Repräsentativität und Interpretation von Klimarekonstruktionen aus marinen Sedimenten und Eiskernen zu verbessern. Zu diesem Zweck wird die horizontale und vertikale Variabilität des Radiokarbongehalts in einem Sedimentkern aus dem Südchinesischen Meer untersucht. Die dreidimensionale Auflösung des Kastenbohrers wird genutzt, um die tatsächliche Unsicherheit in Alterabschätzung von planktonische Foraminiferen mittels der Radiokarbonmethode zu quantifizieren. Mit Hilfe von verschiedene Probenvolumina und wiederholten Messungen von kleinen und großen Anzahlen an Lebewesen wird eine Quantifizierung der Variabilität, die auf die Durchmischung des Sediments durch benthische Organismen zurückzuführen ist, durchgeführt. Die Durchmischung der Sedimente verursacht eine starke interne Heterogenität, was zu Fehlertermen, die zwei bis fünf Mal größer sind als bisher angenommen, und einer erheblichen zeitlichen Unsicherheit von Rekonstruktionen basierend auf Proxydaten führt. Eine zweite dreidimensionale Analyse liefert Einblicke in die heterogene Signalablagerung in Schnee und Firn. Hierzu wird ein neues Studiendesign in der Akkumulationszone des grönländischen Eisschilds angewandt, wobei ein Structure-from-Motion Photogrammetrie Ansatz mit zweidimensionalen Isotopendaten kombiniert wird. Die photogrammetrische Methode zeigt, dass die Akkumulation von Schnee sehr variable ist. Die Entwicklung der Schneeablagerung an der Oberfläche erfolgt primär schichtweise mit erheblichen Veränderungen durch eine windgestriebene Erosion und Umverteilung des Schnees. Diese Dynamik führt zu einer räumlich variablen Akkumulation und sratigraphischem Rauschens an der Oberfläche. Die heterogene Akkumulation bestimmt die räumliche Ablagerung der klimatischen Informationen, die in der Isotopenzusammensetzung des Schness enthalten ist. Stratigraphische Rauschen der Oberfläche bleibt in der oberen Firnsäule erhalten, was zu einem räumlich variablen Signaleindruck führt. Weiterhin werden zusätzliche Veränderungen nach der Ablagerung durch Austauschprozesse zwischen dem Schnee und der Atmosphäre untersucht, jedoch ohne eine schlüssige Quantifizierung dieses Beitrags zur endgültigen Isotopensignatur. Die Charakterisierung und Quantifizierung der komplexen und heterogenen Signalbildung in marinen Sedimenten und Gletschereis verbessert letztlich das Verständnis des Signalgehalts in Proxydaten und trägt dazu bei, die natürliche Klimavariabilität des Holozäns besser abzuschätzen. KW - polar ice KW - marine sediments KW - palaeoclimatology KW - signal formation KW - climatolgoy KW - Klimatologie KW - Meeressedimente KW - Paläoklimatologie KW - polares Eis KW - Signalbildung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-582864 ER - TY - THES A1 - Zou, Yong T1 - Exploring recurrences in quasiperiodic systems T1 - Untersuchung des Wiederkehrverhaltens in quasiperiodischen dynamischen Systemen N2 - In this work, some new results to exploit the recurrence properties of quasiperiodic dynamical systems are presented by means of a two dimensional visualization technique, Recurrence Plots(RPs). Quasiperiodicity is the simplest form of dynamics exhibiting nontrivial recurrences, which are common in many nonlinear systems. The concept of recurrence was introduced to study the restricted three body problem and it is very useful for the characterization of nonlinear systems. I have analyzed in detail the recurrence patterns of systems with quasiperiodic dynamics both analytically and numerically. Based on a theoretical analysis, I have proposed a new procedure to distinguish quasiperiodic dynamics from chaos. This algorithm is particular useful in the analysis of short time series. Furthermore, this approach demonstrates to be efficient in recognizing regular and chaotic trajectories of dynamical systems with mixed phase space. Regarding the application to real situations, I have shown the capability and validity of this method by analyzing time series from fluid experiments. N2 - In dieser Arbeit stelle ich neue Resultate vor, welche zeigen, wie man Rekurrenzeigenschaften quasiperiodischer, dynamischer Systeme für eine Datenanalyse ausnutzen kann. Die vorgestellten Algorithmen basieren auf einer zweidimensionalen Darstellungsmethode, den Rekurrenz-Darstellungen. Quasiperiodizität ist die einfachste Dynamik, die nicht-triviale Rekurrenzen zeigt und tritt häufig in nichtlinearen Systemen auf. Nicht-triviale Rekurrenzen wurden im Zusammenhang mit dem eingeschränkten Dreikörper-problem eingeführt. In dieser Arbeit, habe ich mehrere Systeme mit quasiperiodischem Verhalten analytisch untersucht. Die erhaltenen Ergebnisse helfen die Wiederkehreigenschaften dieser Systeme im Detail zu verstehen. Basierend auf den analytischen Resultaten, schlage ich einen neuen Algorithmus vor, mit dessen Hilfe selbst in kurzen Zeitreihen zwischen chaotischem und quasiperiodischem Verhalten unterschieden werden kann. Die vorgeschlagene Methode ist besonders effizient zur Unterscheidung regulärer und chaotischer Trajektorien mischender dynamischer Systeme.Die praktische Anwendbarkeit der vorgeschlagenen Analyseverfahren auf Messdaten, habe ich gezeigt, indem ich erfolgreich Zeitreihen aus fluid-dynamischen Experimenten untersucht habe. KW - Wiederkehrverhalten KW - quasiperiodisches dynamisches System KW - Recurrence Plot KW - recurrence KW - quasiperiodic dynamical systems KW - recurrence plots Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16497 ER - TY - THES A1 - Zorn, Edgar Ulrich T1 - Monitoring lava dome growth and deformation with photogrammetric methods and modelling N2 - Lava domes are severely hazardous, mound-shaped extrusions of highly viscous lava and commonly erupt at many active stratovolcanoes around the world. Due to gradual growth and flank oversteepening, such lava domes regularly experience partial or full collapses, resulting in destructive and far-reaching pyroclastic density currents. They are also associated with cyclic explosive activity as the complex interplay of cooling, degassing, and solidification of dome lavas regularly causes gas pressurizations on the dome or the underlying volcano conduit. Lava dome extrusions can last from days to decades, further highlighting the need for accurate and reliable monitoring data. This thesis aims to improve our understanding of lava dome processes and to contribute to the monitoring and prediction of hazards posed by these domes. The recent rise and sophistication of photogrammetric techniques allows for the extraction of observational data in unprecedented detail and creates ideal tools for accomplishing this purpose. Here, I study natural lava dome extrusions as well as laboratory-based analogue models of lava dome extrusions and employ photogrammetric monitoring by Structure-from-Motion (SfM) and Particle-Image-Velocimetry (PIV) techniques. I primarily use aerial photography data obtained by helicopter, airplanes, Unoccupied Aircraft Systems (UAS) or ground-based timelapse cameras. Firstly, by combining a long time-series of overflight data at Volcán de Colima, México, with seismic and satellite radar data, I construct a detailed timeline of lava dome and crater evolution. Using numerical model, the impact of the extrusion on dome morphology and loading stress is further evaluated and an impact on the growth direction is identified, bearing important implications for the location of collapse hazards. Secondly, sequential overflight surveys at the Santiaguito lava dome, Guatemala, reveal surface motion data in high detail. I quantify the growth of the lava dome and the movement of a lava flow, showing complex motions that occur on different timescales and I provide insight into rock properties relevant for hazard assessment inferred purely by photogrammetric processing of remote sensing data. Lastly, I recreate artificial lava dome and spine growth using analogue modelling under controlled conditions, providing new insights into lava extrusion processes and structures as well as the conditions in which they form. These findings demonstrate the capabilities of photogrammetric data analyses to successfully monitor lava dome growth and evolution while highlighting the advantages of complementary modelling methods to explain the observed phenomena. The results presented herein further bear important new insights and implications for the hazards posed by lava domes. N2 - Lavadome sind kuppelförmige Aufstauungen aus zähflüssiger Lava und bilden sich häufig bei Eruptionen an aktiven Stratovulkanen. Sie stellen dabei oft eine erhebliche Gefahr für Menschen und Infrastruktur dar, weil Lavadome instabil werden können und bei einem Kollaps pyroklastische Ströme (auch Glutlawinen) erzeugen können. Diese können innerhalb von Minuten weite Flächen verwüsten, daher ist die Überwachung von Lavadomen und deren Wachstum mit genauen und zuverlässigen Daten von großer Bedeutung. In dieser Arbeit werden das Wachstum und die Bewegungen von Lavadomen mit fotogrammetrischen Methoden (Vermessungen anhand von Fotos) und mit Modellierungen in drei Teilstudien getestet und untersucht. Dazu wurden Daten sowohl an Lavadomen von Vulkanen in Mexiko und Guatemala als auch mittels künstlich erzeugter Dome im Labor erhoben. Hierbei wurden insbesondere das Structure-from-Motion-Verfahren, bei dem mithilfe einer Serie von Luftaufnahmen ein hochauflösendes 3D-Modell des Lavadoms und des Vulkans erstellt wird, und das Particle-Image-Velocimetry-Verfahren, bei dem aus einer Zeitreihe von Fotos kleinste Bewegungen detailliert gemessen werden können, verwendet. In der ersten Teilstudie wird aus einer Kombination von Überflugsbildern, Radardaten eines Satelliten, und seismischen Daten eine detaillierte Zeitreihe des Lavadom-Wachstums und der Kraterentwickelung am Volcán de Colima, Méxiko, erstellt. Anschließend werden die dabei erfassten Richtungen des Domwachstums mit numerischen Modellen auf Basis der fotogrammetrischen 3D-Modelle simuliert, welche zeigen, dass sich lokale Änderungen der Topografie auf die Wachstumsrichtung auswirken können. In der zweiten Teilstudie werden Drohnen in verschiedenen Zeitintervallen über einen Lavadom am Santa Maria Vulkan, Guatemala, geflogen. Die Überflugsdaten zeigen dabei Bewegungen sowohl an einem Lavastrom als auch ein Anschwellen des Doms mit jeweils unterschiedlichen Geschwindigkeiten. Ferner können die Daten genutzt werden um Oberflächentemperatur und die Viskosität (Zähflüssigkeit) der Lava zu vermessen, welche für die Gefahrenanalyse eine wichtige Rolle spielen. In der dritten Teilstudie werden künstliche Dom-Modelle mithilfe von Sand-Gips-Gemischen erzeugt. Diese können sowohl den Aufbau und Morphologie als auch die internen Strukturen von Lavadomen simulieren und anhand von Zeitraffer-Aufnahmen im Detail nachstellen. Die Ergebnisse zeigen, dass Fotogrammetrie und Modellierungen geeignete Mittel sind um Lavadome sowie deren Entstehungsprozesse und Gefahren zu verfolgen und neue Erkenntnisse zu gewinnen. T2 - Überwachung von Wachstum und Deformation an Lavadomen mit fotogrammetrischen Methoden und Modellierungen KW - Lava dome KW - Lavadom KW - Photogrammetry KW - Fotogrammetrie KW - Volcano KW - Vulkan KW - Analogue Model KW - Analogmodell Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-483600 ER - TY - THES A1 - Zona, Carlotta Isabella T1 - Visuo-linguistic integration for thematic-role assignment across speakers T1 - Visuell-linguistische Integration für die Zuweisung thematischer Rollen über Sprecher hinweg N2 - This dissertation examines the integration of incongruent visual-scene and morphological-case information (“cues”) in building thematic-role representations of spoken relative clauses in German. Addressing the mutual influence of visual and linguistic processing, the Coordinated Interplay Account (CIA) describes a mechanism in two steps supporting visuo-linguistic integration (Knoeferle & Crocker, 2006, Cog Sci). However, the outcomes and dynamics of integrating incongruent thematic-role representations from distinct sources have been investigated scarcely. Further, there is evidence that both second-language (L2) and older speakers may rely on non-syntactic cues relatively more than first-language (L1)/young speakers. Yet, the role of visual information for thematic-role comprehension has not been measured in L2 speakers, and only limitedly across the adult lifespan. Thematically unambiguous canonically ordered (subject-extracted) and noncanonically ordered (object-extracted) spoken relative clauses in German (see 1a-b) were presented in isolation and alongside visual scenes conveying either the same (congruent) or the opposite (incongruent) thematic relations as the sentence did. 1 a Das ist der Koch, der die Braut verfolgt. This is the.NOM cook who.NOM the.ACC bride follows This is the cook who is following the bride. b Das ist der Koch, den die Braut verfolgt. This is the.NOM cook whom.ACC the.NOM bride follows This is the cook whom the bride is following. The relative contribution of each cue to thematic-role representations was assessed with agent identification. Accuracy and latency data were collected post-sentence from a sample of L1 and L2 speakers (Zona & Felser, 2023), and from a sample of L1 speakers from across the adult lifespan (Zona & Reifegerste, under review). In addition, the moment-by-moment dynamics of thematic-role assignment were investigated with mouse tracking in a young L1 sample (Zona, under review). The following questions were addressed: (1) How do visual scenes influence thematic-role representations of canonical and noncanonical sentences? (2) How does reliance on visual-scene, case, and word-order cues vary in L1 and L2 speakers? (3) How does reliance on visual-scene, case, and word-order cues change across the lifespan? The results showed reliable effects of incongruence of visually and linguistically conveyed thematic relations on thematic-role representations. Incongruent (vs. congruent) scenes yielded slower and less accurate responses to agent-identification probes presented post-sentence. The recently inspected agent was considered as the most likely agent ~300ms after trial onset, and the convergence of visual scenes and word order enabled comprehenders to assign thematic roles predictively. L2 (vs. L1) participants relied more on word order overall. In response to noncanonical clauses presented with incongruent visual scenes, sensitivity to case predicted the size of incongruence effects better than L1-L2 grouping. These results suggest that the individual’s ability to exploit specific cues might predict their weighting. Sensitivity to case was stable throughout the lifespan, while visual effects increased with increasing age and were modulated by individual interference-inhibition levels. Thus, age-related changes in comprehension may stem from stronger reliance on visually (vs. linguistically) conveyed meaning. These patterns represent evidence for a recent-role preference – i.e., a tendency to re-assign visually conveyed thematic roles to the same referents in temporally coordinated utterances. The findings (i) extend the generalizability of CIA predictions across stimuli, tasks, populations, and measures of interest, (ii) contribute to specifying the outcomes and mechanisms of detecting and indexing incongruent representations within the CIA, and (iii) speak to current efforts to understand the sources of variability in sentence comprehension. N2 - Diese Dissertation untersucht die Integration inkongruenter visueller Szenen- und morphologisch-kasusbezogener Informationen ("Hinweise") beim Aufbau thematischer Rollenrepräsentationen gesprochener Relativsätze auf Deutsch. Das Coordinated Interplay Account (CIA) beschreibt einen Mechanismus in zwei Schritten zur Unterstützung der visuell-linguistischen Integration, der die wechselseitige Beeinflussung visueller und sprachlicher Verarbeitung adressiert (Knoeferle & Crocker, 2006, Cog Sci). Die Ergebnisse und Dynamiken der Integration inkongruenter thematischer Rollenrepräsentationen aus verschiedenen Quellen wurden jedoch kaum untersucht. Außerdem gibt es Hinweise darauf, dass sich sowohl Zweitsprachler (L2) als auch ältere Sprecher möglicherweise relativ stärker auf nicht-syntaktische Hinweise verlassen als Erstsprachler (L1)/jüngere Sprecher. Dennoch wurde die Rolle visueller Informationen für das Verständnis thematischer Rollen bei L2-Sprechern nicht gemessen und nur begrenzt über die gesamte Lebensspanne hinweg. Thematisch eindeutige, kanonisch geordnete (subjektausgezogene) und nichtkanonisch geordnete (objektausgezogene) gesprochene Relativsätze auf Deutsch (siehe 1a-b) wurden isoliert und zusammen mit visuellen Szenen präsentiert, die entweder dieselben (kongruente) oder entgegengesetzte (inkongruente) thematische Beziehungen wie der Satz vermittelten. Die relative Beitrag jedes Hinweises zur thematischen Rollenrepräsentation wurde durch die Identifizierung des Agenten bewertet. Genauigkeits- und Latenzdaten wurden nach dem Satz von einer Stichprobe von L1- und L2-Sprechern (Zona & Felser, 2023) sowie von einer Stichprobe von L1-Sprechern über die Lebensspanne hinweg (Zona & Reifegerste, in Überprüfung) gesammelt. Darüber hinaus wurden die momentane Dynamik der Zuweisung thematischer Rollen mit Mausverfolgung in einer jungen L1-Stichprobe untersucht (Zona, in Überprüfung). Die folgenden Fragen wurden adressiert: (1) Wie beeinflussen visuelle Szenen thematische Rollenrepräsentationen kanonischer und nichtkanonischer Sätze? (2) Wie variiert der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise bei L1- und L2-Sprechern? (3) Wie verändert sich der Verlass auf visuelle Szenen, Kasus- und Wortstellungs-Hinweise im Laufe des Lebens? Die Ergebnisse zeigten zuverlässige Effekte der Inkongruenz visuell und sprachlich vermittelter thematischer Beziehungen auf thematische Rollenrepräsentationen. Inkongruente (vs. kongruente) Szenen führten zu langsameren und weniger genauen Reaktionen auf Agentenidentifikationsproben, die nach dem Satz präsentiert wurden. Der kürzlich inspizierte Agent wurde etwa 300 ms nach Beginn des Versuchs als der wahrscheinlichste Agent betrachtet, und die Übereinstimmung von visuellen Szenen und Wortstellung ermöglichte es den Verstehenden, thematische Rollen vorherzusagen. L2-Teilnehmer (vs. L1) verließen sich insgesamt stärker auf die Wortstellung. Auf nichtkanonische Klauseln, die mit inkongruenten visuellen Szenen präsentiert wurden, sagte die Sensibilität für den Kasus die Größe der Inkongruenzeffekte besser vorher als die Einteilung in L1-L2. Diese Ergebnisse legen nahe, dass die Fähigkeit des Einzelnen, bestimmte Hinweise auszunutzen, ihr Gewicht vorhersagen könnte. Die Sensibilität für den Kasus blieb über die Lebensspanne hinweg stabil, während sich visuelle Effekte mit zunehmendem Alter verstärkten und durch individuelle Interferenz-Hemmungslevel moduliert wurden. Somit können altersbedingte Veränderungen im Verständnis von einer stärkeren Abhängigkeit von visuell (vs. sprachlich) vermittelter Bedeutung herrühren. Diese Muster stellen einen Beleg für eine Präferenz für kürzlich eingeführte Rollen dar - d. h. eine Tendenz, visuell vermittelte thematische Rollen den gleichen Referenten in zeitlich koordinierten Äußerungen neu zuzuweisen. Die Ergebnisse (i) erweitern die Verallgemeinerbarkeit der Vorhersagen des CIAs über Stimuli, Aufgaben, Populationen und Interessenmaße hinweg, (ii) tragen zur Spezifizierung der Ergebnisse und Mechanismen bei der Erkennung und Indizierung inkongruenter Repräsentationen innerhalb des CIAs bei und (iii) sprechen aktuelle Bemühungen an, die Quellen der Variabilität im Satzverständnis zu verstehen. KW - spoken sentence comprehension KW - visuo-linguistic integration KW - thematic-role assignment KW - Sprachverständnis KW - Zuweisung thematischer Rollen KW - visuell-linguistische Integration Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-631857 ER - TY - THES A1 - Zoerner, Dietmar T1 - Förderung von Aufmerksamkeit und Motivationserhalt durch digitale spielbasierte Lernsysteme mit spezifischer Eignung bei Autismus T1 - Promotion of attention and preservation of motivation through digital game-based learning systems with particular suitability for autism N2 - Institutionelle Bildung ist für autistische Lernende mit vielgestaltigen und spezifischen Hindernissen verbunden. Dies gilt insbesondere im Zusammenhang mit Inklusion, deren Relevanz nicht zuletzt durch das Übereinkommen der Vereinten Nationen über die Rechte von Menschen mit Behinderung gegeben ist. Diese Arbeit diskutiert zahlreiche lernrelevante Besonderheiten im Kontext von Autismus und zeigt Diskrepanzen zu den nicht immer ausreichend angemessenen institutionellen Lehrkonzepten. Eine zentrale These ist hierbei, dass die ungewöhnlich intensive Aufmerksamkeit von Autist*innen für ihre Spezialinteressen dafür genutzt werden kann, das Lernen mit fremdgestellten Inhalten zu erleichtern. Darauf aufbauend werden Lösungsansätze diskutiert, welche in einem neuartigen Konzept für ein digitales mehrgerätebasiertes Lernspiel resultieren. Eine wesentliche Herausforderung bei der Konzeption spielbasierten Lernens besteht in der adäquaten Einbindung von Lerninhalten in einen fesselnden narrativen Kontext. Am Beispiel von Übungen zur emotionalen Deutung von Mimik, welche für das Lernen von sozioemotionalen Kompetenzen besonders im Rahmen von Therapiekonzepten bei Autismus Verwendung finden, wird eine angemessene Narration vorgestellt, welche die störungsarme Einbindung dieser sehr speziellen Lerninhalte ermöglicht. Die Effekte der einzelnen Konzeptionselemente werden anhand eines prototypisch entwickelten Lernspiels untersucht. Darauf aufbauend zeigt eine quantitative Studie die gute Akzeptanz und Nutzerfreundlichkeit des Spiels und belegte vor allem die Verständlichkeit der Narration und der Spielelemente. Ein weiterer Schwerpunkt liegt in der minimalinvasiven Untersuchung möglicher Störungen des Spielerlebnisses durch den Wechsel zwischen verschiedenen Endgeräten, für die ein innovatives Messverfahren entwickelt wurde. Im Ergebnis beleuchtet diese Arbeit die Bedeutung und die Grenzen von spielbasierten Ansätzen für autistische Lernende. Ein großer Teil der vorgestellten Konzepte lässt sich auf andersartige Lernszenarien übertragen. Das dafür entwickelte technische Framework zur Realisierung narrativer Lernpfade ist ebenfalls darauf vorbereitet, für weitere Lernszenarien, gerade auch im institutionellen Kontext, Verwendung zu finden. N2 - Institutional education is associated with multifaceted and specific obstacles for autistic learners. This is especially true in the context of inclusion, the relevance of which is given not least by the United Nations Convention on the Rights of Persons with Disabilities. This thesis discusses numerous learning-relevant peculiarities in the context of autism and shows discrepancies with institutional teaching concepts that are not always sufficiently appropriate. A central thesis is that the unusually intense attention of autistic students to their special interests can be used to facilitate learning with foreign content. Based on this, solutions are discussed, which result in an innovative concept for a digital multi-devicebased learning game. A key challenge in designing game-based learning is to adequately integrate learning content into a compelling narrative context. Using the example of exercises for the emotional interpretation of facial expressions, which are used for learning socioemotional competencies especially in the context of therapy concepts for autism, an appropriate narration is presented, which enables the low-disturbance integration of this very specific learning content. The effects of the individual conceptual elements are examined based on a prototypically developed learning game. Based on this, a quantitative study shows the good acceptance and user-friendliness of the game and especially proves the comprehensibility of the narration and the game elements. Another focus is the minimally invasive investigation of possible disturbances of the game experience by switching between different end devices, for which an innovative measurement method was developed. As a result, this work sheds light on the importance and limitations of game-based approaches for autistic learners. A large part of the presented concepts can be transferred to other types of learning scenarios. The technical framework developed for the realization of narrative learning paths is also prepared to be used for other learning scenarios, especially in an institutional context. KW - Autismus KW - Spielbasiertes Lernen KW - Aufmerksamkeit KW - Attention KW - Autism KW - game based learning Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-523725 ER - TY - THES A1 - Zimmermann, Marc T1 - Multifunctional patchy silica particles via microcontact printing T1 - Multifunktionale Patchy Silika Partikel mithilfe des Mikrokontaktdruckverfahrens N2 - This research addressed the question, if it is possible to simplify current microcontact printing systems for the production of anisotropic building blocks or patchy particles, by using common chemicals while still maintaining reproducibility, high precision and tunability of the Janus-balance Chapter 2 introduced the microcontact printing materials as well as their defined electrostatic interactions. In particular polydimethylsiloxane stamps, silica particles and high molecular weight polyethylenimine ink were mainly used in this research. All of these components are commercially available in large quantities and affordable, which gives this approach a huge potential for further up-scaling developments. The benefits of polymeric over molecular inks was described including its flexible influence on the printing pressure. With this alteration of the µCP concept, a new method of solvent assisted particle release mechanism enabled the switch from two-dimensional surface modification to three-dimensional structure printing on colloidal silica particles, without changing printing parameters or starting materials. This effect opened the way to use the internal volume of the achieved patches for incorporation of nano additives, introducing additional physical properties into the patches without alteration of the surface chemistry. The success of this system and its achievable range was further investigated in chapter 3 by giving detailed information about patch geometry parameters including diameter, thickness and yield. For this purpose, silica particles in a size range between 1µm and 5µm were printed with different ink concentrations to change the Janus-balance of these single patched particles. A necessary intermediate step, consisting of air-plasma treatment, for the production of trivalent particles using "sandwich" printing was discovered and comparative studies concerning the patch geometry of single and double patched particles were conducted. Additionally, the usage of structured PDMS stamps during printing was described. These results demonstrate the excellent precision of this approach and opens the pathway for even greater accuracy as further parameters can be finely tuned and investigated, e.g. humidity and temperature during stamp loading. The performance of these synthesized anisotropic colloids was further investigated in chapter 4, starting with behaviour studies in alcoholic and aqueous dispersions. Here, the stability of the applied patches was studied in a broad pH range, discovering a release mechanism by disabling the electrostatic bonding between particle surface and polyelectrolyte ink. Furthermore, the absence of strong attractive forces between divalent particles in water was investigated using XPS measurements. These results lead to the conclusion that the transfer of small PDMS oligomers onto the patch surface is shielding charges, preventing colloidal agglomeration. However, based on this knowledge, further patch modifications for particle self-assembly were introduced including physical approaches using magnetic nano additives, chemical patch functionalization with avidin-biotin or the light responsive cyclodextrin-arylazopyrazoles coupling as well as particle surface modification for the synthesis of highly amphiphilic colloids. The successful coupling, its efficiency, stability and behaviour in different solvents were evaluated to find a suitable coupling system for future assembly experiments. Based on these results the possibility of more sophisticated structures by colloidal self-assembly is given. Certain findings needed further analysis to understand their underlying mechanics, including the relatively broad patch diameter distribution and the decreasing patch thickness for smaller silica particles. Mathematical assumptions for both effects are introduced in chapter 5. First, they demonstrate the connection between the naturally occurring particle size distribution and the broadening of the patch diameter, indicating an even higher precision for this µCP approach. Second, explaining the increase of contact area between particle and ink surface due to higher particle packaging, leading to a decrease in printing pressure for smaller particles. These calculations ultimately lead to the development of a new mechanical microcontact printing approach, using centrifugal forces for high pressure control and excellent parallel alignment of printing substrates. First results with this device and the comparison with previously conducted by-hand experiments conclude this research. It furthermore displays the advantages of such a device for future applications using a mechanical printing approach, especially for accessing even smaller nano particles with great precision and excellent yield. In conclusion, this work demonstrates the successful adjustment of the µCP approach using commercially available and affordable silica particles and polyelectrolytes for high flexibility, reduced costs and higher scale-up value. Furthermore, its was possible to increase the modification potential by introducing three-dimensional patches for additional functionalization volume. While keeping a high colloidal stability, different coupling systems showed the self-assembly capabilities of this toolbox for anisotropic particles. N2 - Diese Forschungsarbeit befasste sich mit der Frage, ob es möglich ist, bekannte Mikrokontaktdruckverfahren, zur Herstellung von anisotropen Bausteinen (Patchy Partikel), weiter zu vereinfachen. Dabei sollten gängige Chemikalien verwendet werden ohne einen Verlust in Reproduzierbarkeit, hoher Präzision und Feineinstellung der Janus-Balance zu erleiden. In Kapitel 2 wurden die verwendeten Mikrokontaktdruckmaterialien sowie deren elektrostatische Wechselwirkungen vorgestellt. Insbesondere handelte es sich dabei um Polydimethylsiloxan Stempel, Silikapartikel und hoch molekulare Polyethylenimin Tinte. All diese Produkte sind kommerziel in großen und bezahlbaren Mengen erhältlich. Nicht nur die Vorteile von polymeren Tinten im Gegensatz zu molekularen Tinten wurde beschrieben, sondern auch die hohe Flexibilität dieses Verfahrens bezüglich der verwendeten Druckkraft. Mit dieser Anpassung des Mikrokontaktdrucks, wurde eine neue Methode der Lösungsmittel unterstützten Partikelablösung ermöglicht, mit deren Hilfe ein einfaches Schalten zwischen zwei dimensionaler Oberflächenfunktionalisierung und drei dimensionalem Strukturdrucks möglich war, ohne Druckparameter oder Startchemikalien zu verändern. Dadurch konnte neu erschaffenes internes Volumen verwendet werden um Nanoadditive einzuführen und so zusätzliche physikalische Eigenschaften zu integrieren, ohne die Oberflächenchemie der Patches verändert wurde. Der Erfolg dieses Systems und seine erreichbaren Grenzen wurde gründlichst in Kapitel 3 erforscht, indem detaillierte Geometrieparameter der Patches einschließlich Durchmesser, Dicke und Ausbeute, erworben wurden. Hierfür wurden Silikapartikel in einem Größenbereich von 1µm bis 5µm mit unterschiedlichen Tintenkonzentrationen bedruckt, um Veränderungen erforschen zu können. Ein notwendiger Luftplasma Ätzschritt für die Produktion von trivalenten Partikeln, mit Hilfe des sogenannten ,,Sandwich‘‘-Drucks, wurde erläutert und vergleichende Untersuchen von einfach und zweifach modifizierten Bausteinen wurden durchgeführt. Zusätzlich dazu, wurde die Verwendung von strukturierten Stempel beschrieben. Die Ergebnisse verdeutlichen die exzellente Genauigkeit dieser Methode und öffnet den Weg um eine hoch höhere Präzision zu erreichen da weitere Parametere genau eingestellt und untersucht werden können, z.B. Luftfeuchtigkeit und Temperature während der Stempelbeladung. Die Performance der herstellten anisotropen Partikel wurde in Kapitel 4 mit Verhaltensstudien in alkoholischen und wässrigen Dispersionen getestet. Dabei wurde die Stabilität der Oberflächenfunktionalisierungen in einem breiten pH Bereich untersucht. Dadurch wurde ein Ablösungsmechanismus bei sehr hohen bzw. niedrigen pH-Werten entdeckt, der zur Deaktivierung elektrostatischer Wechselwirkungen zwischen Partikeloberfläche und Polyelektrolyte Tinte führte. Desweitern wurden die Abwesenheit starker Wechselwirkung der divalenten Partikel in Wasser mit Hilfe von XPS untersucht. Das Resultat zeigte, dass der Transfer kleinster PDMS Oligomere auf die Patchoberfläche zu einer Ladungsabschirmung führte. Dadurch konnte Agglomeration verhindert werden. Aufgrund dieser Ergebnisse wurden weitere Modifikationen für Partikelassemblierung durchgeführt. Hierfür wurde die Einführung von magnetischen Nanoadditiven, die Funktionalisierung mit Avidin-Biotin sowie dem Lichtschaltbaren Cyclodextrin-Arylazopyrazol Komplexen und die Partikeloberflächenfunktionalisierung zur Herstellung amphiphiler Teilchen untersucht. Die Effizienz der Kopplung, deren Stabilität sowie das Verhalten in unterschiedlichen Lösungsmittel wurde beschrieben. Basierend auf diesen Ergebnissen können noch anspruchsvollere Strukturen durch kolloidale Selbstassemblierung erzeugt werden. Einige Ergebnisse dieser Arbeit benötigten zusätzlicher Analyse um die zugrundeliegenden Mechaniken verstehen zu können. Dazu gehörte die relative hohe Streuung des Durchmessers für unterschiedliche Partikelsysteme, sowie das Ausdünnen des Patches mit kleineren Silikapartikeln. Mathematische Modelle in Kapitel 5 beschreiben beide Effekte. Dadurch war es möglich einen Zusammenhang zwischen der natürlichen Partikelgrößenverteilung sowie der Verbreitung des Patchdurchmessers festzustellen. Des Weiteren konnte eine Verkleinerung der Druckkraft durch eine Erhöhung der Packungsdichte für kleine Partikel beschrieben werden, wodurch eine Erklärung der Ausdünnung möglich war. All diese Berechnung führten schlussendlich zur Entwicklung eines neuen mechanischen Mikrokontaktdruckverfahrens, welches mit Hilfe von Zentrifugalkräften eine hohe Druckkontrolle und eine exzellente parallele Ausrichtung zwischen den Substraten ermöglicht. Erste Ergebnisse, sowie deren Vergleich mit bisher erhaltenen Resultaten schließen diese Forschung ab. Des Weiteren zeigt es die Vorteile einer solchen Vorrichtung für kommende Applikationen, besonders um noch kleinere Nanopartikel mit einer hohen Präzision modifizieren zu können. Zusammenfassend ist zu sagen, dass diese Forschung die erfolgreiche Anpassung des Mikrokontaktdruckverfahrens mit kommerziell erhältlichen und bezahlbaren Silikapartikeln und Polyelektrolyten demonstriert, um hohe Flexibilität, reduzierte Kosten und ein erweitertes Skalierungspotential zu bieten. Zusätzlich ist es gelungen, die Funktionalisierungsdichte zu erhöhen, indem drei dimensionaler Strukturdruck bisher ungenutztes Volumen schaffen konnte. Während eine hohe kolloidale Stabilität erhalten blieb, ist es gelungen unterschiedliche Kopplungssysteme zu nutzen, um das Selbstorganisationspotential dieser Toolbox für anisotrope Partikel aufzuzeigen. KW - patchy particles KW - microcontact printing KW - silica particles KW - anisotropic colloids KW - polyelectrolytes KW - Patchy Partikel KW - Mikrokontaktdruck KW - Silika Partikel KW - Anisotrope Kolloide KW - Polyelektrolyte Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-427731 ER - TY - THES A1 - Zimmermann, Beate T1 - Spatial and temporal variability of the soil saturated hydraulic conductivity in gradients of disturbance T1 - Räumliche und zeitliche Variabilität der gesättigten Bodenwasserleitfähigkeit in Störungsgradienten N2 - As land-cover conversion continues to expand into ever more remote areas in the humid tropics, montane rainforests are increasingly threatened. In the south Ecuadorian Andes, they are not only subject to man-made disturbances but also to naturally occurring landslides. I was interested in the impact of this ecosystem dynamics on a key parameter of the hydrologic cycle, the soil saturated hydraulic conductivity (synonym: permeability; Ks from here on), because it is a sensitive indicator for soil disturbances. My general objective was to quantify the effects of the regional natural and human disturbances on the saturated hydraulic conductivity and to describe the resulting spatial-temporal patterns. The main hypotheses were: 1) disturbances cause an apparent displacement of the less permeable soil layer towards the surface, either due to a loss of the permeable surface soil after land-sliding, or as a consequence of the surface soil compaction under cattle pastures; 2) ‘recovery’ from disturbance, either because of landslide re-vegetation or because of secondary succession after pasture abandonment, involves an apparent displacement of the less permeable layer back towards the original depth an 3) disturbances cause a simplification of the Ks spatial structure, i.e. the spatially dependent random variation diminishes; the subsequent recovery entails the re-establishment of the original structure. In my first study, I developed a synthesis of recent geostatistical research regarding its applicability to soil hydraulic data, including exploratory data analysis and variogram estimation techniques; I subsequently evaluated the results in terms of spatial prediction uncertainty. Concerning the exploratory data analysis, my main results were: 1) Gaussian uni- and bivariate distributions of the log-transformed data; 2) the existence of significant local trends; 3) no need for robust estimation; 4) no anisotropic variation. I found partly considerable differences in covariance parameters resulting from different variogram estimation techniques, which, in the framework of spatial prediction, were mainly reflected in the spatial connectivity of the Ks-field. Ignoring the trend component and an arbitrary use of robust estimators, however, would have the most severe consequences in this respect. Regarding variogram modeling, I encouraged restricted maximum likelihood estimation because of its accuracy and independence on the selected lags needed for experimental variograms. The second study dealt with the Ks spatial-temporal pattern in the sequences of natural and man-made disturbances characteristic for the montane rainforest study area. To investigate the disturbance effects both on global means and the spatial structure of Ks, a combined design-and model-based sampling approach was used for field-measurements at soil depths of 12.5, 20, and 50 cm (n=30-150/depth) under landslides of different ages (2 and 8 years), under actively grazed pasture, fallows following pasture abandonment (2 to 25 years of age), and under natural forest. Concerning global means, our main findings were 1) global means of the soil permeability generally decrease with increasing soil depth; 2) no significant Ks differences can be observed among landslides and compared to the natural forest; 3) a distinct permeability decrease of two orders of magnitude occurs after forest conversion to pasture at shallow soil depths, and 4) the slow regeneration process after pasture abandonment requires at least one decade. Regarding the Ks spatial structure, we found that 1) disturbances affect the Ks spatial structure in the topsoil, and 2) the largest differences in spatial patterns are associated with the subsoil permeability. In summary, the regional landslide activity seems to affect soil hydrology to a marginal extend only, which is in contrast to the pronounced drop of Ks after forest conversion. We used this spatial-temporal information combined with local rain intensities to assess the partitioning of rainfall into vertical and lateral flowpaths under undisturbed, disturbed, and regenerating land-cover types in the third study. It turned out that 1) the montane rainforest is characterized by prevailing vertical flowpaths in the topsoil, which can switch to lateral directions below 20 cm depth for a small number of rain events, which may, however, transport a high portion of the annual runoff; 2) similar hydrological flowpaths occur under the landslides except for a somewhat higher probability of impermeable layer formation in the topsoil of a young landslide, and 3) pronounced differences in runoff components can be observed for the human disturbance sequence involving the development of near-surface impeding layers for 24, 44, and 8 % of rain events for pasture, a two-year-old fallow, and a ten-year-old fallow, respectively. N2 - Der tropische Bergregenwald in den Südecuadorianischen Anden unterliegt sowohl anthropogenen Eingriffen, d.h. der Umwandlung von Naturwald in Rinderweiden, als auch natürlichen Störungen in der Form von Hangrutschen. Ziel meiner Arbeit war es, die Auswirkungen dieser regionalen Störungsdynamik auf einen Schlüsselparameter des hydrologischen Kreislaufs, die gesättigte hydraulische Wasserleitfähigkeit (Ks), zu untersuchen und die resultierenden raum-zeitlichen Muster zu beschreiben. In der ersten Studie habe ich eine Synthese aktueller geostatistischer Forschung hinsichtlich ihrer Eignung für die Analyse bodenhydrologischer Daten entwickelt. Diese beinhaltet explorative Datenanalyse und verschiedene Techniken zur Schätzung der Kovarianzparameter; die Ergebnisse habe ich in Bezug auf die Ungenauigkeit räumlicher Vorhersagen bewertet. Es hat sich dabei herausgestellt, dass die Schätztechniken teilweise beachtliche Unterschiede in den Parametern hervorrufen, welche sich hauptsächlich in der räumlichen Konnektivität widergespiegeln. Die wichtigste Rolle im Zusammenhang mit der räumlichen Vorhersage kommt jedoch den vorgeordneten explorativen Analyseschritten zu. In der zweiten Studie habe ich mich mit der Beschreibung des raum-zeitlichen Muster der Wasserleitfähigkeit in den anthropogenen und natürlichen Störungsgradienten beschäftigt. Wichtigste Ergebnisse waren, dass es keine signifikanten Unterschiede der Wasserleitfähigkeit zwischen den verschieden alten Hangrutschen und dem Naturwald gibt. Daraus lässt sich schließen, dass die natürlichen Störungen im Untersuchungsgebiet lediglich marginale Auswirkungen auf die Bodenhydrology haben. Das steht in starkem Kontrast zum anthropogenen Störungskreislauf: die Wasserleitfähigkeit im Weideboden hat gegenüber dem Naturwald um zwei Größenordnungen abgenommen; eine „Erholung“ nach Nutzungsaufgabe scheint mindestens ein Jahrzehnt in Anspruch zu nehmen. Die räumlichen Abhängigkeit von Ks in den Oberböden von Wald und einer alten Brache ist stärker als in jenen der gestörten Flächen, was auf eine störungsbedingte Beeinträchtigung der räumlichen Struktur in geringer Bodentiefe schließen lässt. In der dritten Studie habe ich diese raum-zeitlichen Informationen mit dem örtlichen Niederschlagsregime in Verbindung gebracht, um Rückschlüsse auf die Auswirkungen der störungsbedingten Änderungen von Ks auf hydrologische Fließwege zu ziehen. Es hat sich gezeigt, dass im tropischen Bergregenwald und unter Hangrutschen ubiquitäre Tiefenversickerung dominiert, es allerdings zu einer Verschiebung in laterale Fließrichtungen für die seltenen intensiven Regenereignisse kommen kann. Anthropogene Störungen gehen mit einer um bis zu 50 Prozent erhöheren Wahrscheinlichkeit des Auftretens oberflächennaher Stauschichten einher, was die Bedeutung lateraler Fließwege erhöht. Dies trifft in vergleichbarer Größenordnung auch auf ein Vergleichsökosystem im Tieflandregenwald zu. KW - Bodenhydrologie KW - Tropen KW - Landnutzungswandel KW - Geostatistik KW - Abflussbildung KW - soil hydrology KW - tropics KW - landuse change KW - geostatistics KW - runoff generation Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-16402 ER - TY - THES A1 - Zimmermann, Alexander T1 - Rainfall redistribution and change of water quality in tropical forest canopies : patterns and persistence T1 - Umverteilung von Regenwasser und Änderung der Wasserqualität in Kronendächern Tropischer Wälder : Muster und Persistenz N2 - Motivations and research objectives: During the passage of rain water through a forest canopy two main processes take place. First, water is redistributed; and second, its chemical properties change substantially. The rain water redistribution and the brief contact with plant surfaces results in a large variability of both throughfall and its chemical composition. Since throughfall and its chemistry influence a range of physical, chemical and biological processes at or below the forest floor the understanding of throughfall variability and the prediction of throughfall patterns potentially improves the understanding of near-surface processes in forest ecosystems. This thesis comprises three main research objectives. The first objective is to determine the variability of throughfall and its chemistry, and to investigate some of the controlling factors. Second, I explored throughfall spatial patterns. Finally, I attempted to assess the temporal persistence of throughfall and its chemical composition. Research sites and methods: The thesis is based on investigations in a tropical montane rain forest in Ecuador, and lowland rain forest ecosystems in Brazil and Panama. The first two studies investigate both throughfall and throughfall chemistry following a deterministic approach. The third study investigates throughfall patterns with geostatistical methods, and hence, relies on a stochastic approach. Results and Conclusions: Throughfall is highly variable. The variability of throughfall in tropical forests seems to exceed that of many temperate forests. These differences, however, do not solely reflect ecosystem-inherent characteristics, more likely they also mirror management practices. Apart from biotic factors that influence throughfall variability, rainfall magnitude is an important control. Throughfall solute concentrations and solute deposition are even more variable than throughfall. In contrast to throughfall volumes, the variability of solute deposition shows no clear differences between tropical and temperate forests, hence, biodiversity is not a strong predictor of solute deposition heterogeneity. Many other factors control solute deposition patterns, for instance, solute concentration in rainfall and antecedent dry period. The temporal variability of the latter factors partly accounts for the low temporal persistence of solute deposition. In contrast, measurements of throughfall volume are quite stable over time. Results from the Panamanian research site indicate that wet and dry areas outlast consecutive wet seasons. At this research site, throughfall exhibited only weak or pure nugget autocorrelation structures over the studies lag distances. A close look at the geostatistical tools at hand provided evidence that throughfall datasets, in particular those of large events, require robust variogram estimation if one wants to avoid outlier removal. This finding is important because all geostatistical throughfall studies that have been published so far analyzed their data using the classical, non-robust variogram estimator. N2 - Motivation und Zielsetzung: Wenn Regen durch ein Kronendach fällt lassen sich zwei Prozesse beobachten: das Regenwasser wird umverteilt und die chemische Qualität des Wassers verändert sich erheblich. Die Prozesse im Kronenraum resultieren in einer hohen Variabilität des Bestandsniederschlags und dessen chemischer Zusammensetzung. Bestandsniederschlag beeinflusst eine Reihe von physikalischen, chemischen und biologischen Prozessen am Waldboden. Daher können Untersuchungen zur Variabilität und zu Mustern im Bestandsniederschlag helfen, bodennahe Prozesse besser zu verstehen. Diese Dissertation behandelt hauptsächlich drei Aspekte. Erstens, die Arbeit beschäftigt sich mit der Erfassung der Variabilität im Bestandsniederschlag und dessen chemischer Zusammensetzung, zudem werden Einflussfaktoren dieser Variabilität untersucht. Des Weiteren beschäftigt sich die Arbeit mit räumlichen Mustern des Bestandsniederschlagswassers, und drittens wird die zeitliche Stabilität des Bestandsniederschlags und dessen chemischer Zusammensetzung betrachtet. Untersuchungsgebiete und Methoden: Diese Dissertation basiert auf Untersuchungen in einem tropischen Bergregenwald in Ecuador, sowie Studien in tropischen Tieflandregenwäldern in Brasilien und Panama. Die ersten zwei Studien untersuchen Bestandsniederschlag und dessen chemische Zusammensetzung mit Hilfe deterministischer Methoden. Die Arbeit in Panama nutzt geostatistische Methoden zur Beschreibung von Bestandsniederschlagsmustern und verfolgt somit einen stochastischen Ansatz. Ergebnisse und Schlussfolgerungen: Die Variabilität des Bestandsniederschlages ist hoch; das heißt, die Menge des auf den Waldboden tropfenden Wassers kann sich je nach Standort stark unterscheiden. Diese räumliche Variabilität des Bestandsniederschlags ist in tropischen Wäldern höher als in vielen gemäßigten Waldökosystemen, was nicht allein auf verschiedenen Eigenschaften der Ökosysteme zurückzuführen ist. Vielmehr erklären sich die Unterschiede auch aus verschiedenen Waldnutzungen. Abgesehen von biologischen Faktoren beeinflusst die Regenmenge die Variabilität des Bestandsniederschlags erheblich. Die chemische Zusammensetzung des Bestandsniederschlags weist eine noch höhere Variabilität als der Bestandsniederschlag selbst auf. Unterschiede zwischen tropischen und gemäßigten Wäldern lassen sich hier allerdings nicht erkennen, weshalb die hohe Diversität tropischer Ökosysteme die Heterogenität der chemischen Zusammensetzung des Bestandsniederschlags nicht ausreichend erklärt. Eine Vielzahl anderer Faktoren kontrolliert deshalb die Variabilität der Bestandsniederschlagschemie, beispielsweise die Konzentration gelöster Stoffe im Regenwasser oder die Dauer von Trockenperioden. Deren hohe temporale Variabilität ist verantwortlich für die geringe zeitliche Stabilität von Depositionsmessungen. Im Gegensatz dazu ist die temporale Persistenz von Messungen der Bestandsniederschlagsmenge hoch. Insbesondere die Ergebnisse aus Panama zeigen, dass feuchte und trockene Messpunkte über einen Zeitraum von zwei Regenzeiten fortbestehen. Die räumlichen Bestandsniederschlagsmuster im letztgenannten Untersuchungsgebiet sind schwach bzw. weisen die Struktur eines reinen Nugget-Models auf. Die geostatistische Analyse zeigt, dass vor allem die Daten großer Regenereignisse eine robuste Modellierung des Variogramms erfordern, wenn die willkürliche Entfernung von Fernpunkten in den Daten vermieden werden soll. Dieses Resultat ist insbesondere deshalb von Bedeutung, da alle bisherigen Bestandsniederschlagsstudien den klassischen, nicht-robusten Schätzer benutzen, obwohl das Auftreten von Extremwerten in Bestandsniederschlagsdaten für viele Ökosysteme zu erwarten ist. KW - Bestandsniederschlag KW - Stoffdeposition KW - tropische Waldökosysteme KW - Geostatistik KW - throughfall KW - solute deposition KW - tropical forests KW - geostatistics Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-32556 ER - TY - THES A1 - Zimmer, Sophie T1 - Le renouveau juif à Berlin depuis 1989 : aspects culturels et religieux T1 - Die Erneuerung des jüdischen Lebens in Berlin seit 1989: kulturelle und religiöse Aspekte N2 - Die vorliegende Untersuchung verfolgt das Ziel, kulturelle und religiöse Aspekte der Erneuerung jüdischen Lebens in Berlin seit 1989 zu erforschen. Die Entwicklungen der jüdischen Gemeinschaft in der Hauptstadt seit dem Fall der Mauer und dem Zusammenbruch der Sowjetunion führen zur Wiederannäherung eines Teils der jüdischen Bevölkerung in Deutschland an die eigene Kultur, Religion und Geschichte. Dabei kommt die Pluralität der kulturellen, literarischen und religiösen Ausdrucksformen der jüdischen Identitäten zum Vorschein. Die Arbeit verdeutlicht diese in Berlin nach 1989 einsetzende kulturelle und religiöse „Renaissance“. Vier wichtige Punkte kennzeichnen das jüdische Leben in Berlin nach 1989. Erstens gewinnt Deutschland seit der Wiedervereinigung eine neue Rolle als mögliches Einwanderungsland für Juden. Vor allem mit der massiven jüdischen Einwanderung aus den Staaten der ehemaligen Sowjetunion seit den 1990er Jahren wird Deutschland allmählich als wichtiges Zentrum in der europäischen Diaspora anerkannt. Zweitens bleibt zwar die Shoah tief verankert im Gedächtnis der jüdischen Gemeinschaft; die meisten Kinder oder Enkelkinder von Überlebenden der Shoah weigern sich jedoch, ihre jüdische Identität exklusiv durch die Shoah zu definieren. Sie gründen zur Wiederentdeckung und Forderung ihres kulturellen, religiösen und historischen Erbes jüdische Gruppen und Einrichtungen in Berlin, die in den meisten Fällen alternativ zur Jüdischen Gemeinde entstehen: Künstlergruppen, jüdische Kulturvereine, Konferenzen und Podiumsdiskussionen, religiöse Kongregationen und Lernhäuser. Damit – und dies ist der dritte Punkt – verliert zwar die offizielle Jüdische Gemeinde an Bedeutung als einzige Vertreterin der jüdischen Gemeinschaft Berlins; diese kulturelle und religiöse „Renaissance“ außerhalb der offiziellen Strukturen der Gemeinde bedeutet aber auch eine wachsende Pluralität und Diversifizierung der jüdischen Gemeinschaft in Berlin. Viertens spielt Berlin die Hauptrolle in diesem Prozess. Heute werden viele ehemalige jüdische Orte neu belebt: Synagogen werden wiederentdeckt und renoviert, Denk- und Mahnmale gebaut, Stadtführungen auf der Spur des „jüdischen Berlins“ organisiert, Rabbinerseminare neu gegründet. Die Topographie Berlins bildet auch eine Inspirationsquelle für jüdische (und nichtjüdische) Schriftsteller und Künstler. Die Analyse dieser nach 1989 entstandenen religiösen Initiativen, literarischen Werke und kulturellen Produktionen dient dazu, Aspekte der kulturellen und religiösen „Renaissance“ in Berlin näher zu verdeutlichen. N2 - The aim of this study is to analyze cultural and religious aspects of the Jewish revival in Berlin since 1989. The developments in the Jewish community of the German capital since the fall of the Wall and the dissolution of the Soviet Union led a part of the Jewish population in Germany to rediscover and get closer to its own culture, religion and history, thus revealing the plurality of cultural, literary and religious expressions of Jewish identities. The dissertation analyzes this cultural and religious “renaissance” taking place in Berlin after 1989. Four key aspects characterize Jewish life in Berlin after 1989. Firstly, since the reunification, Germany gains a new role as a potential immigration country for Jews. Germany is being gradually recognized as an important center in the European Diaspora, specifically with the massive immigration of Jews from the former Soviet Union since the 1990s. Secondly, even though the Holocaust is deeply rooted in the memory of the Jewish community, most of the children or grandchildren of Holocaust survivors refuse to define their Jewish identity exclusively through the Holocaust. In order to rediscover and to claim their cultural, religious and historical heritage, they create Jewish groups and institutions in Berlin, most of them being an alternative to the official Jewish community: artistic groups, Jewish cultural associations, conferences and roundtables, religious congregations and places of study. Therefore – and this is the third point – the role of the official Jewish community as the only representative of the Berlin Jewish community becomes less important, but this cultural and religious “renaissance” outside the official structures of the community also means a growing plurality and diversification of the Jewish community in Berlin. Fourthly, Berlin plays the key role in this process. Today, many former Jewish places are being revived: synagogues are being rediscovered and renovated, memorials are being constructed, “Jewish Berlin” city tours are being organized, and rabbinical seminaries are created anew. The topography of Berlin is also a source of inspiration for Jewish (and non-Jewish) writers and artists. The analysis of these post-1989 religious initiatives, literary works and cultural productions aims to further clarify aspects of the cultural and religious “renaissance” in Berlin. KW - Juden KW - Deutschland KW - Berlin KW - 1989 KW - Wiedervereinigung KW - Judentum KW - Jews KW - Germany KW - Berlin KW - 1989 KW - reunification KW - Judaism KW - Juifs KW - Allemagne KW - Berlin KW - 1989 KW - réunification KW - judaïsme Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-96920 ER - TY - THES A1 - Zillmer, Rüdiger T1 - Statistical properties and scaling of the Lyapunov exponents in stochastic systems N2 - Die vorliegende Arbeit umfaßt drei Abhandlungen, welche allgemein mit einer stochastischen Theorie für die Lyapunov-Exponenten befaßt sind. Mit Hilfe dieser Theorie werden universelle Skalengesetze untersucht, die in gekoppelten chaotischen und ungeordneten Systemen auftreten. Zunächst werden zwei zeitkontinuierliche stochastische Modelle für schwach gekoppelte chaotische Systeme eingeführt, um die Skalierung der Lyapunov-Exponenten mit der Kopplungsstärke ('coupling sensitivity of chaos') zu untersuchen. Mit Hilfe des Fokker-Planck-Formalismus werden Skalengesetze hergeleitet, die von Ergebnissen numerischer Simulationen bestätigt werden. Anschließend wird gezeigt, daß 'coupling sensitivity' im Fall gekoppelter ungeordneter Ketten auftritt, wobei der Effekt sich durch ein singuläres Anwachsen der Lokalisierungslänge äußert. Numerische Ergebnisse für gekoppelte Anderson-Modelle werden bekräftigt durch analytische Resultate für gekoppelte raumkontinuierliche Schrödinger-Gleichungen. Das resultierende Skalengesetz für die Lokalisierungslänge ähnelt der Skalierung der Lyapunov-Exponenten gekoppelter chaotischer Systeme. Schließlich wird die Statistik der exponentiellen Wachstumsrate des linearen Oszillators mit parametrischem Rauschen studiert. Es wird gezeigt, daß die Verteilung des zeitabhängigen Lyapunov-Exponenten von der Normalverteilung abweicht. Mittels der verallgemeinerten Lyapunov-Exponenten wird der Parameterbereich bestimmt, in welchem die Abweichungen von der Normalverteilung signifikant sind und Multiskalierung wesentlich wird. N2 - This work incorporates three treatises which are commonly concerned with a stochastic theory of the Lyapunov exponents. With the help of this theory universal scaling laws are investigated which appear in coupled chaotic and disordered systems. First, two continuous-time stochastic models for weakly coupled chaotic systems are introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck formalism scaling relations are derived, which are confirmed by results of numerical simulations. Next, coupling sensitivity is shown to exist for coupled disordered chains, where it appears as a singular increase of the localization length. Numerical findings for coupled Anderson models are confirmed by analytic results for coupled continuous-space Schrödinger equations. The resulting scaling relation of the localization length resembles the scaling of the Lyapunov exponent of coupled chaotic systems. Finally, the statistics of the exponential growth rate of the linear oscillator with parametric noise are studied. It is shown that the distribution of the finite-time Lyapunov exponent deviates from a Gaussian one. By means of the generalized Lyapunov exponents the parameter range is determined where the non-Gaussian part of the distribution is significant and multiscaling becomes essential. KW - Lyapunov-Exponenten KW - Chaos KW - ungeordnete Systeme KW - Lokalisierung KW - stochastische Systeme KW - 'coupling sensitivity' KW - parametrisch erregter Oszillator KW - Lyapunov exponents KW - chaos KW - disordered systems KW - localization KW - stochastic systems KW - coupling sensitivity KW - parametrically excited oscillator Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001147 ER - TY - THES A1 - Ziese, Ramona T1 - Geometric electroelasticity T1 - Geometrische Elektroelastizität N2 - In this work a diffential geometric formulation of the theory of electroelasticity is developed which also includes thermal and magnetic influences. We study the motion of bodies consisting of an elastic material that are deformed by the influence of mechanical forces, heat and an external electromagnetic field. To this end physical balance laws (conservation of mass, balance of momentum, angular momentum and energy) are established. These provide an equation that describes the motion of the body during the deformation. Here the body and the surrounding space are modeled as Riemannian manifolds, and we allow that the body has a lower dimension than the surrounding space. In this way one is not (as usual) restricted to the description of the deformation of three-dimensional bodies in a three-dimensional space, but one can also describe the deformation of membranes and the deformation in a curved space. Moreover, we formulate so-called constitutive relations that encode the properties of the used material. Balance of energy as a scalar law can easily be formulated on a Riemannian manifold. The remaining balance laws are then obtained by demanding that balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space. This generalizes a result by Marsden and Hughes that pertains to bodies that have the same dimension as the surrounding space and does not allow the presence of electromagnetic fields. Usually, in works on electroelasticity the entropy inequality is used to decide which otherwise allowed deformations are physically admissible and which are not. It is alsoemployed to derive restrictions to the possible forms of constitutive relations describing the material. Unfortunately, the opinions on the physically correct statement of the entropy inequality diverge when electromagnetic fields are present. Moreover, it is unclear how to formulate the entropy inequality in the case of a membrane that is subjected to an electromagnetic field. Thus, we show that one can replace the use of the entropy inequality by the demand that for a given process balance of energy is invariant under the action of arbitrary diffeomorphisms on the surrounding space and under linear rescalings of the temperature. On the one hand, this demand also yields the desired restrictions to the form of the constitutive relations. On the other hand, it needs much weaker assumptions than the arguments in physics literature that are employing the entropy inequality. Again, our result generalizes a theorem of Marsden and Hughes. This time, our result is, like theirs, only valid for bodies that have the same dimension as the surrounding space. N2 - In der vorliegenden Arbeit wird eine diffentialgeometrische Formulierung der Elektroelastizitätstheorie entwickelt, die auch thermische und magnetische Einflüsse berücksichtigt. Hierbei wird die Bewegung von Körpern untersucht, die aus einem elastischen Material bestehen und sich durch mechanische Kräfte, Wärmezufuhr und den Einfluss eines äußeren elektromagnetischen Feldes verformen. Dazu werden physikalische Bilanzgleichungen (Massenerhaltung, Impuls-, Drehimpuls- und Energiebilanz) aufgestellt, um mit deren Hilfe eine Gleichung zu formulieren, die die Bewegung des Körpers während der Deformation beschreibt. Dabei werden sowohl der Körper als auch der umgebende Raum als Riemannsche Mannigfaltigkeiten modelliert, wobei zugelassen ist, dass der Körper eine geringere Dimension hat als der ihn umgebende Raum. Auf diese Weise kann man nicht nur - wie sonst üblich - die Deformation dreidimensionaler Körper im dreidimensionalen euklidischen Raum beschreiben, sondern auch die Deformation von Membranen und die Deformation innerhalb eines gekrümmten Raums. Weiterhin werden sogenannte konstitutive Gleichungen formuliert, die die Eigenschaften des verwendeten Materials kodieren. Die Energiebilanz ist eine skalare Gleichung und kann daher leicht auf Riemannschen Mannigfaltigkeiten formuliert werden. Es wird gezeigt, dass die Forderung der Invarianz der Energiebilanz unter der Wirkung von beliebigen Diffeomorphismen auf den umgebenden Raum bereits die restlichen Bilanzgleichungen impliziert. Das verallgemeinert ein Resultat von Marsden und Hughes, das nur für Körper anwendbar ist, die die selbe Dimension wie der umgebende Raum haben und keine elektromagnetischen Felder berücksichtigt. Üblicherweise wird in Arbeiten über Elektroelastizität die Entropieungleichung verwendet, um zu entscheiden, welche Deformationen physikalisch zulässig sind und welche nicht. Sie wird außerdem verwendet, um Einschränkungen für die möglichen Formen von konstitutiven Gleichungen, die das Material beschreiben, herzuleiten. Leider gehen die Meinungen über die physikalisch korrekte Formulierung der Entropieungleichung auseinander sobald elektromagnetische Felder beteiligt sind. Weiterhin ist unklar, wie die Entropieungleichung für den Fall einer Membran, die einem elektromagnetischen Feld ausgesetzt ist, formuliert werden muss. Daher zeigen wir, dass die Benutzung der Entropieungleichung ersetzt werden kann durch die Forderung, dass für einen gegebenen Prozess die Energiebilanz invariant ist unter der Wirkung eines beliebigen Diffeomorphimus' auf den umgebenden Raum und der linearen Reskalierung der Temperatur. Zum einen liefert diese Forderung die gewünschten Einschränkungen für die Form der konstitutiven Gleichungen, zum anderen benoetigt sie viel schwächere Annahmen als die übliche Argumentation mit der Entropieungleichung, die man in der Physikliteratur findet. Unser Resultat ist dabei wieder eine Verallgemeinerung eines Theorems von Marsden und Hughes, wobei es, so wie deren Resultat, nur für Körper gilt, die als offene Teilmengen des dreidimensionalen euklidischen Raums modelliert werden können. KW - Elastizität KW - Elektrodynamik KW - Mannigfaltigkeit KW - konstitutive Gleichungen KW - Bewegungsgleichung KW - elasticity KW - electrodynamics KW - manifold KW - constitutive relations KW - equation of motion Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-72504 ER - TY - THES A1 - Zieres, Gundo T1 - Change Management durch das Excellence-Modell im Gesundheitswesen : der MDK Rheinland-Pfalz als Referenzobjekt in der Gesundheitswirtschaft T1 - Change Management with the Excellence-Modell in health care : the MDK Rheinland-Pfalz as an object of reference in health economy N2 - Die gewaltigen Strukturveränderungen im Bereich des Gesundheitswesens, die in den letzten Jahren bereits erfolgten und die, die noch bevorstehen, zwingen Unternehmen, mit geplanten und gesteuerten Veränderungsprozessen die Voraussetzungen für eine kontinuierliche Anpassung an die neuen Gegebenheiten zu schaffen und somit ihre Zukunftsfähigkeit sicherzustellen. Vor diesem Hintergrund wird gezeigt, wie das Excellence-Modell der EFQM als Instrument für Veränderungsprozesse eingesetzt werden kann und es geeignet ist, Veränderungsziele zu definieren und die Zielerreichung zu bewerten. Referenzobjekt der Fallstudienanalyse, die einen Zeitraum von 13 Jahren umfasst, ist der Medizinische Dienst der Krankenversicherung Rheinland-Pfalz. Neben der Analyse und Darstellung von theoretischen Grundlagen wird an einem Unternehmen des Gesundheitswesens beispielhaft gezeigt, wie die Umsetzung in der Praxis unter Einsatz des EFQM-Modells erfolgen kann. Da das EFQM-Modell mit seiner Systematik unternehmensunabhängig eingesetzt werden kann, sind Lern- und Übertragungsmöglichkeiten strukturiert möglich. Es wird der Nachweis erbracht, dass sich das EFQM-Modell im Rahmen eines Management- und Qualitätssteue-rungsmodells als Universalmethode nutzen lässt, sofern das Management über die Kompe-tenz branchenspezifischer Anpassung verfügt. Auf dem Weg zu organisatorischer Excel-lence wird gezielt an Planungs- und Prognosetechniken des strategischen Managements (SWOT, Szenario-Analyse, Portfolio-Analyse) angeknüpft und auf das VRIO-Paradigma des Resource-based View Bezug genommen. Das EFQM-Modell wird dem Stresstest des ressourcenstrategischen Ansatzes unterzogen, um so zu zeigen, dass es sich beim EFQM-Modell um ein einzigartiges, schwer imitierbares, kaum zu substituierendes, organisatorisch verankertes und kundennutzen-stiftendes Er-folgspotenzial handeln kann. Die Arbeit liefert Impulse und konkrete Anregungen, die zu einem hohen managementprakti-schen Erkenntniszuwachs für den erfolgreichen Umgang mit dem EFQM-Modell und dem Einsatz von Qualitätsmanagementsystemen führen können. N2 - The massive structural changes in our health care system, which already happened in the past few years and those, which are following, force companies to create the conditions for a continuous adapt to new circumstances. With the help of planned and controlled change processes they need to ensure their sustainability. Against this background, it is shown how the Excellence Model of the EFQM can be used as a tool for change processes and is suitable to define and evaluate goals of change. Reference object of the case study analysis, which covers a period of thirteen years, is the medical service of health insurance in Rhineland-Palatinate. In addition to the analysis and presentation of theoretical principles it is demonstrated with the help of a German health care organization, how the implementation in practice can be performed by using the EFQM model. The EFQM model can be used in each company, regardless of its classification. Therefore it is possible, to transfer the model in a structural way to any other organization. In the context of a model for management and quality control, it is demonstrated that the EFQM model can be used as a universal method, in case the management has the authority of industry-specific adaptation. On the way to organizational excellence, planning and forecasting techniques of strategic management (SWOT, scenario analysis, portfolio analysis) as well as the VRIO paradigm of resource-based view are used. Therewith the EFQM model is subjected to the stress test of the resource-strategic approach. It is shown that the EFQM model is a unique, difficult imitable, barely substituting, organizationally anchored and customer value-creating potential for success. The paper provides impulses and concrete suggestions that can lead to a high increase in knowledge for using the EFQM model and it shows how to successfully deal with quality management systems. KW - Management KW - Excellence KW - Qualität KW - Gesundheitswesen KW - Management KW - Excellence KW - Quality KW - Health Care Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-61761 ER - TY - THES A1 - Ziemer, Gesa T1 - Verletzbare Orte : Entwurf einer praktischen Ästhetik T1 - Vulnerable places : outline of a practical aesthetics N2 - Hauptanliegen der Dissertation ist es, einen Entwurf einer praktischen Ästhetik zu lancieren, der an der Schnittstelle zwischen philosophischer Ästhetik und Kunst – genauer Performancekunst - im Zeichen der Bezugsgrösse der Verletzbarkeit steht. In jüngeren Ästhetikansätzen hat sich eine Auffassung herauskristallisiert, die nicht über, sondern mit Kunst reflektiert. Die Pointe im ‚Mit’ liegt darin, dass diese Ästhetiken die Kunst nicht erklären, sie bestimmen und damit ihre Bedeutung festlegen, sondern dass diese entlang der Kunst die Brüche, Widerstände und Zäsuren zwischen Wahrnehmen und Denken markieren und diese als produktiv bewerten. Diese Lesart etabliert ein Denken, das nicht aus der Distanz auf etwas schaut (theoria), sondern ästhetisch-reflektierend (zurückwendend, auch selbstkritisch) mit der Kunst denkt. Die Disziplin der Ästhetik - als aisthesis: Lehre der sinnlichen Wahrnehmung - nimmt innerhalb der Philosophie eine besondere Stellung ein, weil sie auf ebendiese Differenz verweist und deshalb sinnliche und nicht nur logisch-argumentatorische Denkfiguren stärkt. Als eine Möglichkeit, die Kluft, das Nicht-Einholbare, die brüchige Unzulänglichkeit des begrifflich Denkenden gegenüber ästhetischer Erfahrung zu stärken, schlage ich die Bezugsgrösse der Verletzbarkeit vor. Eine solche Ästhetik besteht aus dem Kreieren verletzbarer Orte, wobei diese auf zweierlei Weisen umkreist werden: Zum einen aus der Kunstpraxis heraus anhand der ästhetischen Figur des verletzbaren Körpes, wie er sich in der zeitgenössischen Performance zeigt. Zum anderen als ein Kreieren von Begriffen im Bewusstsein ihrer Verletzbarkeit. Ausgangspunkte sind die Denkentwürfe von Gilles Deleuze und Hans Blumenberg: Die Ästhetik von Gilles Deleuze entwirft eine konkrete Überschneidungsmöglichkeit von Kunst und Philosophie, aus der sich meine These des Mit-Kunst-Denkens entwickeln lässt. Sie kann aus der Grundvoraussetzung des Deleuzeschen Denkens heraus begründet werden, die besagt, dass nicht nur die Kunst, sondern auch die Philosophie eine schöpferische Tätigkeit ist. Beide Disziplinen beruhen auf dem Prinzip der creatio continua, durch welche die Kunst Empfindungen und die Philosophie Begriffe schöpft, wobei eben genau dieser schöpferische Prozess Kunst und Philosophie in ein produktives Verhältnis zueinander treten lässt. Wie Deleuze seine Begriffsarbeit entlang künstlerischer Praxis entwickelt, wird anhand der Analyse des bis heute wenig rezipierten Textes Ein Manifest weniger in Bezug auf das Theater von Carmelo Bene analysiert. Eine ganz anderen Zugang zum Entwurf einer praktischen Ästhetik liefert Hans Blumenberg, der eine Theorie der Unbegrifflichkeit in Aussicht stellt. Im Anschluss an seine Forderung, die Metapher wieder vermehrt in die philosophische Denkpraxis zu integrieren, radikalisiert er seine Forderung, auch das Nichtanschauliche zu berücksichtigen, indem er das gänzlich Unbegriffliche an die Seite des Begrifflichen stellt. Definitorische Schwäche zeigt sich als wahrhaftige Stärke, die in der Unbegrifflichkeit ihren Zenit erreicht. Der Schiffbruch wird von mir als zentrale Metapher – gewissermassen als Metapher der Metapher – verstanden, die das Auf-Grund-Laufen des Allwissenden veranschaulicht. Im Schiffbruch wird die produktive Kollision von Theorie und Praxis deutlich. Deleuze und Blumenberg zeigen über ‚creatio continua’ und ‚Unbegrifflichkeit’ die Grenzen des Begreifens, indem sie betonen, dass sich Ästhetik nicht nur auf künstlerische Erfahrungen bezieht, sondern selber in das Gegenwärtigmachen von Erfahrungen involviert ist. Daraus folgt, dass ästhetische Reflexion nicht nur begrifflich agieren muss. Die praktische Ästhetik animiert dazu, andere darstellerische Formen (Bilder, Töne, Körper) als differente und ebenbürtige reflexive Modi anzuerkennen und sie als verletzbarmachende Formate der Sprache an die Seite zu stellen. Diese Lesart betont den gestalterischen Aspekt der Ästhetik selber. Zur Verdeutlichung dieser Kluft zwischen (Körper-)Bild und Begriff ist der von mir mitgestaltete Film Augen blickeN der Dissertation als Kapitel beigefügt. Dieser Film zeigt Performer und Performerinnen, die sich bewusst entschieden haben, ihren ‚abweichenden’ Körper auf der Bühne zu präsentieren. Das Wort Verletzbarkeit verweist auf die paradoxe Situation, etwas Brüchiges tragfähig zu machen und dadurch auch auf eine besondere Beziehungsform und auf ein existenzielles Aufeinander-Verwiesensein der Menschen. Verletzbarkeit geht alle an, und stiftet deshalb eine Gemeinsamkeit besonderer Art. In diesem Sinne sind verletzbare Orte nicht nur ästhetische, sondern auch ethische Orte, womit die politische Dimension des Vorhabens betont wird. N2 - Vulnerable Places. Outline of a practical aesthetics The main thrust of the thesis is to launch the design for a practical aesthetics that would be situated at the interface between philosophical aesthetics and art – performance art, to be specific – with particular reference to the notion of vulnerability. In more recent approaches to aesthetics a mode of thinking has emerged that engages in reflection not about art but rather with art. The point is for aesthetics not so much to explain and determine the meaning of art but rather to proceed alongside art in order to mark and appreciate the breaks, resistances and gaps between perception and thought. This way of reading establishes a kind of thinking that engages in aesthetic reflection with art (looking back onto itself, sometimes self-critically) rather than looking at something from a distance (theoria). The discipline of aesthetics – in the sense of aisthesis, the theory of sense perception – has a special place within philosophy because it points towards exactly that difference, which strengthens sensual patterns of thought as opposed to those based on logical argument. I suggest the term vulnerability as a point of reference that will provide an opportunity to intensify the gap, the incommensurability, the fragile insufficiency of conceptual thought vis-à-vis aesthetic experience. Such an aesthetics consists in the creation of vulnerable places, revolving around them in two different circles: on the one hand approaching from the practice of art on the basis of the aesthetic figure of the vulnerable body as manifested in contemporary performance art, and on the other hand as the creation of terms and concepts with an awareness of their vulnerability. The conceptual designs of Gilles Deleuze and Hans Blumenberg form points of departure for this argument: Gilles Deleuze’ aesthetics outlines a concrete possibility of overlap between art and philosophy, on the basis of which my hypothesis of ‘thinking with art’ can be developed. It can be argued on the basis of the underlying assumptions of Deleuzian thought - the notion that not only art but also philosophy is a creative activity. Both disciplines are based on the principle of a creatio continua through which art creates sensations and philosophy concepts. And it is exactly this creative process that allows art and philosophy to enter into a productive relationship. The way Deleuze develops his conceptual work alongside artistic practice is shown on the basis of an analysis of the little known text Un manifeste de moins with reference to the theatre of Carmelo Bene. Hans Blumenberg provides a completely different approach to the design of a practical aesthetics, indicating a theory of in-conceptuality. Following his call for an increased integration of metaphor into the practice of philosophical thought, he takes this further in the more radical call to take into equal consideration the non-sensual by placing the non-conceptual side by side with the conceptual. Weakness in definition emerges as the true strength, which reaches its apogee in its in-conceptuality. I understand the shipwreck as a central metaphor – in a sense as the metaphor of metaphor – that illustrates the grounding and failure of omniscience. The shipwreck illustrates the productive collision between theory and practice. Through ‘creatio continua’ and ‘in-conceptuality’, Deleuze and Blumenberg show the limits of understanding by emphasizing that aesthetics not only refers to artistic experiences but is itself involved in the process of making experiences present. That means: Aesthetic reflection must proceed in ways other than just by conceptual means. Practical aesthetics encourages us to recognize other forms of representation (such as images, sounds, bodies) as different reflective modes of equal standing, and to place them side by side with language as forms that make one vulnerable. Such a reading emphasises the creative and design aspect of aesthetics itself. The film ‘Point of View’, which I co-produced, forms an additional chapter of the thesis in order to illustrate the gap between (body-)image and concept. The film shows performers who have consciously decided to present their ‘deviant’ bodies on stage. The term vulnerability indicates the paradoxical task to enable something fragile to carry some weight; thus it also points towards a special form of relationship, to the way human beings are existentially dependent on each other. Since vulnerability concerns everyone, it establishes a special kind of community. In that sense, vulnerable places are not just aesthetic but also ethical places, which emphasizes the political dimension of the task. KW - Ästhetik KW - Performance KW - Gilles Deleuze KW - Hans Blumenberg KW - Körper KW - performance KW - Gilles Deleuze KW - Hans Blumenberg KW - body Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-7374 ER - TY - THES A1 - Ziemann, Niklas T1 - Four essays on the role of distance for economic decision-making T1 - Vier Studien zur Rolle von Distanzen für ökonomisches Entscheidungsverhalten N2 - Distances affect economic decision-making in numerous situations. The time at which we make a decision about future consumption has an impact on our consumption behavior. The spatial distance to employer, school or university impacts the place where we live and vice versa. The emotional closeness to other individuals influences our willingness to give money to them. This cumulative thesis aims to enrich the literature on the role of distance for economic decision-making. Thereby, each of my research projects sheds light on the impact of one kind of distance for efficient decision-making. N2 - Distanzen beeinflussen ökonomische Entscheidungen in vielen Situationen. Der Zeitpunkt an dem wir uns für zukünftige Ausgaben entscheiden, beeinflusst unser Konsumverhalten. Die räumliche Distanz zum Arbeitsgeber, zur Schule oder Universität beeinflusst die Wahl unseres Wohnortes und umgekehrt. Die emotionale Nähe zu anderen Menschen entscheidet darüber, ob wir diese finanziell unterstützen. Mit dieser kumulativen Doktorarbeit möchte ich die Literatur, die sich mit der Rolle von Distanzen für ökonomisches Entscheidungsverhalten beschäftigt, bereichern. Ich schaue mir in jedem meiner Forschungsprojekt an, wie eine Art von Distanz die Effizienz von Entscheidungen beeinflusst. KW - lab experiment KW - individual choices KW - Distanz KW - individuelle Entscheidungen KW - Laborexperiment KW - distance Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-591073 ER - TY - THES A1 - Ziehe, Andreas T1 - Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processing T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung T1 - Blinde Signalquellentrennung beruhend auf simultaner Diagonalisierung von Matrizen mit Anwendungen in der biomedizinischen Signalverarbeitung N2 - This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals. In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization. As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed. These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms. Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings. N2 - Diese Arbeit befasst sich mit der Lösung des Problems der blinden Signalquellentrennung (BSS). Das BSS Problem tritt häufig in vielen wissenschaftlichen und technischen Anwendungen auf. Im Kern besteht das Problem darin, aus einem Gemisch von überlagerten Signalen die zugrundeliegenden Quellsignale zu extrahieren. In wissenschaftlichen Publikationen zu diesem Thema werden hauptsächlich zwei Lösungsansätze verfolgt: Ein Ansatz ist die sogenannte "Analyse der unabhängigen Komponenten", die zum Ziel hat, eine lineare Transformation V der Daten X zu finden, sodass die Komponenten Un der transformierten Daten U = V X (die sogenannten "independent components") so unabhängig wie möglich sind. Ein anderer Ansatz beruht auf einer simultanen Diagonalisierung mehrerer spezieller Matrizen, die aus den Daten gebildet werden. Diese Möglichkeit der Lösung des Problems der blinden Signalquellentrennung bildet den Schwerpunkt dieser Arbeit. Als Hauptbeitrag der vorliegenden Arbeit präsentieren wir neue Algorithmen zur simultanen Diagonalisierung mehrerer Matrizen mit Hilfe einer nicht-orthogonalen Transformation. Die neu entwickelten Algorithmen werden anhand von numerischen Simulationen getestet und mit bereits bestehenden Diagonalisierungsalgorithmen verglichen. Es zeigt sich, dass unser neues Verfahren sehr effizient und leistungsfähig ist. Schließlich werden Anwendungen der BSS Methoden auf Probleme der biomedizinischen Signalverarbeitung erläutert und anhand von realistischen biomagnetischen Messdaten wird die Nützlichkeit in der explorativen Datenanalyse unter Beweis gestellt. KW - Signaltrennung KW - Mischung KW - Diagonalisierung KW - Bioelektrisches Signal KW - Magnetoencephalographie KW - Elektroencephalographie KW - Signalquellentrennung KW - Matrizen-Eigenwertaufgabe KW - Simultane Diagonalisierung KW - Optimierungsproblem KW - blind source separation KW - BSS KW - ICA KW - independent component analysis KW - approximate joint diagonalization KW - EEG KW - MEG Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5694 ER - TY - THES A1 - Ziegler, Moritz O. T1 - The 3D in-situ stress field and its changes in geothermal reservoirs T1 - Das 3D in-situ Spannungsfeld und seine Änderungen in Geothermiereservoiren N2 - Information on the contemporary in-situ stress state of the earth’s crust is essential for geotechnical applications and physics-based seismic hazard assessment. Yet, stress data records for a data point are incomplete and their availability is usually not dense enough to allow conclusive statements. This demands a thorough examination of the in-situ stress field which is achieved by 3D geomechanicalnumerical models. However, the models spatial resolution is limited and the resulting local stress state is subject to large uncertainties that confine the significance of the findings. In addition, temporal variations of the in-situ stress field are naturally or anthropogenically induced. In my thesis I address these challenges in three manuscripts that investigate (1) the current crustal stress field orientation, (2) the 3D geomechanical-numerical modelling of the in-situ stress state, and (3) the phenomenon of injection induced temporal stress tensor rotations. In the first manuscript I present the first comprehensive stress data compilation of Iceland with 495 data records. Therefore, I analysed image logs from 57 boreholes in Iceland for indicators of the orientation of the maximum horizontal stress component. The study is the first stress survey from different kinds of stress indicators in a geologically very young and tectonically active area of an onshore spreading ridge. It reveals a distinct stress field with a depth independent stress orientation even very close to the spreading centre. In the second manuscript I present a calibrated 3D geomechanical-numerical modelling approach of the in-situ stress state of the Bavarian Molasse Basin that investigates the regional (70x70x10km³) and local (10x10x10km³) stress state. To link these two models I develop a multi-stage modelling approach that provides a reliable and efficient method to derive from the larger scale model initial and boundary conditions for the smaller scale model. Furthermore, I quantify the uncertainties in the models results which are inherent to geomechanical-numerical modelling in general and the multi-stage approach in particular. I show that the significance of the models results is mainly reduced due to the uncertainties in the material properties and the low number of available stress magnitude data records for calibration. In the third manuscript I investigate the phenomenon of injection induced temporal stress tensor rotation and its controlling factors. I conduct a sensitivity study with a 3D generic thermo-hydro-mechanical model. I show that the key control factors for the stress tensor rotation are the permeability as the decisive factor, the injection rate, and the initial differential stress. In particular for enhanced geothermal systems with a low permeability large rotations of the stress tensor are indicated. According to these findings the estimation of the initial differential stress in a reservoir is possible provided the permeability is known and the angle of stress rotation is observed. I propose that the stress tensor rotations can be a key factor in terms of the potential for induced seismicity on pre-existing faults due to the reorientation of the stress field that changes the optimal orientation of faults. N2 - Kenntnis des derzeitigen in-situ Spannungszustandes der Erdkruste ist essenziell für geotechnische Anwendungen und seismische Gefährdungsabschätzungen, welche auf physikalischen Beobachtungen basieren. Jedoch sind die Spannungsinformationen jedes Datenpunktes unvollständig und die Menge an vorhandenen Datenpunkten ist normalerweise nicht groß genug, um schlüssige Ergebnisse zu erzielen. Daher ist eine eingehende Untersuchung des in-situ Spannungsfeldes, welche durch 3D geomechanisch-numerische Modellierung geleistet wird, erforderlich. Jedoch ist die räumliche Auflösung der Modelle begrenzt und der resultierende Spannungszustand ist großen Unsicherheiten unterworfen, welche die Aussagekraft der Ergebnisse beschränken. Zusätzlich gibt es zeitliche Änderungen des Spannungsfeldes, welche durch natürliche Prozesse bedingt oder menschengemacht sind. In meiner Dissertation behandle ich diese Herausforderungen in drei Manuskripten, welche (1) die Orientierung des derzeitigen Spannungszustandes, (2) die 3D geomechanisch-numerische Modellierung des in-situ Spannungszustandes und (3) das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors zum Thema haben. In dem ersten Manuskript präsentiere ich die erste umfassende Spannungsdatensammlung von Island mit insgesamt 495 Einträgen. Dafür habe ich Bilddatenlogs aus 57 Bohrlöchern in Island auf Indikatoren der maximalen horizontalen Spannungsorientierung hin untersucht. Diese Studie ist die erste ganzheitliche Spannungsuntersuchung, welche sich auf verschiedene Indikatoren der Spannungsorientierung stützt und in einem geologisch sehr jungen und tektonisch aktiven Gebiet auf einem Mittelozeanischen Rücken an Land liegt. Es zeigt sich, dass selbst sehr nahe an der Plattengrenze eine tiefenunabhängige, eindeutige Spannungsorientierung existiert. In dem zweiten Manuskript präsentiere ich einen kalibrierten 3D geomechanisch-numerischen Modellierungsansatz des in-situ Spannungszustandes des bayrischen Molassebeckens welches den regionalen (70x70x10km³) und den lokalen (10x10x10km³) Spannungszustand untersucht. Um diese zwei Modelle zu verbinden, habe ich ein mehrstufigen Modellansatz entworfen, welcher eine zuverlässige und effiziente Methode darstellt um Randbedingungen und Initialbedingungen für das kleinere Modell aus dem größeren Modell abzuleiten. Des Weiteren quantifiziere ich die Unsicherheiten in den Modellergebnissen, welche im Allgemeinen durch geomechanisch-numerische Modellierung und im Speziellen durch den Mehrstufenansatz entstehen. Ich zeige, dass die Signifikanz der Modellergebnisse hauptsächlich durch die Unsicherheiten in den Materialeigenschaften sowie der geringen Anzahl vorhandener Spannungsmagnitudendaten zur Kalibrierung reduziert wird. In dem dritten Manuskript untersuche ich das Phänomen injektionsinduzierter zeitlicher Rotationen des Spannungstensors und deren kontrollierende Parameter. Ich führe eine Sensitivitätsanalyse mit einem generischen 3D thermo-hydro-mechanischen Modell durch. Darin zeige ich, dass die Schlüsselparameter, welche die Rotationen des Spannungstensors kontrollieren, die Permeabilität des Reservoirgesteins als der entscheidende Faktor, die Injektionsrate und die initiale Differenzspannung sind. Insbesondere für geothermische Systeme nach dem Hot-Dry-Rock-Verfahren mit einer geringen Permeabilität weisen die Ergebnisse auf große Rotationen des Spannungstensors hin. Gemäß diesen Ergebnissen kann die initiale Differenzspannung in einem Reservoir abgeschätzt werden, sollte die Permeabilität bekannt sein und der Winkel der Spannungsrotation beobachtet werden. Ich schlage vor, dass Spannungsrotationen ein Schlüsselfaktor in Bezug auf das Potenzial für induzierte Seismizität sind, welche auf prä-existierenden Störungen entsteht, die durch die Reorientierung des Spannungsfeldes optimal orientiert werden. KW - stress KW - stress changes KW - induced seismicity KW - geothermal KW - geomechanical modelling KW - Spannung KW - Spannungsänderungen KW - induzierte Seismizität KW - Geothermie KW - geomechanische Modellierung Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-403838 ER - TY - THES A1 - Zieger, Tobias T1 - Self-adaptive data quality BT - automating duplicate detection N2 - Carrying out business processes successfully is closely linked to the quality of the data inventory in an organization. Lacks in data quality lead to problems: Incorrect address data prevents (timely) shipments to customers. Erroneous orders lead to returns and thus to unnecessary effort. Wrong pricing forces companies to miss out on revenues or to impair customer satisfaction. If orders or customer records cannot be retrieved, complaint management takes longer. Due to erroneous inventories, too few or too much supplies might be reordered. A special problem with data quality and the reason for many of the issues mentioned above are duplicates in databases. Duplicates are different representations of same real-world objects in a dataset. However, these representations differ from each other and are for that reason hard to match by a computer. Moreover, the number of required comparisons to find those duplicates grows with the square of the dataset size. To cleanse the data, these duplicates must be detected and removed. Duplicate detection is a very laborious process. To achieve satisfactory results, appropriate software must be created and configured (similarity measures, partitioning keys, thresholds, etc.). Both requires much manual effort and experience. This thesis addresses automation of parameter selection for duplicate detection and presents several novel approaches that eliminate the need for human experience in parts of the duplicate detection process. A pre-processing step is introduced that analyzes the datasets in question and classifies their attributes semantically. Not only do these annotations help understanding the respective datasets, but they also facilitate subsequent steps, for example, by selecting appropriate similarity measures or normalizing the data upfront. This approach works without schema information. Following that, we show a partitioning technique that strongly reduces the number of pair comparisons for the duplicate detection process. The approach automatically finds particularly suitable partitioning keys that simultaneously allow for effective and efficient duplicate retrieval. By means of a user study, we demonstrate that this technique finds partitioning keys that outperform expert suggestions and additionally does not need manual configuration. Furthermore, this approach can be applied independently of the attribute types. To measure the success of a duplicate detection process and to execute the described partitioning approach, a gold standard is required that provides information about the actual duplicates in a training dataset. This thesis presents a technique that uses existing duplicate detection results and crowdsourcing to create a near gold standard that can be used for the purposes above. Another part of the thesis describes and evaluates strategies how to reduce these crowdsourcing costs and to achieve a consensus with less effort. N2 - Die erfolgreiche Ausführung von Geschäftsprozessen ist eng an die Datenqualität der Datenbestände in einer Organisation geknüpft. Bestehen Mängel in der Datenqualität, kann es zu Problemen kommen: Unkorrekte Adressdaten verhindern, dass Kunden (rechtzeitig) beliefert werden. Fehlerhafte Bestellungen führen zu Reklamationen und somit zu unnötigem Aufwand. Falsche Preisauszeichnungen zwingen Unternehmen, auf Einnahmen zu verzichten oder gefährden die Kundenzufriedenheit. Können Bestellungen oder Kundendaten nicht gefunden werden, verlängert sich die Abarbeitung von Beschwerden. Durch fehlerhafte Inventarisierung wird zu wenig oder zu viel Nachschub bestellt. Ein spezielles Datenqualitätsproblem und der Grund für viele der genannten Datenqualitätsprobleme sind Duplikate in Datenbanken. Duplikate sind verschiedene Repräsentationen derselben Realweltobjekte im Datenbestand. Allerdings unterscheiden sich diese Repräsentationen voneinander und sind so für den Computer nur schwer als zusammengehörig zu erkennen. Außerdem wächst die Anzahl der zur Aufdeckung der Duplikate benötigten Vergleiche quadratisch mit der Datensatzgröße. Zum Zwecke der Datenreinigung müssen diese Duplikate erkannt und beseitigt werden. Diese Duplikaterkennung ist ein sehr aufwändiger Prozess. Um gute Ergebnisse zu erzielen, ist die Erstellung von entsprechender Software und das Konfigurieren vieler Parameter (Ähnlichkeitsmaße, Partitionierungsschlüssel, Schwellwerte usw.) nötig. Beides erfordert viel manuellen Aufwand und Erfahrung. Diese Dissertation befasst sich mit dem Automatisieren der Parameterwahl für die Duplikaterkennung und stellt verschiedene neuartige Verfahren vor, durch die Teile des Duplikaterkennungsprozesses ohne menschliche Erfahrung gestaltet werden können. Es wird ein Vorverarbeitungsschritt vorgestellt, der die betreffenden Datensätze analysiert und deren Attribute automatisch semantisch klassifiziert. Durch diese Annotationen wird nicht nur das Verständnis des Datensatzes verbessert, sondern es werden darüber hinaus die folgenden Schritte erleichtert, zum Beispiel können so geeignete Ähnlichkeitsmaße ausgewählt oder die Daten normalisiert werden. Dabei kommt der Ansatz ohne Schemainformationen aus. Anschließend wird ein Partitionierungsverfahren gezeigt, das die Anzahl der für die Duplikaterkennung benötigten Vergleiche stark reduziert. Das Verfahren findet automatisch besonders geeignete Partitionierungsschlüssel, die eine gleichzeitig effektive und effiziente Duplikatsuche ermöglichen. Anhand einer Nutzerstudie wird gezeigt, dass die so gefundenen Partitionierungsschlüssel Expertenvorschlägen überlegen sind und zudem keine menschliche Konfiguration benötigen. Außerdem lässt sich das Verfahren unabhängig von den Attributtypen anwenden. Zum Messen des Erfolges eines Duplikaterkennungsverfahrens und für das zuvor beschriebene Partitionierungsverfahren ist ein Goldstandard nötig, der Auskunft über die zu findenden Duplikate gibt. Die Dissertation stellt ein Verfahren vor, das anhand mehrerer vorhandener Duplikaterkennungsergebnisse und dem Einsatz von Crowdsourcing einen Nahezu-Goldstandard erzeugt, der für die beschriebenen Zwecke eingesetzt werden kann. Ein weiterer Teil der Arbeit beschreibt und evaluiert Strategien, wie die Kosten dieses Crowdsourcingeinsatzes reduziert werden können und mit geringerem Aufwand ein Konsens erreicht wird. KW - data quality KW - Datenqualität KW - Duplikaterkennung KW - duplicate detection KW - Machine Learning KW - Information Retrieval KW - Automatisierung KW - automation Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-410573 ER - TY - THES A1 - Ziege, Ricardo T1 - Growth dynamics and mechanical properties of E. coli biofilms T1 - Wachstumsdynamik und mechanische Eigenschaften von E. coli Biofilmen N2 - Biofilms are complex living materials that form as bacteria get embedded in a matrix of self-produced protein and polysaccharide fibres. The formation of a network of extracellular biopolymer fibres contributes to the cohesion of the biofilm by promoting cell-cell attachment and by mediating biofilm-substrate interactions. This sessile mode of bacteria growth has been well studied by microbiologists to prevent the detrimental effects of biofilms in medical and industrial settings. Indeed, biofilms are associated with increased antibiotic resistance in bacterial infections, and they can also cause clogging of pipelines or promote bio-corrosion. However, biofilms also gained interest from biophysics due to their ability to form complex morphological patterns during growth. Recently, the emerging field of engineered living materials investigates biofilm mechanical properties at multiple length scales and leverages the tools of synthetic biology to tune the functions of their constitutive biopolymers. This doctoral thesis aims at clarifying how the morphogenesis of Escherichia coli (E. coli) biofilms is influenced by their growth dynamics and mechanical properties. To address this question, I used methods from cell mechanics and materials science. I first studied how biological activity in biofilms gives rise to non-uniform growth patterns. In a second study, I investigated how E. coli biofilm morphogenesis and its mechanical properties adapt to an environmental stimulus, namely the water content of their substrate. Finally, I estimated how the mechanical properties of E. coli biofilms are altered when the bacteria express different extracellular biopolymers. On nutritive hydrogels, micron-sized E. coli cells can build centimetre-large biofilms. During this process, bacterial proliferation and matrix production introduce mechanical stresses in the biofilm, which release through the formation of macroscopic wrinkles and delaminated buckles. To relate these biological and mechanical phenomena, I used time-lapse fluorescence imaging to track cell and matrix surface densities through the early and late stages of E. coli biofilm growth. Colocalization of high cell and matrix densities at the periphery precede the onset of mechanical instabilities at this annular region. Early growth is detected at this outer annulus, which was analysed by adding fluorescent microspheres to the bacterial inoculum. But only when high rates of matrix production are present in the biofilm centre, does overall biofilm spreading initiate along the solid-air interface. By tracking larger fluorescent particles for a long time, I could distinguish several kinematic stages of E. coli biofilm expansion and observed a transition from non-linear to linear velocity profiles, which precedes the emergence of wrinkles at the biofilm periphery. Decomposing particle velocities to their radial and circumferential components revealed a last kinematic stage, where biofilm movement is mostly directed towards the radial delaminated buckles, which verticalize. The resulting compressive strains computed in these regions were observed to substantially deform the underlying agar substrates. The co-localization of higher cell and matrix densities towards an annular region and the succession of several kinematic stages are thus expected to promote the emergence of mechanical instabilities at the biofilm periphery. These experimental findings are predicted to advance future modelling approaches of biofilm morphogenesis. E. coli biofilm morphogenesis is further anticipated to depend on external stimuli from the environment. To clarify how the water could be used to tune biofilm material properties, we quantified E. coli biofilm growth, wrinkling dynamics and rigidity as a function of the water content of the nutritive substrates. Time-lapse microscopy and computational image analysis revealed that substrates with high water content promote biofilm spreading kinetics, while substrates with low water content promote biofilm wrinkling. The wrinkles observed on biofilm cross-sections appeared more bent on substrates with high water content, while they tended to be more vertical on substrates with low water content. Both wet and dry biomass, accumulated over 4 days of culture, were larger in biofilms cultured on substrates with high water content, despite extra porosity within the matrix layer. Finally, the micro-indentation analysis revealed that substrates with low water content supported the formation of stiffer biofilms. This study shows that E. coli biofilms respond to the water content of their substrate, which might be used for tuning their material properties in view of further applications. Biofilm material properties further depend on the composition and structure of the matrix of extracellular proteins and polysaccharides. In particular, E. coli biofilms were suggested to present tissue-like elasticity due to a dense fibre network consisting of amyloid curli and phosphoethanolamine-modified cellulose. To understand the contribution of these components to the emergent mechanical properties of E. coli biofilms, we performed micro-indentation on biofilms grown from bacteria of several strains. Besides showing higher dry masses, larger spreading diameters and slightly reduced water contents, biofilms expressing both main matrix components also presented high rigidities in the range of several hundred kPa, similar to biofilms containing only curli fibres. In contrast, a lack of amyloid curli fibres provides much higher adhesive energies and more viscoelastic fluid-like material behaviour. Therefore, the combination of amyloid curli and phosphoethanolamine-modified cellulose fibres implies the formation of a composite material whereby the amyloid curli fibres provide rigidity to E. coli biofilms, whereas the phosphoethanolamine-modified cellulose rather acts as a glue. These findings motivate further studies involving purified versions of these protein and polysaccharide components to better understand how their interactions benefit biofilm functions. All three studies depict different aspects of biofilm morphogenesis, which are interrelated. The first work reveals the correlation between non-uniform biological activities and the emergence of mechanical instabilities in the biofilm. The second work acknowledges the adaptive nature of E. coli biofilm morphogenesis and its mechanical properties to an environmental stimulus, namely water. Finally, the last study reveals the complementary role of the individual matrix components in the formation of a stable biofilm material, which not only forms complex morphologies but also functions as a protective shield for the bacteria it contains. Our experimental findings on E. coli biofilm morphogenesis and their mechanical properties can have further implications for fundamental and applied biofilm research fields. N2 - Biofilme sind komplexe lebende Materialien, die sich bilden, wenn Bakterien in eine Matrix aus selbstproduzierten Protein- und Polysaccharidfasern eingebettet werden. Die Bildung eines Netzwerks aus extrazellulären Biopolymerfasern trägt zum Zusammenhalt des Biofilms bei, indem sie die Zell-Zell-Anhaftung fördert und die Wechselwirkungen zwischen Biofilm und Substrat vermittelt. Diese sessile Form des Bakterienwachstums wurde von Mikrobiologen eingehend untersucht, um die schädlichen Auswirkungen von Biofilmen in der Medizin und Industrie zu verhindern. Biofilme werden nämlich mit einer erhöhten Antibiotikaresistenz bei bakteriellen Infektionen in Verbindung gebracht, und sie können auch zur Verstopfung von Rohrleitungen führen oder Biokorrosion fördern. Biofilme sind jedoch auch für die Biophysik von Interesse, da sie während ihres Wachstums komplexe morphologische Muster bilden können. In jüngster Zeit werden auf dem aufstrebenden Gebiet der künstlich hergestellten lebenden Materialien die mechanischen Eigenschaften von Biofilmen auf verschiedenen Längenskalen untersucht und die Werkzeuge der synthetischen Biologie genutzt, um die Funktionen ihrer konstitutiven Biopolymere zu beeinflussen. In dieser Doktorarbeit soll geklärt werden, wie die Morphogenese von Escherichia coli (E. coli)-Biofilmen durch deren Wachstumsdynamik und mechanische Eigenschaften beeinflusst wird. Um dieser Frage nachzugehen, habe ich Methoden aus der Zellmechanik und der Materialwissenschaft verwendet. Zunächst habe ich untersucht, wie die biologische Aktivität in Biofilmen zu ungleichmäßigen Wachstumsmustern führt. In einer zweiten Studie untersuchte ich, wie sich die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften an einen Umweltstimulus, nämlich den Wassergehalt des Substrats, anpassen. Schließlich habe ich abgeschätzt, wie sich die mechanischen Eigenschaften von E. coli-Biofilmen verändern, wenn die Bakterien verschiedene extrazelluläre Biopolymere exprimieren. Auf nährstoffhaltigen Hydrogelen können mikrometergroße E. coli-Zellen zentimetergroße Biofilme bilden. Während dieses Prozesses führen die bakterielle Vermehrung und die Matrixproduktion zu mechanischen Spannungen im Biofilm, die sich durch die Bildung von makroskopischen Falten und delaminierten Knicken entladen. Um diese biologischen und mechanischen Phänomene miteinander in Beziehung zu setzen, habe ich mit Hilfe von Zeitraffer-Fluoreszenzaufnahmen die Zell- und Matrixoberflächendichte in den frühen und späten Phasen des E. coli-Biofilmwachstums verfolgt. Die Kolokalisierung hoher Zell- und Matrixdichten an der Peripherie geht dem Auftreten mechanischer Instabilitäten in diesem ringförmigen Bereich voraus. An diesem äußeren Ring wird ein frühes Wachstum festgestellt, das durch Zugabe von fluoreszierenden Mikrokugeln zum bakteriellen Inokulum analysiert wurde. Aber nur wenn im Zentrum des Biofilms hohe Raten der Matrixproduktion vorhanden sind, beginnt die Ausbreitung des gesamten Biofilms entlang der Feststoff-Luft-Grenzfläche. Indem ich größere fluoreszierende Partikel über einen längeren Zeitraum verfolgte, konnte ich mehrere kinematische Stadien der E. coli-Biofilmexpansion unterscheiden und einen Übergang von nichtlinearen zu linearen Geschwindigkeitsprofilen beobachten, der dem Auftreten von Falten an der Biofilmperipherie vorausgeht. Die Zerlegung der Partikelgeschwindigkeiten in ihre radialen und umlaufenden Komponenten ergab ein letztes kinematisches Stadium, in dem die Bewegung des Biofilms hauptsächlich auf die radialen delaminierten Knicke gerichtet ist, die sich vertikalisieren. Die in diesen Regionen berechneten Druckspannungen verformen die darunter liegenden Agarsubstrate erheblich. Die gleichzeitige Ansammlung höherer Zell- und Matrixdichten in einer ringförmigen Region und die Abfolge mehrerer kinematischer Stadien dürften somit das Entstehen mechanischer Instabilitäten an der Biofilm-Peripherie fördern. Diese experimentellen Ergebnisse werden voraussichtlich zukünftige Modellierungsansätze der Biofilmmorphogenese voranbringen. Die Morphogenese des E. coli-Biofilms wird voraussichtlich auch von externen Stimuli aus der Umwelt abhängen. Um zu klären, wie das Wasser zur Einstellung der Materialeigenschaften von Biofilmen genutzt werden könnte, haben wir das Wachstum, die Faltenbildung und die Steifigkeit von E. coli-Biofilmen in Abhängigkeit vom Wassergehalt der Nährsubstrate quantifiziert. Zeitraffermikroskopie und computergestützte Bildanalyse zeigten, dass Substrate mit hohem Wassergehalt die Ausbreitungskinetik des Biofilms fördern, während Substrate mit niedrigem Wassergehalt die Faltenbildung des Biofilms begünstigen. Die auf Biofilm-Querschnitten beobachteten Falten erschienen auf Substraten mit hohem Wassergehalt stärker gebogen, während sie auf Substraten mit niedrigem Wassergehalt eher vertikal verliefen. Sowohl die feuchte als auch die trockene Biomasse, die während der 4-tägigen Kultur akkumuliert wurde, war in Biofilmen, die auf Substraten mit hohem Wassergehalt gezüchtet wurden, größer, trotz der zusätzlichen Porosität innerhalb der Matrixschicht. Schließlich ergab die Mikroindentationsanalyse, dass Substrate mit niedrigem Wassergehalt die Bildung von steiferen Biofilmen begünstigten. Diese Studie zeigt, dass E. coli-Biofilme auf den Wassergehalt ihres Substrats reagieren, was für die Abstimmung ihrer Materialeigenschaften im Hinblick auf weitere Anwendungen genutzt werden könnte. Die Materialeigenschaften von Biofilmen hängen außerdem von der Zusammensetzung und Struktur der Matrix aus extrazellulären Proteinen und Polysacchariden ab. Insbesondere wurde vermutet, dass E. coli-Biofilme aufgrund eines dichten Fasernetzwerks aus Amyloid-Curli und Phosphoethanolamin-modifizierter Cellulose eine gewebeähnliche Elastizität aufweisen. Um den Beitrag dieser Komponenten zu den entstehenden mechanischen Eigenschaften von E. coli-Biofilmen zu verstehen, führten wir an Biofilmen, die aus Bakterien verschiedener Stämme gewachsen waren, Mikroeindrücke durch. Biofilme, die beide Hauptmatrixkomponenten enthalten, wiesen nicht nur eine höhere Trockenmasse, einen größeren Ausbreitungsdurchmesser und einen leicht verringerten Wassergehalt auf, sondern auch eine hohe Steifigkeit im Bereich von mehreren hundert kPa, ähnlich wie Biofilme, die nur Curli-Fasern enthalten. Das Fehlen von Amyloid-Curli-Fasern führt dagegen zu deutlich höheren Adhäsionsenergien und einem viskoelastischeren, flüssigkeitsähnlichen Materialverhalten. Die Kombination von Amyloid-Curli-Fasern und Phosphoethanolamin-modifizierten Cellulosefasern impliziert daher die Bildung eines Verbundmaterials, bei dem die Amyloid-Curli-Fasern den E. coli-Biofilmen Steifigkeit verleihen, während die Phosphoethanolamin-modifizierte Cellulose eher als Klebstoff wirkt. Diese Ergebnisse motivieren zu weiteren Studien mit gereinigten Versionen dieser Protein- und Polysaccharidkomponenten, um besser zu verstehen, wie ihre Interaktionen die Funktionen des Biofilms unterstützen. Alle drei Studien zeigen verschiedene Aspekte der Biofilm-Morphogenese, die miteinander verbunden sind. Die erste Arbeit zeigt den Zusammenhang zwischen ungleichmäßigen biologischen Aktivitäten und dem Auftreten mechanischer Instabilitäten im Biofilm auf. Die zweite Arbeit bestätigt die Anpassungsfähigkeit der Morphogenese des E. coli-Biofilms und seiner mechanischen Eigenschaften an einen Umweltreiz, nämlich Wasser. Die letzte Studie schließlich zeigt die komplementäre Rolle der einzelnen Matrixkomponenten bei der Bildung eines stabilen Biofilmmaterials, das nicht nur komplexe Morphologien bildet, sondern auch als Schutzschild für die darin enthaltenen Bakterien fungiert. Unsere experimentellen Erkenntnisse über die Morphogenese von E. coli-Biofilmen und ihre mechanischen Eigenschaften können weitere Auswirkungen auf grundlegende und angewandte Biofilm-Forschungsbereiche haben. KW - biofilm KW - E. coli KW - living materials KW - mechanobiology KW - E. coli KW - Biofilm KW - lebende Materialien KW - Mechanobiologie Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-559869 ER - TY - THES A1 - Zickfeld, Kirsten T1 - Modeling large-scale singular climate events for integrated assessment N2 - Erkenntnisse aus paläoklimatologischen Studien, theoretischen Betrachtungen und Modellsimulationen deuten darauf hin, dass anthropogene Emissionen von Treibhausgasen und Aerosolen zu großskaligen, singulären Klimaereignissen führen könnten. Diese bezeichnen stark nichtlineare, abrupte Klimaänderungen, mit regionalen bis hin zu globalen Auswirkungen. Ziel dieser Arbeit ist die Entwicklung von Modellen zweier maßgeblicher Komponenten des Klimasystems, die singuläres Verhalten aufweisen könnten: die atlantische thermohaline Zirkulation (THC) und der indische Monsun. Diese Modelle sind so konzipiert, dass sie den Anforderungen der "Integrated Assessment"-Modellierung genügen, d.h., sie sind realistisch, recheneffizient, transparent und flexibel. Das THC-Modell ist ein einfaches, interhemisphärisches Boxmodell, das anhand von Daten kalibriert wird, die mit einem gekoppelten Klimamodell mittlerer Komplexität erzeugt wurden. Das Modell wird durch die globale Mitteltemperatur angetrieben, die mit Hilfe eines linearen Downscaling-Verfahrens in regionale Wärme- und Süßwasserflüsse übersetzt wird. Die Ergebnisse einer Vielzahl von zeitabhängigen Simulationen zeigen, dass das Modell in der Lage ist, maßgebliche Eigenschaften des Verhaltens komplexer Klimamodelle wiederzugeben, wie die Sensitivität bezüglich des Ausmaßes, der regionalen Verteilung und der Rate der Klimaänderung. Der indische Monsun wird anhand eines neuartigen eindimensionalen Boxmodells der tropischen Atmosphäre beschrieben. Dieses enthält Parmetrisierungen der Oberflächen- und Strahlungsflüsse, des hydrologischen Kreislaufs und derHydrologie der Landoberfläche. Trotz des hohen Idealisierungsgrades ist das Modell in der Lage, relevante Aspekte der beobachteten Monsundynamik, wie z.B. den Jahresgang des Niederschlags und das Eintritts- sowie Rückzugsdatum des Sommermonsuns, zufrieden stellend zu simulieren. Außerdem erfasst das Modell die Sensitivitätdes Monsuns bezüglich Änderungen der Treibhausgas- und Aerosolkonzentrationen, die aus komplexeren Modellen bekannt sind. Eine vereinfachte Version des Monsunmodells wird für die Untersuchung des qualitativen Systemverhaltens in Abhängigkeit von Änderungen der Randbedingungen eingesetzt. Das bemerkenswerteste Ergebnis ist das Auftreten einer Sattelknotenbifurkation des Sommermonsuns für kritische Werte der Albedo oder der Sonneneinstrahlung. Darüber hinaus weist das Modell zwei stabile Zustände auf: neben dem niederschlagsreichen Sommermonsun besteht ein Zustand, der sich durch einen schwachen hydrologischen Kreislauf auszeichnet. Das Beachtliche an diesen Ergebnissen ist, dass anthropogene Störungen der plantetaren Albedo, wie Schwefelemissionen und/oder Landnutzungsänderungen, zu einer Destabilisierung des indischen Monsuns führen könnten. Das THC-Boxmodell findet exemplarische Anwendung in einem "Integrated Assessment" von Klimaschutzstrategien. Basierend auf dem konzeptionellen und methodischen Gerüst des Leitplankenansatzes werden Emissionskorridore (d.h. zulässige Spannen an CO2-Emissionen) berechnet, die das Risiko eines THC-Zusammenbruchs begrenzen sowie sozioökonomische Randbedingungen berücksichtigen. Die Ergebnisse zeigen u.a. eine starke Abhängigkeit der Breite der Emissionskorridore von der Klima- und hydrologischen Sensitivität. Für kleine Werte einer oder beider Sensitivitäten liegt der obere Korridorrand bei weit höheren Emissionswerten als jene, die von plausiblen Emissionsszenarien für das 21. Jahrhundert erreicht werden. Für große Werte der Sensitivitäten hingegen, verlassen schon niedrige Emissionsszenarien den Korridor in den frühen Jahrzehnten des 21. Jahrhunderts. Dies impliziert eine Abkehr von den gegenwärtigen Emissionstrends innherhalb der kommenden Jahrzehnte, wenn das Risko eines THC Zusammenbruchs gering gehalten werden soll. Anhand einer Vielzahl von Anwendungen - von Sensitivitäts- über Bifurkationsanalysen hin zu integrierter Modellierung - zeigt diese Arbeit den Wert reduzierter Modelle auf. Die Ergebnisse und die daraus zu ziehenden Schlussfolgerungen liefern einen wertvollen Beitrag zu der wissenschaftlichen und politischen Diskussion bezüglich der Folgen des anthropogenen Klimawandels und der langfristigen Klimaschutzziele. N2 - Concerns have been raised that anthropogenic climate change could lead to large-scale singular climate events, i.e., abrupt nonlinear climate changes with repercussions on regional to global scales. One central goal of this thesis is the development of models of two representative components of the climate system that could exhibit singular behavior: the Atlantic thermohaline circulation (THC) and the Indian monsoon. These models are conceived so as to fulfill the main requirements of integrated assessment modeling, i.e., reliability, computational efficiency, transparency and flexibility. The model of the THC is an interhemispheric four-box model calibrated against data generated with a coupled climate model of intermediate complexity. It is designed to be driven by global mean temperature change which is translated into regional fluxes of heat and freshwater through a linear down-scaling procedure. Results of a large number of transient climate change simulations indicate that the reduced-form THC model is able to emulate key features of the behavior of comprehensive climate models such as the sensitivity of the THC to the amount, regional distribution and rate of change in the heat and freshwater fluxes. The Indian monsoon is described by a novel one-dimensional box model of the tropical atmosphere. It includes representations of the radiative and surface fluxes, the hydrological cycle and surface hydrology. Despite its high degree of idealization, the model satisfactorily captures relevant aspects of the observed monsoon dynamics, such as the annual course of precipitation and the onset and withdrawal of the summer monsoon. Also, the model exhibits the sensitivity to changes in greenhouse gas and sulfate aerosol concentrations that are known from comprehensive models. A simplified version of the monsoon model is employed for the identification of changes in the qualitative system behavior against changes in boundary conditions. The most notable result is that under summer conditions a saddle-node bifurcation occurs at critical values of the planetary albedo or insolation. Furthermore, the system exhibits two stable equilibria: besides the wet summer monsoon, a stable state exists which is characterized by a weak hydrological cycle. These results are remarkable insofar, as they indicate that anthropogenic perturbations of the planetary albedo such as sulfur emissions and/or land-use changes could destabilize the Indian summer monsoon. The reduced-form THC model is employed in an exemplary integrated assessment application. Drawing on the conceptual and methodological framework of the tolerable windows approach, emissions corridors (i.e., admissible ranges of CO2- emissions) are derived that limit the risk of a THC collapse while considering expectations about the socio-economically acceptable pace of emissions reductions. Results indicate, for example, a large dependency of the width of the emissions corridor on climate and hydrological sensitivity: for low values of climate and/or hydrological sensitivity, the corridor boundaries are far from being transgressed by any plausible emissions scenario for the 21st century. In contrast, for high values of both quantities low non-intervention scenarios leave the corridor already in the early decades of the 21st century. This implies that if the risk of a THC collapse is to be kept low, business-as-usual paths would need to be abandoned within the next two decades. All in all, this thesis highlights the value of reduced-form modeling by presenting a number of applications of this class of models, ranging from sensitivity and bifurcation analysis to integrated assessment. The results achieved and conclusions drawn provide a useful contribution to the scientific and policy debate about the consequences of anthropogenic climate change and the long-term goals of climate protection. --- Anmerkung: Die Autorin ist Trägerin des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2003/2004. KW - Nichtlineare Dynamik KW - 'Reduced-Form' Modellierung KW - Thermohaline Atlantikzirkulation KW - Indischer Monsun KW - Integrated Assessment KW - Nonlinear Dynamics KW - Reduced-Form Modeling KW - Atlantic Thermohaline Circulation KW - Indian Monsoon KW - Integrated Assessment Y1 - 2003 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001176 ER - TY - THES A1 - Zhou, Xiangqian T1 - Modeling of spatially distributed nitrate transport to investigate the effects of drought and river restoration in the Bode catchment, Central Germany N2 - The European Water Framework Directive (WFD) has identified river morphological alteration and diffuse pollution as the two main pressures affecting water bodies in Europe at the catchment scale. Consequently, river restoration has become a priority to achieve the WFD's objective of good ecological status. However, little is known about the effects of stream morphological changes, such as re-meandering, on in-stream nitrate retention at the river network scale. Therefore, catchment nitrate modeling is necessary to guide the implementation of spatially targeted and cost-effective mitigation measures. Meanwhile, Germany, like many other regions in central Europe, has experienced consecutive summer droughts from 2015-2018, resulting in significant changes in river nitrate concentrations in various catchments. However, the mechanistic exploration of catchment nitrate responses to changing weather conditions is still lacking. Firstly, a fully distributed, process-based catchment Nitrate model (mHM-Nitrate) was used, which was properly calibrated and comprehensively evaluated at numerous spatially distributed nitrate sampling locations. Three calibration schemes were designed, taking into account land use, stream order, and mean nitrate concentrations, and they varied in spatial coverage but used data from the same period (2011–2019). The model performance for discharge was similar among the three schemes, with Nash-Sutcliffe Efficiency (NSE) scores ranging from 0.88 to 0.92. However, for nitrate concentrations, scheme 2 outperformed schemes 1 and 3 when compared to observed data from eight gauging stations. This was likely because scheme 2 incorporated a diverse range of data, including low discharge values and nitrate concentrations, and thus provided a better representation of within-catchment heterogenous. Therefore, the study suggests that strategically selecting gauging stations that reflect the full range of within-catchment heterogeneity is more important for calibration than simply increasing the number of stations. Secondly, the mHM-Nitrate model was used to reveal the causal relations between sequential droughts and nitrate concentration in the Bode catchment (3200 km2) in central Germany, where stream nitrate concentrations exhibited contrasting trends from upstream to downstream reaches. The model was evaluated using data from six gauging stations, reflecting different levels of runoff components and their associated nitrate-mixing from upstream to downstream. Results indicated that the mHM-Nitrate model reproduced dynamics of daily discharge and nitrate concentration well, with Nash-Sutcliffe Efficiency ≥ 0.73 for discharge and Kling-Gupta Efficiency ≥ 0.50 for nitrate concentration at most stations. Particularly, the spatially contrasting trends of nitrate concentration were successfully captured by the model. The decrease of nitrate concentration in the lowland area in drought years (2015-2018) was presumably due to (1) limited terrestrial export loading (ca. 40% lower than that of normal years 2004-2014), and (2) increased in-stream retention efficiency (20% higher in summer within the whole river network). From a mechanistic modelling perspective, this study provided insights into spatially heterogeneous flow and nitrate dynamics and effects of sequential droughts, which shed light on water-quality responses to future climate change, as droughts are projected to be more frequent. Thirdly, this study investigated the effects of stream restoration via re-meandering on in-stream nitrate retention at network-scale in the well-monitored Bode catchment. The mHM-Nitrate model showed good performance in reproducing daily discharge and nitrate concentrations, with median Kling-Gupta values of 0.78 and 0.74, respectively. The mean and standard deviation of gross nitrate retention efficiency, which accounted for both denitrification and assimilatory uptake, were 5.1 ± 0.61% and 74.7 ± 23.2% in winter and summer, respectively, within the stream network. The study found that in the summer, denitrification rates were about two times higher in lowland sub-catchments dominated by agricultural lands than in mountainous sub-catchments dominated by forested areas, with median ± SD of 204 ± 22.6 and 102 ± 22.1 mg N m-2 d-1, respectively. Similarly, assimilatory uptake rates were approximately five times higher in streams surrounded by lowland agricultural areas than in those in higher-elevation, forested areas, with median ± SD of 200 ± 27.1 and 39.1 ± 8.7 mg N m-2 d-1, respectively. Therefore, restoration strategies targeting lowland agricultural areas may have greater potential for increasing nitrate retention. The study also found that restoring stream sinuosity could increase net nitrate retention efficiency by up to 25.4 ± 5.3%, with greater effects seen in small streams. These results suggest that restoration efforts should consider augmenting stream sinuosity to increase nitrate retention and decrease nitrate concentrations at the catchment scale. N2 - Die Europäische Wasserrahmenrichtlinie hat die morphologischen Veränderungen der Flüsse und die diffuse Verschmutzung als die Hauptprobleme der Gewässer in Europa identifiziert. Um diese Probleme anzugehen, hat die Renaturierung von Fließgewässern hohe Priorität. Es ist jedoch nur wenig darüber bekannt, wie sich Veränderungen der Flussform, wie z. B. die Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässer auswirken. Deutschland hat in den letzten Jahren Dürreperioden erlebt, die zu Veränderungen der Nitratkonzentration in den Fließgewässern geführt haben. Es gibt jedoch nur wenig Erkenntnisse darüber, wie sich diese Dürreperioden auf die Nitratkonzentration auswirken. Zur Untersuchung dieser Einflüsse kann eine Modellierung des Nitrat-Transports und -Rückhalts in Einzugsgebieten wichtige Hinweise zu wirksamen Reduzierungsmaßnahmen liefern. In dieser Studie wurde ein prozessbasiertes hydrologisches Wasserqualitätsmodell (mHM-Nitrate) verwendet, um die Nitratdynamik im Einzugsgebiet der Bode (3200 km2) zu simulieren. Das Modell wurde anhand von Daten aus verschiedenen Teileinzugsgebieten kalibriert und bewertet. Es wurden drei Kalibrierungsvarianten entwickelt, die die Flächennutzung, die Ordnung der Fließgewässer und die mittleren Nitratkonzentrationen mit unterschiedlichem Detaillierungsgrad berücksichtigten. Die Modellierungsgüte für den Abfluss war bei allen drei Kalibrierungsvarianten ähnlich, während sich bei den Nitratkonzentrationen deutliche Unterschiede ergaben. Die Studie zeigte, dass die Auswahl von Messstationen, die die charakteristischen Gebietseigenschaften widerspiegeln, für die Nitrat-Kalibrierung wichtiger ist als die reine Anzahl der Messstationen. Das Modell wurde auch verwendet, um die Beziehung zwischen Dürreperioden und der Nitratdynamik im Bodegebiet zu untersuchen. Das Modell gab die Dynamik von Abfluss und Nitrat sehr gut wider und erfasste hierbei auch die räumlichen Unterschiede in den Nitratkonzentrationen sehr gut. Die Studie ergab, dass Dürreperioden zu niedrigeren Nitratkonzentrationen in den landwirtschaftlich genutzten Gebieten im Tiefland führten, was auf einen geringeren terrestrischen Export und einen erhöhten Rückhalt in den Fließgewässern zurückzuführen war. Die Untersuchung liefert Erkenntnisse über die Auswirkungen von Dürren auf den Nitrataustrag, was für das Verständnis der Auswirkungen des künftigen Klimawandels wichtig ist. Darüber hinaus untersuchte die Studie die Auswirkungen der Renaturierung von Fließgewässern, insbesondere der Re-Mäanderung, auf die Nitratrückhaltung im Fließgewässernetz. Die Untersuchung zeigte, dass der gewässerinterne Nitratrückhalt in landwirtschaftlichen Tieflandgebieten höher war als in bewaldeten Gebieten. Die Wiederherstellung natürlich meandrierender Fließgewässer erhöhte die Nitratretention und verringerte die Nitratkonzentration im Fließgewässer, insbesondere in kleinen Bächen in landwirtschaftlichen Gebieten. Dies deutet darauf hin, dass bei Sanierungsmaßnahmen die Erhöhung der Gewässersinuosität berücksichtigt werden sollte, um den Nitratrückhalt und die Wasserqualität insbesondere in den Teiflandgebieten zu erhöhen. KW - multi-site calibration KW - spatiotemporal validation KW - uncertainty KW - parameter transferability KW - drought KW - catchment hydrology Water quality model KW - river restoration KW - stream sinuosity KW - mHM-Nitrate model KW - stream denitrification KW - assimilatory uptake KW - Kalibrierung an mehreren Standorten KW - räumlich-zeitliche Validierung KW - Ungewissheit KW - Übertragbarkeit der Parameter KW - Dürre KW - Einzugsgebietshydrologie Wasserqualitätsmodell KW - Restaurierung von Flüssen KW - Strömungsneigung KW - mHM-Nitrat-Modell KW - Bachdenitrifikation KW - assimilatorische Aufnahme Y1 - 2024 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-621059 ER - TY - THES A1 - Zhou, Bin T1 - On the assessment of surface urban heat island T1 - Bewertung des urbanen Hitzeinseleffekts BT - size, urban form, and seasonality BT - Stadtgröße, Stadtform, und Seasonalität N2 - Inwiefern Städte unter den Megatrends der Urbanisierung und des Klimawandels nachhaltig gestaltet werden können, bleibt umstritten. Dies ist zum Teil auf unzureichende Kenntnisse der Mensch-Umwelt-Interaktionen zurückzuführen. Als die am vollständigsten dokumentierte anthropogene Klimamodifikation ruft der Urbane Hitzeinsel (UHI) Effekt weltweit Sorgen hinsichtlich der Gesundheit der Bevölkerung hervor. Dazu kommt noch ein immer häufigeres und intensiveres Auftreten von Hitzewellen, wodurch das Wohlbefinden der Stadtbewohner weiter beeinträchtigt wird. Trotz eines deutlichen Anstiegs der Zahl der UHI-bezogenen Veröffentlichungen in den letzten Jahrzehnten haben die unterschiedlichen Definitionen von städtischen und ländlichen Gebieten in bisherigen Studien die allgemeine Vergleichbarkeit der Resultate stark erschwert. Darüber hinaus haben nur wenige Studien den UHI-Effekt und seine Einflussfaktoren anhand einer Kombination der Landnutzungsdaten und der thermischen Fernerkundung systematisch untersucht. Diese Arbeit stellt einen allgemeinen Rahmen zur Quantifizierung von UHI-Intensitäten mittels eines automatisierten Algorithmus vor, wobei Städte als Agglomerationen maximal räumlicher Kontinuität basierend auf Landnutzungsdaten identifiziert, sowie deren ländliche Umfelder analog definiert werden. Durch Verknüpfung der Landnutzungsdaten mit Landoberflächentemperaturen von Satelliten kann die UHI-Intensität robust und konsistent berechnet werden. Anhand dieser Innovation wurde nicht nur der Zusammenhang zwischen Stadtgröße und UHI-Intensität erneut untersucht, sondern auch die Auswirkungen der Stadtform auf die UHI-Intensität quantifiziert. Diese Arbeit leistet vielfältige Beiträge zum tieferen Verständnis des UHI-Phänomens. Erstens wurde eine log-lineare Beziehung zwischen UHI-Intensität und Stadtgröße unter Berücksichtigung der 5,000 europäischen Städte bestätigt. Werden kleinere Städte auch berücksichtigt, ergibt sich eine log-logistische Beziehung. Zweitens besteht ein komplexes Zusammenspiel zwischen der Stadtform und der UHI-Intensität: die Stadtgröße stellt den stärksten Einfluss auf die UHI-Intensität dar, gefolgt von der fraktalen Dimension und der Anisometrie. Allerdings zeigen ihre relativen Beiträge zur UHI-Intensität eine regionale Heterogenität, welche die Bedeutung räumlicher Muster während der Umsetzung von UHI-Anpassungsmaßnahmen hervorhebt. Des Weiteren ergibt sich eine neue Saisonalität der UHI-Intensität für individuelle Städte in Form von Hysteresekurven, die eine Phasenverschiebung zwischen den Zeitreihen der UHI-Intensität und der Hintergrundtemperatur andeutet. Diese Saisonalität wurde anhand von Luft- und Landoberflächentemperaturen untersucht, indem die Satellitenbeobachtung und die Modellierung der urbanen Grenzschicht mittels des UrbClim-Modells kombiniert wurden. Am Beispiel von London ist die Diskrepanz der Saisonalitäten zwischen den beiden Temperaturen vor allem auf die mit der einfallenden Sonnenstrahlung verbundene Besonderheit der Landoberflächentemperatur zurückzuführen. Darüber hinaus spielt das regionale Klima eine wichtige Rolle bei der Entwicklung der UHI. Diese Arbeit ist eine der ersten Studien dieser Art, die eine systematische und statistische Untersuchung des UHI-Effektes ermöglicht. Die Ergebnisse sind von besonderer Bedeutung für die allgemeine räumliche Planung und Regulierung auf Meso- und Makroebenen, damit sich Vorteile der rapiden Urbanisierung nutzbar machen und zeitgleich die folgende Hitzebelastung proaktiv vermindern lassen. N2 - To what extent cities can be made sustainable under the mega-trends of urbanization and climate change remains a matter of unresolved scientific debate. Our inability in answering this question lies partly in the deficient knowledge regarding pivotal humanenvironment interactions. Regarded as the most well documented anthropogenic climate modification, the urban heat island (UHI) effect – the warmth of urban areas relative to the rural hinterland – has raised great public health concerns globally. Worse still, heat waves are being observed and are projected to increase in both frequency and intensity, which further impairs the well-being of urban dwellers. Albeit with a substantial increase in the number of publications on UHI in the recent decades, the diverse urban-rural definitions applied in previous studies have remarkably hampered the general comparability of results achieved. In addition, few studies have attempted to synergize the land use data and thermal remote sensing to systematically assess UHI and its contributing factors. Given these research gaps, this work presents a general framework to systematically quantify the UHI effect based on an automated algorithm, whereby cities are defined as clusters of maximum spatial continuity on the basis of land use data, with their rural hinterland being defined analogously. By combining land use data with spatially explicit surface skin temperatures from satellites, the surface UHI intensity can be calculated in a consistent and robust manner. This facilitates monitoring, benchmarking, and categorizing UHI intensities for cities across scales. In light of this innovation, the relationship between city size and UHI intensity has been investigated, as well as the contributions of urban form indicators to the UHI intensity. This work delivers manifold contributions to the understanding of the UHI, which have complemented and advanced a number of previous studies. Firstly, a log-linear relationship between surface UHI intensity and city size has been confirmed among the 5,000 European cities. The relationship can be extended to a log-logistic one, when taking a wider range of small-sized cities into account. Secondly, this work reveals a complex interplay between UHI intensity and urban form. City size is found to have the strongest influence on the UHI intensity, followed by the fractality and the anisometry. However, their relative contributions to the surface UHI intensity depict a pronounced regional heterogeneity, indicating the importance of considering spatial patterns of UHI while implementing UHI adaptation measures. Lastly, this work presents a novel seasonality of the UHI intensity for individual clusters in the form of hysteresis-like curves, implying a phase shift between the time series of UHI intensity and background temperatures. Combining satellite observation and urban boundary layer simulation, the seasonal variations of UHI are assessed from both screen and skin levels. Taking London as an example, this work ascribes the discrepancies between the seasonality observed at different levels mainly to the peculiarities of surface skin temperatures associated with the incoming solar radiation. In addition, the efforts in classifying cities according to their UHI characteristics highlight the important role of regional climates in determining the UHI. This work serves as one of the first studies conducted to systematically and statistically scrutinize the UHI. The outcomes of this work are of particular relevance for the overall spatial planning and regulation at meso- and macro levels in order to harness the benefits of rapid urbanization, while proactively minimizing its ensuing thermal stress. KW - urban heat island effect KW - surface urban heat island effect KW - UHI KW - urban form KW - der Urbane Hitzeinsel Effekt KW - der Städtische Wärmeinseleffekt KW - der Urbane Hitzeinsel Effekt basierend auf Landoberflächentemperatur KW - UHI KW - die Stadtform Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404383 ER - TY - THES A1 - Zheng, Chunming T1 - Bursting and synchronization in noisy oscillatory systems T1 - Bursting und Synchronisation in verrauschten, oszillierenden Systemen N2 - Noise is ubiquitous in nature and usually results in rich dynamics in stochastic systems such as oscillatory systems, which exist in such various fields as physics, biology and complex networks. The correlation and synchronization of two or many oscillators are widely studied topics in recent years. In this thesis, we mainly investigate two problems, i.e., the stochastic bursting phenomenon in noisy excitable systems and synchronization in a three-dimensional Kuramoto model with noise. Stochastic bursting here refers to a sequence of coherent spike train, where each spike has random number of followers due to the combined effects of both time delay and noise. Synchronization, as a universal phenomenon in nonlinear dynamical systems, is well illustrated in the Kuramoto model, a prominent model in the description of collective motion. In the first part of this thesis, an idealized point process, valid if the characteristic timescales in the problem are well separated, is used to describe statistical properties such as the power spectral density and the interspike interval distribution. We show how the main parameters of the point process, the spontaneous excitation rate, and the probability to induce a spike during the delay action can be calculated from the solutions of a stationary and a forced Fokker-Planck equation. We extend it to the delay-coupled case and derive analytically the statistics of the spikes in each neuron, the pairwise correlations between any two neurons, and the spectrum of the total output from the network. In the second part, we investigate the three-dimensional noisy Kuramoto model, which can be used to describe the synchronization in a swarming model with helical trajectory. In the case without natural frequency, the Kuramoto model can be connected with the Vicsek model, which is widely studied in collective motion and swarming of active matter. We analyze the linear stability of the incoherent state and derive the critical coupling strength above which the incoherent state loses stability. In the limit of no natural frequency, an exact self-consistent equation of the mean field is derived and extended straightforward to any high-dimensional case. N2 - Rauschen ist in der Natur allgegenwärtig und führt zu einer reichen Dynamik in stochastischen Systemen von gekoppelten Oszillatoren, die in so unterschiedlichen Bereichen wie Physik, Biologie und in komplexen Netzwerken existieren. Korrelation und Synchronisation von zwei oder vielen Oszillatoren ist in den letzten Jahren ein aktives Forschungsfeld. In dieser Arbeit untersuchen wir hauptsächlich zwei Probleme, d.h. das stochastische Burst-Phänomen in verrauschten anregbaren Systemen und die Synchronisation in einem dreidimensionalen Kuramoto-Modell mit Rauschen. Stochastisches Bursting bezieht sich hier auf eine Folge von kohärenten Spike-Zügen, bei denen jeder Spike aufgrund der kombinierten Effekte von Zeitverzögerung und Rauschen eine zufällige Anzahl von Folge Spikes aufweist. Die Synchronisation als universelles Phänomen in nichtlinearen dynamischen Systemen kann anhand des Kuramoto-Modells, einem grundlegenden Modell bei der gekoppelter Oszillatoren und kollektiver Bewegung, gut demonstriert und analysiert werden. Im ersten Teil dieser Arbeit wird ein idealisierter Punktprozess betrachtet, der gültig ist, wenn die charakteristischen Zeitskalen im Problem gut voneinander getrennt sind,um statistische Eigenschaften wie die spektrale Leistungsdichte und die Intervallverteilung zwischen Neuronen Impulsen zu beschreiben. Wir zeigen, wie die Hauptparameter des Punktprozesses, die spontane Anregungsrate und die Wahrscheinlichkeit, während der Verzögerungsaktion einen Impuls zu induzieren, aus den Lösungen einer stationären und einer getriebenen Fokker-Planck-Gleichung berechnet werden können. Wir erweitern dieses Ergebnis auf den verzögerungsgekoppelten Fall und leiten analytisch die Statistiken der Impulse in jedem Neuron, die paarweisen Korrelationen zwischen zwei beliebigen Neuronen und das Spektrum der Zeitreihe alle Impulse aus dem Netzwerk ab. Im zweiten Teil untersuchen wir das dreidimensionale verrauschte Kuramoto-Modell, mit dem die Synchronisation eines Schwarmmodells mit schraubenförmigen Flugbahnen beschrieben werden kann. Im Fall ohne Eigenfrequenz jedes Teilchensist das System äquivalent zum Vicsek Modell, welches in der Beschreibung der kollektiven Bewegung von Schwärmen und aktiver Materie eine breite Anwendung findet. Wir analysieren die lineare Stabilität des inkohärenten Zustands und leiten die kritische Kopplungsstärke ab, oberhalb derer der inkohärente Zustand an Stabilität verliert. Im Fall ohne Eigenfrequenz wird eine exakte selbstkonsistente Gleichung für das mittlere Feld abgeleitet und direkt für höherdimensionale Bewegungen verallgemeinert. KW - Synchronization KW - Kuramoto model KW - Oscillation KW - stochastic bursting KW - Synchronisation KW - Kuramoto-Modell KW - Oszillatoren KW - Stochastisches Bursting Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-500199 ER - TY - THES A1 - Zhelavskaya, Irina T1 - Modeling of the Plasmasphere Dynamics T1 - Modellierung der Plasmasphärendynamik N2 - The plasmasphere is a dynamic region of cold, dense plasma surrounding the Earth. Its shape and size are highly susceptible to variations in solar and geomagnetic conditions. Having an accurate model of plasma density in the plasmasphere is important for GNSS navigation and for predicting hazardous effects of radiation in space on spacecraft. The distribution of cold plasma and its dynamic dependence on solar wind and geomagnetic conditions remain, however, poorly quantified. Existing empirical models of plasma density tend to be oversimplified as they are based on statistical averages over static parameters. Understanding the global dynamics of the plasmasphere using observations from space remains a challenge, as existing density measurements are sparse and limited to locations where satellites can provide in-situ observations. In this dissertation, we demonstrate how such sparse electron density measurements can be used to reconstruct the global electron density distribution in the plasmasphere and capture its dynamic dependence on solar wind and geomagnetic conditions. First, we develop an automated algorithm to determine the electron density from in-situ measurements of the electric field on the Van Allen Probes spacecraft. In particular, we design a neural network to infer the upper hybrid resonance frequency from the dynamic spectrograms obtained with the Electric and Magnetic Field Instrument Suite and Integrated Science (EMFISIS) instrumentation suite, which is then used to calculate the electron number density. The developed Neural-network-based Upper hybrid Resonance Determination (NURD) algorithm is applied to more than four years of EMFISIS measurements to produce the publicly available electron density data set. We utilize the obtained electron density data set to develop a new global model of plasma density by employing a neural network-based modeling approach. In addition to the location, the model takes the time history of geomagnetic indices and location as inputs, and produces electron density in the equatorial plane as an output. It is extensively validated using in-situ density measurements from the Van Allen Probes mission, and also by comparing the predicted global evolution of the plasmasphere with the global IMAGE EUV images of He+ distribution. The model successfully reproduces erosion of the plasmasphere on the night side as well as plume formation and evolution, and agrees well with data. The performance of neural networks strongly depends on the availability of training data, which is limited during intervals of high geomagnetic activity. In order to provide reliable density predictions during such intervals, we can employ physics-based modeling. We develop a new approach for optimally combining the neural network- and physics-based models of the plasmasphere by means of data assimilation. The developed approach utilizes advantages of both neural network- and physics-based modeling and produces reliable global plasma density reconstructions for quiet, disturbed, and extreme geomagnetic conditions. Finally, we extend the developed machine learning-based tools and apply them to another important problem in the field of space weather, the prediction of the geomagnetic index Kp. The Kp index is one of the most widely used indicators for space weather alerts and serves as input to various models, such as for the thermosphere, the radiation belts and the plasmasphere. It is therefore crucial to predict the Kp index accurately. Previous work in this area has mostly employed artificial neural networks to nowcast and make short-term predictions of Kp, basing their inferences on the recent history of Kp and solar wind measurements at L1. We analyze how the performance of neural networks compares to other machine learning algorithms for nowcasting and forecasting Kp for up to 12 hours ahead. Additionally, we investigate several machine learning and information theory methods for selecting the optimal inputs to a predictive model of Kp. The developed tools for feature selection can also be applied to other problems in space physics in order to reduce the input dimensionality and identify the most important drivers. Research outlined in this dissertation clearly demonstrates that machine learning tools can be used to develop empirical models from sparse data and also can be used to understand the underlying physical processes. Combining machine learning, physics-based modeling and data assimilation allows us to develop novel methods benefiting from these different approaches. N2 - Die Plasmasphäre ist eine die Erde umgebende dynamische Region aus kaltem, dichtem Plasma. Ihre Form und Größe sind sehr anfällig für Schwankungen der solaren und geomagnetischen Bedingungen. Ein präzises Modell der Plasmadichte in der Plasmasphäre ist wichtig für die GNSS-Navigation und für die Vorhersage gefährlicher Auswirkungen der kosmischen Strahlung auf Raumfahrzeuge. Die Verteilung des kalten Plasmas und seine dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen sind jedoch nach wie vor nur unzureichend quantifiziert. Bestehende empirische Modelle der Plasmadichte sind in der Regel zu stark vereinfacht, da sie auf statistischen Durchschnittswerten statischer Parameter basieren. Das Verständnis der globalen Dynamik der Plasmasphäre anhand von Beobachtungen aus dem Weltraum bleibt eine Herausforderung, da vorhandene Dichtemessungen spärlich sind und sich auf Orte beschränken, an denen Satelliten In-situ-Beobachtungen liefern können. In dieser Dissertation zeigen wir, wie solche spärlichen Elektronendichtemessungen verwendet werden können, um die globale Elektronendichteverteilung in der Plasmasphäre zu rekonstruieren und ihre dynamische Abhängigkeit vom Sonnenwind und den geomagnetischen Bedingungen zu erfassen. Zunächst entwickeln wir einen automatisierten Algorithmus zur Bestimmung der Elektronendichte aus In-situ-Messungen des elektrischen Feldes der Van Allen Probes Raumsonden. Insbesondere entwerfen wir ein neuronales Netzwerk, um die obere Hybridresonanzfrequenz aus den dynamischen Spektrogrammen abzuleiten, die wir durch die Instrumentensuite „Electric and Magnetic Field Instrument Suite“ (EMFISIS) erhielten, welche dann zur Berechnung der Elektronenzahldichte verwendet wird. Der entwickelte „Neural-network-based Upper Hybrid Resonance Determination“ (NURD)-Algorithmus wird auf mehr als vier Jahre der EMFISIS-Messungen angewendet, um den öffentlich verfügbaren Elektronendichte-Datensatz zu erstellen. Wir verwenden den erhaltenen Elektronendichte-Datensatz, um ein neues globales Modell der Plasmadichte zu entwickeln, indem wir einen auf einem neuronalen Netzwerk basierenden Modellierungsansatz verwenden. Zusätzlich zum Ort nimmt das Modell den zeitlichen Verlauf der geomagnetischen Indizes und des Ortes als Eingabe und erzeugt als Ausgabe die Elektronendichte in der äquatorialebene. Dies wird ausführlich anhand von In-situ-Dichtemessungen der Van Allen Probes-Mission und durch den Vergleich der vom Modell vorhergesagten globalen Entwicklung der Plasmasphäre mit den globalen IMAGE EUV-Bildern der He+ -Verteilung validiert. Das Modell reproduziert erfolgreich die Erosion der Plasmasphäre auf der Nachtseite sowie die Bildung und Entwicklung von Fahnen und stimmt gut mit den Daten überein. Die Leistung neuronaler Netze hängt stark von der Verfügbarkeit von Trainingsdaten ab, die für Intervalle hoher geomagnetischer Aktivität nur spärlich vorhanden sind. Um zuverlässige Dichtevorhersagen während solcher Intervalle zu liefern, können wir eine physikalische Modellierung verwenden. Wir entwickeln einen neuen Ansatz zur optimalen Kombination der neuronalen Netzwerk- und physikbasierenden Modelle der Plasmasphäre mittels Datenassimilation. Der entwickelte Ansatz nutzt sowohl die Vorteile neuronaler Netze als auch die physikalischen Modellierung und liefert zuverlässige Rekonstruktionen der globalen Plasmadichte für ruhige, gestörte und extreme geomagnetische Bedingungen. Schließlich erweitern wir die entwickelten auf maschinellem Lernen basierten Werkzeuge und wenden sie auf ein weiteres wichtiges Problem im Bereich des Weltraumwetters an, die Vorhersage des geomagnetischen Index Kp. Der Kp-Index ist einer der am häufigsten verwendeten Indikatoren für Weltraumwetterwarnungen und dient als Eingabe für verschiedene Modelle, z.B. für die Thermosphäre, die Strahlungsgürtel und die Plasmasphäre. Es ist daher wichtig, den Kp-Index genau vorherzusagen. Frühere Arbeiten in diesem Bereich verwendeten hauptsächlich künstliche neuronale Netze, um Kurzzeit-Kp-Vorhersagen zu treffen, wobei deren Schlussfolgerungen auf der jüngsten Vergangenheit von Kp- und Sonnenwindmessungen am L1-Punkt beruhten. Wir analysieren, wie sich die Leistung neuronaler Netze im Vergleich zu anderen Algorithmen für maschinelles Lernen verhält, um kurz- und längerfristige Kp-Voraussagen von bis zu 12 Stunden treffen zu können. Zusätzlich untersuchen wir verschiedene Methoden des maschinellen Lernens und der Informationstheorie zur Auswahl der optimalen Eingaben für ein Vorhersagemodell von Kp. Die entwickelten Werkzeuge zur Merkmalsauswahl können auch auf andere Probleme in der Weltraumphysik angewendet werden, um die Eingabedimensionalität zu reduzieren und die wichtigsten Treiber zu identifizieren. Die in dieser Dissertation skizzierten Untersuchungen zeigen deutlich, dass Werkzeuge für maschinelles Lernen sowohl zur Entwicklung empirischer Modelle aus spärlichen Daten als auch zum Verstehen zugrunde liegender physikalischer Prozesse genutzt werden können. Die Kombination von maschinellem Lernen, physikbasierter Modellierung und Datenassimilation ermöglicht es uns, kombinierte Methoden zu entwickeln, die von unterschiedlichen Ansätzen profitieren. KW - Plasmasphere KW - Inner magnetosphere KW - Neural networks KW - Machine learning KW - Modeling KW - Kp index KW - Geomagnetic activity KW - Data assimilation KW - Validation KW - IMAGE EUV KW - Kalman filter KW - Plasmasphäre KW - Innere Magnetosphäre KW - Neuronale Netze KW - Maschinelles Lernen KW - Modellieren KW - Forecasting KW - Kp-Index KW - Geomagnetische Aktivität KW - Datenassimilation KW - Validierung KW - Kalman Filter KW - Prognose Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-482433 ER - TY - THES A1 - Zhang, Xiaolin T1 - Evaluation of nitrogen dynamics in high-order streams and rivers based on high-frequency monitoring T1 - Bewertung der Stickstoffdynamik in Fliessgewässern 4.-6. Ordnung auf der Grundlage zeitlich hochaufgelöster Sensormessungen N2 - Nutrient storage, transform and transport are important processes for achieving environmental and ecological health, as well as conducting water management plans. Nitrogen is one of the most noticeable elements due to its impacts on tremendous consequences of eutrophication in aquatic systems. Among all nitrogen components, researches on nitrate are blooming because of widespread deployments of in-situ high-frequency sensors. Monitoring and studying nitrate can become a paradigm for any other reactive substances that may damage environmental conditions and cause economic losses. Identifying nitrate storage and its transport within a catchment are inspiring to the management of agricultural activities and municipal planning. Storm events are periods when hydrological dynamics activate the exchange between nitrate storage and flow pathways. In this dissertation, long-term high-frequency monitoring data at three gauging stations in the Selke river were used to quantify event-scale nitrate concentration-discharge (C-Q) hysteretic relationships. The Selke catchment is characterized into three nested subcatchments by heterogeneous physiographic conditions and land use. With quantified hysteresis indices, impacts of seasonality and landscape gradients on C-Q relationships are explored. For example, arable area has deep nitrate legacy and can be activated with high intensity precipitation during wetting/wet periods (i.e., the strong hydrological connectivity). Hence, specific shapes of C-Q relationships in river networks can identify targeted locations and periods for agricultural management actions within the catchment to decrease nitrate output into downstream aquatic systems like the ocean. The capacity of streams for removing nitrate is of both scientific and social interest, which makes the quantification motivated. Although measurements of nitrate dynamics are advanced compared to other substances, the methodology to directly quantify nitrate uptake pathways is still limited spatiotemporally. The major problem is the complex convolution of hydrological and biogeochemical processes, which limits in-situ measurements (e.g., isotope addition) usually to small streams with steady flow conditions. This makes the extrapolation of nitrate dynamics to large streams highly uncertain. Hence, understanding of in-stream nitrate dynamic in large rivers is still necessary. High-frequency monitoring of nitrate mass balance between upstream and downstream measurement sites can quantitatively disentangle multi-path nitrate uptake dynamics at the reach scale (3-8 km). In this dissertation, we conducted this approach in large stream reaches with varying hydro-morphological and environmental conditions for several periods, confirming its success in disentangling nitrate uptake pathways and their temporal dynamics. Net nitrate uptake, autotrophic assimilation and heterotrophic uptake were disentangled, as well as their various diel and seasonal patterns. Natural streams generally can remove more nitrate under similar environmental conditions and heterotrophic uptake becomes dominant during post-wet seasons. Such two-station monitoring provided novel insights into reach-scale nitrate uptake processes in large streams. Long-term in-stream nitrate dynamics can also be evaluated with the application of water quality model. This is among the first time to use a data-model fusion approach to upscale the two-station methodology in large-streams with complex flow dynamics under long-term high-frequency monitoring, assessing the in-stream nitrate retention and its responses to drought disturbances from seasonal to sub-daily scale. Nitrate retention (both net uptake and net release) exhibited substantial seasonality, which also differed in the investigated normal and drought years. In the normal years, winter and early spring seasons exhibited extensive net releases, then general net uptake occurred after the annual high-flow season at later spring and early summer with autotrophic processes dominating and during later summer-autumn low-flow periods with heterotrophy-characteristics predominating. Net nitrate release occurred since late autumn until the next early spring. In the drought years, the late-autumn net releases were not so consistently persisted as in the normal years and the predominance of autotrophic processes occurred across seasons. Aforementioned comprehensive results of nitrate dynamics on stream scale facilitate the understanding of instream processes, as well as raise the importance of scientific monitoring schemes for hydrology and water quality parameters. N2 - Die Speicherung, Umwandlung und der Transport von Nährstoffen sind wichtige Prozesse, welche den ökologische Status der Fließgewässer bestimmen. Aufgrund seiner Auswirkungen auf die Eutrophierung von aquatischen Systemen ist hierbei Stickstoff eines der wichtigsten Elemente. Durch neue Entwicklungen in der Sensortechnik zeigt die Forschung zum Nitrat derzeit eine besonders große Dynamik. In dieser Dissertation werden die hysteretischen Beziehungen zwischen Nitratkonzentration und Abfluss (C-Q) an drei Pegeln der Selke im Bodegebiet analysiert, um die Dynamik von Nitratspeicherung und -transport während Hochwasserereignissen in einem genesteten Einzugsgebiet zu untersuchen. Verschiedene Kombinationen der C-Q-Hysterese-Indizes deuten auf unterschiedliche Muster des Nitrat-Transports und seiner Einflussfaktoren hin. Die Hysterese im Uhrzeigersinn tritt eher während der Trockenzeit auf, was auf eine geringe hydrologische Konnektivität vom Land zum Fließgewässer auf den Export distaler Nitratquellen hinweist. Im untersten Einzugsgebiet der Selke dominieren Verdünnungseffekte, die möglicherweise durch Abflüsse aus flussaufwärts gelegenen Teileinzugsgebieten während der Niederschlagsereignisse oder durch schnelle Abflüsse von befestigten Flächen beeinflusst wurden. Unterschiede in der Reaktion des Nitratexports auf Abflussereignisse können während sommerlicher Trockenperioden verstärkt werden, wenn sich die hydrologische Konnektivität und die biogeochemischen Prozesse stark verändern. Daher können spezifische Formen von C-Q-Beziehungen in Fließgewässern zur Verortung und Bestimmung von Zeiträume für landwirtschaftliche Bewirtschaftungsmaßnahmen innerhalb des Wassereinzugsgebiets genutzt werden, um den Nitrateintrag in die Fließ- und Standgewässer zu verringern. Die Fähigkeit von Fließgewässern, Nitrat zu entfernen, ist sowohl von wissenschaftlichem als auch von gesellschaftlichem Interesse. Obwohl die Untersuchungen der Nitratdynamik im Vergleich zu anderen Wasserinhaltsstoffen fortgeschritten sind, ist die Methodik zur direkten Quantifizierung der Nitrataufnahme- und -retention räumlich und zeitlich nicht vollständig verstanden. Das Hauptproblem ist die komplexe Verflechtung von hydrologischen und biogeochemischen Prozessen. In-situ-Messungen (z. B. Isotopenanreicherung) sind aufgrund methodischer Beschränkungen in der Regel auf kleine Fließgewässer mit konstanten Strömungsverhältnissen beschränkt. Dadurch ist die Extrapolation der Nitratdynamik auf große Bäche und kleine Flüsse mit großen Unsicherheiten behaftet. Daher bestehen große Defizite beim Verständnis der Nitratdynamik in größeren Fließgewässer. Die hochfrequente Messung der Nitrat-Massenbilanz zwischen flussaufwärts und flussabwärts gelegenen Messstellen kann die Dynamik der Nitrataufnahme über unterschiedliche Aufnahme- und Retentionspfade anhand der gezielten Untersuchung von Gewässerabschnitten (3-8 km) quantitativ erfassen. In dieser Dissertation wurde dieser Ansatz in Fließgewässern mittlerer Größe mit unterschiedlichen hydro-morphologischen und saisonalen Bedingungen eingesetzt. Die Ergebnisse erlaubten eine Aufschlüsselung der unterschiedlichen Nitrataufnahmewege und ihrer zeitlichen Dynamik. Die Netto-Nitrataufnahme, die autotrophe Assimilation und die heterotrophe Aufnahme sowie ihre unterschiedlichen tages- und jahreszeitlichen Muster konnten analysiert werden. Natürliche Fließgewässer können im Allgemeinen unter ähnlichen Umweltbedingungen mehr Nitrat entfernen als anthropogen überprägte Fließgewässer. Es konnte gezeigt werden, dass die heterotrophe Aufnahme während der trockenen Jahreszeit dominiert. Auf der Basis von gezielten Untersuchungen von Gewässerabschnitten lieferte die Zwei-Stationen-Methode neue Einblicke in die Prozesse der Nitrataufnahme in größeren Fließgewässern. Die langfristige Nitratdynamik in Fließgewässern kann auch durch die zusätzliche Anwendung von Wasserqualitätsmodellen analysiert werden. Dies ist eines der ersten Forschungsvorhaben, bei dem die Zwei-Stationen-Methode in größeren Fließgewässern mit komplexer Strömungsdynamik im Rahmen einer zeitliche hochaufgelösten Langzeitüberwachung eingesetzt wird, um den Nitratrückhalt im Fließgewässer und den Einfluss von Niedrigwasserbedingungen hinsichtlich saisonaler und diurnaler Zeitskalen zu untersuchen. Der Nitratrückhalt (sowohl die Nettoaufnahme als auch die Nettoabgabe) wies erhebliche saisonale Schwankungen auf, die sich auch in den untersuchten normalen Jahren und Jahren mit ausgeprägten Niedrigwasserbedingungen unterschieden. In den normalen Jahren kam es im Winter und zu Beginn des Frühjahrs zu einer umfangreichen Freisetzung von Stickstoff, während die Nettoaufnahme nach der jährlichen abflussreichen Winterperiode im späteren Frühjahr und im Frühsommer am höchsten war, wobei autotrophe Prozesse dominierten. Während der Niedrigwasserperioden im Spätsommer und Herbst dominierte bei der Netto-Stickstoffretention die heterotrophe Aufnahme. Die Netto-Nitratfreisetzung erfolgte vom Spätherbst bis zum folgenden Frühjahr. In den Dürrejahren war die Netto-Nitratfreisetzung im Spätherbst weniger konstant wie in den Normaljahren, und die autotrophen Prozesse dominierten über die Jahreszeiten hinweg. Diese umfassenden Ergebnisse der Nitratdynamik in größeren Fließgewässern verbessern das Verständnis von gewässerinternen Umsetzungsprozessen und zeigen die Möglichkeiten auf, die der gezielte Einsatz von zeitlich hochaufgelöster Sensormessungen in der Gewässerüberwachung bieten kann. KW - high-frequency monitoring KW - in-stream nitrogen dynamics KW - high-order streams and rivers KW - Bäche und Flüsse hoher Ordnung KW - Stickstoffdynamik in Fliessgewässern KW - zeitlich hochaufgelöste Sensormessungen Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-607642 ER - TY - THES A1 - Zhang, Jianrui T1 - Completely water-based emulsions as compartmentalized systems via pickering stabilization N2 - Completely water-based systems are of interest for the development of novel material for various reasons: On one hand, they provide benign environment for biological systems and on the other hand they facilitate effective molecular transport in a membrane-free environment. In order to investigate the general potential of aqueous two-phase systems (ATPSs) for biomaterials and compartmentalized systems, various solid particles were applied to stabilize all-aqueous emulsion droplets. The target ATPS to be investigated should be prepared via mixing of two aqueous solutions of water-soluble polymers, which turn biphasic when exceeding a critical polymer concentration. Hydrophilic polymers with a wide range of molar mass such as dextran/poly(ethylene glycol) (PEG) can therefore be applied. Solid particles adsorbed at the interfaces can be exceptionally efficient stabilizers forming so-called Pickering emulsions, and nanoparticles can bridge the correlation length of polymer solutions and are thereby the best option for water-in-water emulsions. The first approach towards the investigation of ATPS was conducted with all aqueous dextran-PEG emulsions in the presence of poly(dopamine) particles (PDP) in Chapter 4. The water-in-water emulsions were formed with a PEG/dextran system via utilizing PDP as stabilizers. Studies of the formed emulsions were performed via laser scanning confocal microscope (CLSM), optical microscope (OM), cryo-scanning electron microscope (SEM) and tensiometry. The stable emulsions (at least 16 weeks) were demulsified easily via dilution or surfactant addition. Furthermore, the solid PDP at the water-water interface were crosslinked in order to inhibit demulsification of the Pickering emulsion. Transmission electron microscope (TEM) and scanning electron microscope (SEM) were used to visualize the morphology of PDP before and after crosslinking. PDP stabilized water-in-water emulsions were utilized in the following Chapter 5 to form supramolecular compartmentalized hydrogels. Here, hydrogels were prepared in pre-formed water-in-water emulsions and gelled via α-cyclodextrin-PEG (α-CD-PEG) inclusion complex formation. Studies of the formed complexes were performed via X-ray powder diffraction (XRD) and the mechanical properties of the hydrogels were measured with oscillatory shear rheology. In order to verify the compartmentalized state and its triggered decomposition, hydrogels and emulsions were assessed via OM, SEM and CLSM. The last chapter broadens the investigations from the previous two systems by utilizing various carbon nitrides (CN) as different stabilizers in ATPS. CN introduces another way to trigger demulsification, namely irradiation with visible light. Therefore, emulsification and demulsification with various triggers were probed. The investigated all aqueous multi-phase systems will act as model for future fabrication of biocompatible materials, cell micropatterning as well as separation of compartmentalized systems. N2 - Komplett wässrige Systeme sind aus vielerlei Hinsicht interessant für die Entwicklung neuer Materialien: Zum Einen eignet sich die wässrige Umgebung für Anwendung in biologischen System und zum Anderen ermöglicht eine Membran-freie Umgebung erleichterten Stofftransport. In dieser Arbeit wurden verschiedene Partikeltypen zur Stabilisierung von Wasser-in-Wasser Emulsionströpfchen eingesetzt, um das Potenzial von ATPSs (Aqueous two-phase systems (DE: Wässrige Zweiphasensysteme)) für Biomaterialien und kompartmentalisierte Systeme zu untersuchen. Das zu untersuchende ATPS sollte durch Mischen von zwei wässrigen Lösungen wasserlöslicher Polymere hergestellt werden und bei Überschreiten einer kritischen Polymerkonzentration zweiphasig werden. Als hydrophile Polymer wurden Dextran und Poly(ethylenglycol) (PEG) für die Bildung des ATPS angewendet. Die Grenzfläche zwischen den beiden Phasen in ATPSs ist undefiniert und erstreckt sich über einen Bereich, deshalb müssen Partikel für die Stabilisierung des ATPS eingesetzt werden. Die an den Grenzflächen adsorbierten Partikel können effizient als Stabilisatoren fungieren und die sogenannten Pickering-Emulsionen bilden. Der erste Ansatz der Untersuchung von Wasser-in-Wasser Emulsionen wurde mit dem Dextran-PEG-System in Gegenwart von Poly(dopamin)-Partikeln (PDP) als Stabilisatoren durchgeführt. Die bis zu 16 Wochen stabilen Emulsionen konnten mittels Verdünnung oder Tensidzugabe gebrochen werden. Weiterhin wurde die stabilisierenden PDP vernetzt, um eine Deemulgierung der Pickering-Emulsion zu verhindern. Des Weiteren wurden PDP stabiliserte Emulsionen verwednet, um supramolekulare kompartmentalisierte Hydrogele herzustellen. Hier wurden Hydrogele in vorgeformten Wasser-in-Wasser-Emulsionen hergestellt und über die Bildung des α-Cyclodextrin-PEG Komplexes geliert. Die gebildeten Komplexe wurden mittels XRD erforscht und die mechanischen Eigenschaften der Hydrogele mit Rheologie gemessen. Zuletzt wurde die Forschung der zwei vorherigen erwähnten Systemen erweitert, indem verschiedene Kohlenstoffnitride (CN) als Stabilisatoren in ATPS verwendet wurden. Der Einsatz von CN ermöglichte dabei einen weiteren Stimulus zur Deemulgierung, nämlich sichtbares Licht. So wurden Emulgierung und Deemulgierung mit verschiedenen äußeren Reizen untersucht. Die verschiedenen Wasser-in-Wasser Emulsionen werden ein Modell für die zukünftige Herstellung biokompatibler Materialien, die örtlche Zellstrukturierung sowie die Trennung von Kompartimentsystemen liefern. T2 - Vollständig wasserbasierte Pickeringemulsionen als Kompartimentsysteme KW - emulsion KW - water-in-water KW - ATPS KW - Emulsionen KW - Wasser-in-Wasser Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-476542 ER - TY - THES A1 - Zhang, Bo T1 - Magnetic fields near microstructured surfaces : application to atom chips T1 - Magnetische Felder in der Nähe von microstrukturierten Oberflächen : Anwendung auf Atomchips N2 - Microfabricated solid-state surfaces, also called atom chip', have become a well-established technique to trap and manipulate atoms. This has simplified applications in atom interferometry, quantum information processing, and studies of many-body systems. Magnetic trapping potentials with arbitrary geommetries are generated with atom chip by miniaturized current-carrying conductors integrated on a solid substrate. Atoms can be trapped and cooled to microKelvin and even nanoKelvin temperatures in such microchip trap. However, cold atoms can be significantly perturbed by the chip surface, typically held at room temperature. The magnetic field fluctuations generated by thermal currents in the chip elements may induce spin flips of atoms and result in loss, heating and decoherence. In this thesis, we extend previous work on spin flip rates induced by magnetic noise and consider the more complex geometries that are typically encountered in atom chips: layered structures and metallic wires of finite cross-section. We also discuss a few aspects of atom chips traps built with superconducting structures that have been suggested as a means to suppress magnetic field fluctuations. The thesis describes calculations of spin flip rates based on magnetic Green functions that are computed analytically and numerically. For a chip with a top metallic layer, the magnetic noise depends essentially on the thickness of that layer, as long as the layers below have a much smaller conductivity. Based on this result, scaling laws for loss rates above a thin metallic layer are derived. A good agreement with experiments is obtained in the regime where the atom-surface distance is comparable to the skin depth of metal. Since in the experiments, metallic layers are always etched to separate wires carrying different currents, the impact of the finite lateral wire size on the magnetic noise has been taken into account. The local spectrum of the magnetic field near a metallic microstructure has been investigated numerically with the help of boundary integral equations. The magnetic noise significantly depends on polarizations above flat wires with finite lateral width, in stark contrast to an infinitely wide wire. Correlations between multiple wires are also taken into account. In the last part, superconducting atom chips are considered. Magnetic traps generated by superconducting wires in the Meissner state and the mixed state are studied analytically by a conformal mapping method and also numerically. The properties of the traps created by superconducting wires are investigated and compared to normal conducting wires: they behave qualitatively quite similar and open a route to further trap miniaturization, due to the advantage of low magnetic noise. We discuss critical currents and fields for several geometries. N2 - Mikrotechnologische Oberflächen, sogenannte Atomchips, sind eine etablierte Methode zum Speichern und Manipulieren von Atomen geworden. Das hat Anwendungen in der Atom-Interferometrie, Quanteninformationsverarbeitung und Vielteilchensystemen vereinfacht. Magnetische Fallenpotentiale mit beliebigen Geometrien werden durch Atomchips mit miniaturisierten stromführenden Leiterbahnen auf einer Festkörperunterlage realisiert. Atome können bei Temperaturen im $\mu$ K oder sogar nK-Bereich in einer solchen Falle gespeichert und gekühlt werden. Allerdings können kalte Atome signifikant durch die Chip-Oberfläche gestört werden, die sich typischerweise auf Raumtemperatur befindet. Die durch thermische Ströme im Chip erzeugten magnetischen Feldfluktuationen können Spin-Flips der Atome induzieren und Verlust, Erwärmung und Dekohärenz zur Folge haben. In dieser Dissertation erweitern wir frühere Arbeiten über durch magnetisches Rauschen induzierte Spin-Flip-Ratenund betrachten kompliziertere Geometrien, wie sie typischerweise auf einem Atom-Chip anzutreffen sind: Geschichtete Strukturen und metallische Leitungen mit endlichem Querschnitt. Wir diskutieren auch einige Aspekte von Aomchips aus Supraleitenden Strukturen die als Mittel zur Unterdrückung magnetischer Feldfluktuationen vorgeschlagen wurden. Die Arbeit beschreibt analytische und numerische Rechnungen von Spin-Flip Raten auf Grundlage magnetischer Greensfunktionen. Für einen Chip mit einem metallischen Top-Layer hängt das magnetische Rauschen hauptsächlich von der Dicke des Layers ab, solange die unteren Layer eine deutlich kleinere Leitfähigkeit haben. Auf Grundlage dieses Ergebnisses werden Skalengesetze für Verlustraten über einem dünnen metallischen Leiter hergeleitet. Eine gute Übereinstimmung mit Experimenten wird in dem Bereich erreicht, wo der Abstand zwischen Atom und Oberfläche in der Größenordnung der Eindringtiefe des Metalls ist. Da in Experimenten metallische Layer immer geätzt werden, um verschiedene stromleitende Bahnen vonenander zu trennen, wurde der Einfluß eines endlichen Querschnittsauf das magnetische Rauschen berücksichtigt. Das lokale Spektrum des magnetischen Feldes in der Nähe einer metallischen Mikrostruktur wurde mit Hilfe von Randintegralen numerisch untersucht. Das magnetische Rauschen hängt signifikant von der Polarisierung über flachen Leiterbahnen mit endlichem Querschnitt ab, im Unterschied zu einem unendlich breiten Leiter. Es wurden auch Korrelationen zwischen mehreren Leitern berücksichtigt. Im letzten Teil werden supraleitende Atomchips betrachtet. Magnetische Fallen, die von supraleitenden Bahnen im Meissner Zustand und im gemischten Zustand sind werden analytisch durch die Methode der konformen Abbildung und numerisch untersucht. Die Eigenschaften der durch supraleitende Bahnen erzeugten Fallen werden erforscht und mit normal leitenden verglichen: Sie verhalten sich qualitativ sehr ähnlich und öffnen einen Weg zur weiteren Miniaturisierung von Fallen, wegen dem Vorteil von geringem magnetischem Rauschen. Wir diskutieren kritische Ströme und Felder für einige Geometrien. KW - Magnetische Felder KW - Atom chip KW - Supraleiter KW - magnetisches Rauschen KW - microstrukturierte Oberfläche KW - magnetic fields KW - atom chip KW - superconductors KW - magnetic noise KW - microstructured surface Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-28984 ER - TY - THES A1 - Zhang, Baichen T1 - Dissection of phloem transport in cucurbitaceae by metabolomic analysis T1 - Analyse des Phloemtransports bei Cucurbitaceae mittels Metabolomics N2 - This thesis aimed to investigate several fundamental and perplexing questions relating to the phloem loading and transport mechanisms of Cucurbita maxima, by combining metabolomic analysis with cell biological techniques. This putative symplastic loading species has long been used for experiments on phloem anatomy, phloem biochemistry, phloem transport physiology and phloem signalling. Symplastic loading species have been proposed to use a polymer trapping mechanism to accumulate RFO (raffinose family oligosaccharides) sugars to build up high osmotic pressure in minor veins which sustains a concentration gradient that drives mass flow. However, extensive evidence indicating a low sugar concentration in their phloem exudates is a long-known problem that conflicts with this hypothesis. Previous metabolomic analysis shows the concentration of many small molecules in phloem exudates is higher than that of leaf tissues, which indicates an active apoplastic loading step. Therefore, in the view of the phloem metabolome, a symplastic loading mechanism cannot explain how small molecules other than RFO sugars are loaded into phloem. Most studies of phloem physiology using cucurbits have neglected the possible functions of vascular architecture in phloem transport. It is well known that there are two phloem systems in cucurbits with distinctly different anatomical features: central phloem and extrafascicular phloem. However, mistaken conclusions on sources of cucurbit phloem exudation from previous reports have hindered consideration of the idea that there may be important differences between these two phloem systems. The major results are summarized as below: 1) O-linked glycans in C.maxima were structurally identified as beta-1,3 linked glucose polymers, and the composition of glycans in cucurbits was found to be species-specific. Inter-species grafting experiments proved that these glycans are phloem mobile and transported uni-directionally from scion to stock. 2) As indicated by stable isotopic labelling experiments, a considerable amount of carbon is incorporated into small metabolites in phloem exudates. However, the incorporation of carbon into RFO sugars is much faster than for other metabolites. 3) Both CO2 labelling experiments and comparative metabolomic analysis of phloem exudates and leaf tissues indicated that metabolic processes other than RFO sugar metabolism play an important role in cucurbit phloem physiology. 4) The underlying assumption that the central phloem of cucurbits continuously releases exudates after physical incision was proved wrong by rigorous experiments including direct observation by normal microscopy and combined multiple-microscopic methods. Errors in previous experimental confirmation of phloem exudation in cucurbits are critically discussed. 5) Extrafascicular phloem was proved to be functional, as indicated by phloem-mobile carboxyfluorescein tracer studies. Commissural sieve tubes interconnect phloem bundles into a complete super-symplastic network. 6) Extrafascicular phloem represents the main source of exudates following physical incision. The major transported metabolites by these extrafacicular phloem are non-sugar compounds including amino acids, O-glycans, amines. 7) Central phloem contains almost exclusively RFO sugars, the estimated amount of which is up to 1 to 2 molar. The major RFO sugar present in central phloem is stachyose. 8) Cucurbits utilize two structurally different phloem systems for transporting different group of metabolites (RFO sugars and non-RFO sugar compounds). This implies that cucurbits may use spatially separated loading mechanisms (apoplastic loading for extrafascicular phloem and symplastic loading for central phloem) for supply of nutrients to sinks. 9) Along the transport systems, RFO sugars were mainly distributed within central phloem tissues. There were only small amounts of RFO sugars present in xylem tissues (millimolar range) and trace amounts of RFO sugars in cortex and pith. The composition of small molecules in external central phloem is very different from that in internal central phloem. 10) Aggregated P-proteins were manually dissected from central phloem and analysed by both SDS-PAGE and mass spectrometry. Partial sequences of peptides were obtained by QTOF de novo sequencing from trypsin digests of three SDS-PAGE bands. None of these partial sequences shows significant homology to known cucurbit phloem proteins or other plant proteins. This proves that these central phloem proteins are a completely new group of proteins different from those in extrafascicular phloem. The extensively analysed P-proteins reported in literature to date are therefore now shown to arise from extrafascicular phloem and not central phloem, and therefore do not appear to be involved in the occlusion processes in central phloem. N2 - Phloem transportiert ein ausgedehntes Spektrum an Molekülen zwischen Pflanzenorganen, um Wachstum und Entwicklung zu koordinieren. Folglich ist eine umfassende und unvoreingenommene Metabolom-Analyse notwendig, um unser Verständnis über den Transport von Stoffwechselprodukten sowie über Phloemtransport zu vertiefen. Phloemexsudate von Kürbispflanzen werden unter Verwendung der Metabolom-Analyse analysiert. Bei diesen Pflanzen wird angenommen, dass sie symplastische Beladungswege verwenden, um Photoassmilate als Ausgangsschritt des Phloemtransportes zu konzentrieren. Zwei neue Familien Callose-verwandter Substanzen, 1,3-Overknüpfte Glycane, sowie eine Reihe anderer kleinerer Metabolite werden in den Phloemexsudaten detektiert. Metabolom-Daten und physiologische Experimente widersprechen früher berichtetem Verständnis des Phloemexsudationsprozesses in Kürbispflanzen. Folglich bestätigt sich der Phloemexsudationsprozeß durch Kombination unterschiedlicher mikroskopischer Techniken. Kürbispflanzen besitzen zwei Phloemsysteme mit eindeutigen anatomischen Eigenschaften. Es zeigt sich, daß Phloemexsudate in Kürbissen hauptsächlich vom extrafaszikulären Phloem, nicht vom zentralen Phloem, stammen. In den letzten Jahrzehnten wurde gewöhnlich mißverstanden, daß Phloemexsudate vom zentralen Phloem stammen. Die eindeutigen metabolischen Profile der unterschiedlichen Phloemsysteme, die durch Metabolom-Analysen in der räumlichen Auflösung beobachtet werden, bestätigen die unterschiedlichen physiologischen Funktionen der zwei unterschiedlichen Phloemsysteme: das zentrale Phloem transportiert hauptsächlich Zucker, während das extrafaszikuläre Phloem ein ausgedehntes Spektrum von Metaboliten transportiert. Es kann auch ein unterschiedliches metabolisches Profil kleiner Moleküle zwischen internem und externem zentralem Phloem beobachtet werden. Von Strukturproteinen des zentralen Phloems wurden auch Proben genommen und mittels Massenspektrometrie analysiert. Diese Proteine erweisen sich als neuartige Proteine, die sich zu denen im extrafaszikulären Phloem unterscheiden. Dies bestätigt ferner den Funktionsunterschied der unterschiedlichen Phloemsysteme in Kürbispflanzen. Basierend auf diesen neuartigen Entdeckungen des Phloem-Metaboloms und dem vorhergehenden Wissen über den Phloemtransport in Kürbispflanzen, wird ein neues Modell vorgeschlagen, um den Mechanismus des Phloemtransports in der symplastischen Beladung zu verstehen. KW - phloem KW - metabolomics KW - cucurbits KW - phloem proteins KW - phloem KW - symplastic loading KW - metabolomic analysis KW - p-proteins KW - phloem architecture Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6644 ER - TY - THES A1 - Zeuschner, Steffen Peer T1 - Magnetoacoustics observed with ultrafast x-ray diffraction N2 - In the present thesis I investigate the lattice dynamics of thin film hetero structures of magnetically ordered materials upon femtosecond laser excitation as a probing and manipulation scheme for the spin system. The quantitative assessment of laser induced thermal dynamics as well as generated picosecond acoustic pulses and their respective impact on the magnetization dynamics of thin films is a challenging endeavor. All the more, the development and implementation of effective experimental tools and comprehensive models are paramount to propel future academic and technological progress. In all experiments in the scope of this cumulative dissertation, I examine the crystal lattice of nanoscale thin films upon the excitation with femtosecond laser pulses. The relative change of the lattice constant due to thermal expansion or picosecond strain pulses is directly monitored by an ultrafast X-ray diffraction (UXRD) setup with a femtosecond laser-driven plasma X-ray source (PXS). Phonons and spins alike exert stress on the lattice, which responds according to the elastic properties of the material, rendering the lattice a versatile sensor for all sorts of ultrafast interactions. On the one hand, I investigate materials with strong magneto-elastic properties; The highly magnetostrictive rare-earth compound TbFe2, elemental Dysprosium or the technological relevant Invar material FePt. On the other hand I conduct a comprehensive study on the lattice dynamics of Bi1Y2Fe5O12 (Bi:YIG), which exhibits high-frequency coherent spin dynamics upon femtosecond laser excitation according to the literature. Higher order standing spinwaves (SSWs) are triggered by coherent and incoherent motion of atoms, in other words phonons, which I quantified with UXRD. We are able to unite the experimental observations of the lattice and magnetization dynamics qualitatively and quantitatively. This is done with a combination of multi-temperature, elastic, magneto-elastic, anisotropy and micro-magnetic modeling. The collective data from UXRD, to probe the lattice, and time-resolved magneto-optical Kerr effect (tr-MOKE) measurements, to monitor the magnetization, were previously collected at different experimental setups. To improve the precision of the quantitative assessment of lattice and magnetization dynamics alike, our group implemented a combination of UXRD and tr-MOKE in a singular experimental setup, which is to my knowledge, the first of its kind. I helped with the conception and commissioning of this novel experimental station, which allows the simultaneous observation of lattice and magnetization dynamics on an ultrafast timescale under identical excitation conditions. Furthermore, I developed a new X-ray diffraction measurement routine which significantly reduces the measurement time of UXRD experiments by up to an order of magnitude. It is called reciprocal space slicing (RSS) and utilizes an area detector to monitor the angular motion of X-ray diffraction peaks, which is associated with lattice constant changes, without a time-consuming scan of the diffraction angles with the goniometer. RSS is particularly useful for ultrafast diffraction experiments, since measurement time at large scale facilities like synchrotrons and free electron lasers is a scarce and expensive resource. However, RSS is not limited to ultrafast experiments and can even be extended to other diffraction techniques with neutrons or electrons. N2 - In der vorliegenden Arbeit untersuche ich die Gitterdynamik von magnetisch geordneten und dünnen Filmen, deren Spinsystem mit Femtosekunden-Laserpulsen angeregt und untersucht wird. Die Quantifizierung der laserinduzierten thermischen Dynamik, der erzeugten Pikosekunden-Schallpulse sowie deren jeweiliger Einfluss auf die Magnetisierungsdynamik ist ein schwieriges Unterfangen. Umso mehr ist die Entwicklung und Anwendung von effizienten experimentellen Konzepten und umfangreichen Modellen grundlegend für das Antreiben des zukünftigen wissenschaftlichen und technologischen Fortschritt. In jedem Experiment dieser kummulativen Dissertation untersuche ich das Kristallgitter von Nanometer dünnen Filmen nach der Anregung mit Femtosekunden-Laserpulsen. Die relative Änderung der Gitterkonstante, hervorgerufen durch thermische Ausdehnung oder Pikosekunden-Schallpulse, wird dabei direkt mittels ultraschneller Röntgenbeugung (UXRD) gemessen. Der Aufbau nutzt zur Bereitstellung von ultrakurzen Röntgenpulsen eine lasergetriebene Plasma-Röntgenquelle (PXS). Phononen und Spins üben gleichermaßen einen Druck auf das Gitter aus, welches entsprechend der elastsischen Eigenschaften des Materials reagiert, was das Gitter zu einem vielseitigen Sensor für ultraschenlle Wechselwirkungen macht. Zum einen untersuche ich Materialien mit starken magnetoelastischen Eigentschaften: die stark magnetostriktive Seltenen-Erden-Verbindung TbFe2, elementares Dysprosium oder das technologisch relavante Invar-Material FePt. Zum anderen habe ich eine umfangreiche Studie der Gitterdynamik von Bi1Y2Fe5O12 (Bi:YIG) angestellt, in dem der Literatur zufolge hochfrequente kohärente Spindynamiken durch Femtosekunden-Laseranregung zu beobachten sind. Diese stehenden Spinwellen (SSWs) höherer Ordnung entstehen durch die kohärente und inkohärente Bewegung von Atomen, in anderen Worten Phononen, welche ich durch UXRD vermessen habe. Somit sind wir in der Lage, die experimentellen Beobachtungen der Gitter- und Spindynamik qualitativ und quantitativ zu vereinigen. Dies geschieht durch eine Kombination von Viel-Temperatur- und Anisotropiemodellierung sowie elastische, magnetoelastische, und mikromagnetsiche Modelle. Die gemeinsamen Daten von UXRD und der zeitaufgelösten magnetooptischen Kerr-Effekt Messungen (tr-MOKE), um jeweils die Gitter- und Spindynamik zu messen, wurden in der Vergangenheit noch an unterschiedlichen experimentellen Aufbauten gemessen. Um die Quantifizierung präziser zu gestalten, haben wir in unserer Arbeitsgruppe UXRD und tr-MOKE in einem einzigen Aufbau kombiniert, welcher somit meines Wissens der erste seiner Art ist. Ich half bei dem Entwurf und der Inbetriebnahme des neuen Aufbaus, welcher die gleichzeitige Messung von Gitter- und Spindynamik auf einer ultraschnellen Zeitskala unter identischen Anregungsbedingungen ermöglicht. Außerdem entwickelte ich eine neue Messroutine für Röntgenbeugung, welche die Messzeit von UXRD-Experimenten um bis zu einer Größenordnungen reduziert. Es nennt sich das Schneiden des reziproken Raumes (reciprocal space slicing, RSS) und nutzt den Vorteil von Flächendetektoren die Bewegung von Beugungsreflexen zu detektieren, was von einer Änderung der Gitterkonstante einhergeht, ohne zeitintensive Scans der Beugungswinkel mit dem Goniometer durchzuführen. RSS ist besonders nützlich für ultraschnelle Beugungsexperimente, weil die Messzeit an Großgeräten wie Synchrotrons oder Freie Elektronen Laser eine seltene und teure Ressource ist. Darüber hinaus ist RSS nicht zwangsläufig auf die Anwendung in ultraschnellen Experimenten beschränkt und kann sogar auf andere Beugungsexperimente, wie die mit Neutronen und Elektronen, ausgeweitet werden. KW - ultrafast KW - X-ray diffraction KW - thin films KW - magnetoelasticity KW - ultraschnell KW - Röntgenbeugung KW - dünne Filme KW - Magnetoelastizität Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-561098 ER - TY - THES A1 - Zenichowski, Karl T1 - Quantum dynamical study of Si(100) surface-mounted, STM-driven switches at the atomic and molecular scale T1 - Quantendynamische Untersuchung von Si(100) Oberflächen-gebundenen, STM-gesteuerten atomaren und molekularen Schaltern N2 - The aim of this thesis is the quantum dynamical study of two examples of scanning tunneling microscope (STM)-controllable, Si(100)(2x1) surface-mounted switches of atomic and molecular scale. The first example considers the switching of single H-atoms between two dangling-bond chemisorption sites on a Si-dimer of the Si(100) surface (Grey et al., 1996). The second system examines the conformational switching of single 1,5-cyclooctadiene molecules chemisorbed on the Si(100) surface (Nacci et al., 2008). The temporal dynamics are provided by the propagation of the density matrix in time via an according set of equations of motion (EQM). The latter are based on the open-system density matrix theory in Lindblad form. First order perturbation theory is used to evaluate those transition rates between vibrational levels of the system part. In order to account for interactions with the surface phonons, two different dissipative models are used, namely the bilinear, harmonic and the Ohmic bath model. IET-induced vibrational transitions in the system are due to the dipole- and the resonance-mechanism. A single surface approach is used to study the influence of dipole scattering and resonance scattering in the below-threshold regime. Further, a second electronic surface was included to study the resonance-induced switching in the above-threshold regime. Static properties of the adsorbate, e.g., potentials and dipole function and potentials, are obtained from quantum chemistry and used within the established quantum dynamical models. N2 - Die vorliegende Doktorarbeit befasst sich mit kleinsten schaltbaren Einheiten in Form des Moleküls Cyclooctadien (COD) und dem Wasserstoff-Atom, die chemisch fest mit einer Oberfläche aus kristallinem Silizium verbunden sind. Jeder dieser Schalter kann mittels einer winzigen Spitze, eines so genannten Rastertunnelmikroskops (RTM), von atomarem Durchmesser in zwei unterscheidbare und stabile Schaltpositionen gebracht werden. Dabei besteht das Schalten entweder in einer Änderung der Geometrie des molekularen Schalters oder im Brechen und Neu-knüpfen chemischer Bindungen. Dabei ist es entscheidend, dass durch die geringe Grösse dieser Schalter eine hohe Anzahl dieser Schalter auf einer Oberfläche deponiert werden können. Mit der in den Schaltern speicherbaren Informationen an oder aus, 0 oder 1 ließen sich sehr hohe Speicherkapazitäten erreichen. Vor einer Anwendung dieser Art ist es wichtig zunächst ein grundlegendes Verständnis der Schaltprozesse auf der Oberfläche zu gewinnen. Wenn alle wesentlichen Faktoren berücksichtigt wurden und der Mechanismus des Schaltens verstanden ist, kann das Ergebnis des Experiments mit Hilfe eines theoretischen Modells vorhergesagt werden. Für die Handhabbarkeit muss sich das theoretisches Modell auf wesentliche Einflüsse beschränken und diese so einfach wie möglich beschreiben. So wurde die simultane Bewegung der 12 Atome des COD in die Bewegung eines gemittelten Massenpunktes entlang von einer oder von zwei räumlichen Freiheitsgraden übersetzt. Dabei kann der Massenpunkt im klassischen Bild anschaulich als eine rollende Kugel beschrieben werden, die in einer Seite einer Doppelmulde gefangen ist. Die Kugel kann durch äußere Anregung zum Schwingen gebracht werden und schließlich über eine Barriere in die benachbarte Mulde schalten. Nun muss die Schwingung der Kugel gebremst werden, um ein Zurück-Schwingen der Kugel zu verhindern. Die Anregung erfolgt durch elektrische Ladungen die von der Spitze des RTM zur Oberfläche wandern oder durch eine schwingende, d.h. warme Oberfläche. Das Bremsen wird über die elastische Bindung zu einer kalten Oberfläche vermittelt. Um Quanteneffekte wie das Tunneln der Kugel durch die Barriere zu beschreiben wurde die Kugel durch ein Wellenpaket beschrieben und dessen Aufenthaltswahrscheinlichkeit in der Doppelmulde untersucht. Im Fall des Wasserstoffatoms war die experimentelle Prüfung des entworfenen Modells für ein Schalten bei starkem Strom leider nicht möglich. Für das COD Molekül konnte jedoch nicht nur die Übereinstimmung mit den experimentellen Befunden, sondern im Fall des Schaltens in Abhängigkeit der Oberflächentemperatur auch die Vorhersagefähigkeit des Modells unter Beweis gestellt werden. KW - Kerndynamik KW - molekulare Schalter KW - Nanotechnologie KW - STM KW - Oberflächen KW - Quantum dynamics KW - molecular switches KW - nanotechnology KW - STM KW - surfaces Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-62156 ER - TY - THES A1 - Zemella, Anne T1 - Fluoreszenzmarkierung und Modifizierung von komplexen Proteinen in eukaryotischen zellfreien Systemen durch die Etablierung von orthogonalen tRNA/Aminoacyl-tRNA-Synthetase-Paaren T1 - Fluorescent labeling and modification of complex proteins in eukaryotic cell-free systems by establishing orthogonal tRNA/aminoacyl-tRNA-synthetase pairs N2 - Die funktionelle Charakterisierung von therapeutisch relevanten Proteinen kann bereits durch die Bereitstellung des Zielproteins in adäquaten Mengen limitierend sein. Dies trifft besonders auf Membranproteine zu, die aufgrund von zytotoxischen Effekten auf die Produktionszelllinie und der Tendenz Aggregate zu bilden, in niedrigen Ausbeuten an aktivem Protein resultieren können. Der lebende Organismus kann durch die Verwendung von translationsaktiven Zelllysaten umgangen werden- die Grundlage der zellfreien Proteinsynthese. Zu Beginn der Arbeit wurde die ATP-abhängige Translation eines Lysates auf der Basis von kultivierten Insektenzellen (Sf21) analysiert. Für diesen Zweck wurde ein ATP-bindendes Aptamer eingesetzt, durch welches die Translation der Nanoluziferase reguliert werden konnte. Durch die dargestellte Applizierung von Aptameren, könnten diese zukünftig in zellfreien Systemen für die Visualisierung der Transkription und Translation eingesetzt werden, wodurch zum Beispiel komplexe Prozesse validiert werden können. Neben der reinen Proteinherstellung können Faktoren wie posttranslationale Modifikationen sowie eine Integration in eine lipidische Membran essentiell für die Funktionalität des Membranproteins sein. Im zweiten Abschnitt konnte, im zellfreien Sf21-System, für den G-Protein-gekoppelten Rezeptor Endothelin B sowohl eine Integration in die endogen vorhandenen Endoplasmatisch Retikulum-basierten Membranstrukturen als auch Glykosylierungen, identifiziert werden. Auf der Grundlage der erfolgreichen Synthese des ET-B-Rezeptors wurden verschiedene Methoden zur Fluoreszenzmarkierung des Adenosin-Rezeptors A2a (Adora2a) angewandt und optimiert. Im dritten Abschnitt wurde der Adora2a mit Hilfe einer vorbeladenen tRNA, welche an eine fluoreszierende Aminosäure gekoppelt war, im zellfreien Chinesischen Zwerghamster Ovarien (CHO)-System markiert. Zusätzlich konnte durch den Einsatz eines modifizierten tRNA/Aminoacyl-tRNA-Synthetase-Paares eine nicht-kanonische Aminosäure an Position eines integrierten Amber-Stopcodon in die Polypeptidkette eingebaut und die funktionelle Gruppe im Anschluss an einen Fluoreszenzfarbstoff gekoppelt werden. Aufgrund des offenen Charakters eignen sich zellfreie Proteinsynthesesysteme besonders für eine Integration von exogenen Komponenten in den Translationsprozess. Mit Hilfe der Fluoreszenzmarkierung wurde eine ligandvermittelte Konformationsänderung im Adora2a über einen Biolumineszenz-Resonanzenergietransfer detektiert. Durch die Etablierung der Amber-Suppression wurde darüber hinaus das Hormon Erythropoetin pegyliert, wodurch Eigenschaften wie Stabilität und Halbwertszeit des Proteins verändert wurden. Zu guter Letzt wurde ein neues tRNA/Aminoacyl-tRNA-Synthetase-Paar auf Basis der Methanosarcina mazei Pyrrolysin-Synthetase etabliert, um das Repertoire an nicht-kanonischen Aminosäuren und den damit verbundenen Kopplungsreaktionen zu erweitern. Zusammenfassend wurden die Potenziale zellfreier Systeme in Bezug auf der Herstellung von komplexen Membranproteinen und der Charakterisierung dieser durch die Einbringung einer positionsspezifischen Fluoreszenzmarkierung verdeutlicht, wodurch neue Möglichkeiten für die Analyse und Funktionalisierung von komplexen Proteinen geschaffen wurden. N2 - The functional characterization of therapeutically relevant proteins can be limited due to the provision of the target protein in adequate amounts. In particular membrane proteins belong to the so called “difficult-to-express” proteins because of possible cytotoxic side effects and a susceptibility to aggregation. The living organism can be circumvented by using cell lysates – the basic for cell-free protein synthesis. In the beginning of the thesis the ATP-dependent translation process in a cell lysate based on cultured insect (Sf21) cells was analyzed. For this purpose the translation of a nanoluciferase was regulated by the addition of an ATP-binding aptamer. The demonstrated application of aptamers in cell-free systems might enable a visualization of transcription and translation and following a potential validation process for high-throughput syntheses. In addition to the protein synthesis, factors such as posttranslational modifications and a correct integration into a lipid membrane are essential for the functionality of membrane proteins. Therefore, in the second part, integration of the G protein-coupled Endothelin receptor type B (ET-B) into the endogenous endoplasmic reticulum derived membranes and glycosylation were shown to be possible in a Sf21 cell-free system. Following to the successful synthesis of the ET-B receptor different fluorescent labeling strategies were applied to the adenosine receptor A2a (Adora2a). The first strategy applied precharged tRNAs, coupled to a fluorescently labeled amino acid, to the translation process in a Chinese Hamster Ovary cells (CHO) cell-free system. The second strategy utilized a modified tRNA/aminoacyl-tRNA-synthetase pair to incorporate a non-canonical amino acid at an integrated amber stop codon with a subsequently fluorescent labeling. The open character of cell-free systems enables a feasible integration of exogenous components into the translation process. The site-specific fluorescent labeling was the basis for the detection of a ligand-induced conformational change in the Adora2a by a bioluminescence resonance energy transfer. Additionally the amber suppression technique was transferred to the hormone Erythropoietin (EPO) to modify EPO´s stability and half-life period by coupling polyethylene glycol. Last but not least a novel tRNA/aminoacyl-tRNA-synthetase pair based on the Methanosarcina mazei pyrrolysine synthetase was developed to further increase the repertoire of non-canonical amino acids and copper-free click reactions. Summarizing in the present thesis the potentials of cell-free protein systems related to the synthesis of “difficult-to-express” proteins and the characterization of these proteins with site-specific fluorescence labeling are depicted, thereby establishing new methods for the analysis and functionalization of complex proteins. KW - Zellfreie Proteinsynthese KW - nicht-kanonische Aminosäuren KW - Klick-Chemie KW - Fluoreszenzmarkierung KW - GPCRs KW - Proteinmodifizierung KW - cell-free protein synthesis KW - non-canonical amino acids KW - click chemistry KW - fluorescent labeling KW - GPCRs KW - protein modification Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-442361 ER - TY - THES A1 - Zemanová, Lucia T1 - Structure-function relationship in hierarchical model of brain networks T1 - Das Verhältnis von Struktur und Funktion in hierarchischem Model der Hirn-Netzwerken N2 - The mammalian brain is, with its numerous neural elements and structured complex connectivity, one of the most complex systems in nature. Recently, large-scale corticocortical connectivities, both structural and functional, have received a great deal of research attention, especially using the approach of complex networks. Here, we try to shed some light on the relationship between structural and functional connectivities by studying synchronization dynamics in a realistic anatomical network of cat cortical connectivity. We model the cortical areas by a subnetwork of interacting excitable neurons (multilevel model) and by a neural mass model (population model). With weak couplings, the multilevel model displays biologically plausible dynamics and the synchronization patterns reveal a hierarchical cluster organization in the network structure. We can identify a group of brain areas involved in multifunctional tasks by comparing the dynamical clusters to the topological communities of the network. With strong couplings of multilevel model and by using neural mass model, the dynamics are characterized by well-defined oscillations. The synchronization patterns are mainly determined by the node intensity (total input strengths of a node); the detailed network topology is of secondary importance. The biologically improved multilevel model exhibits similar dynamical patterns in the two regimes. Thus, the study of synchronization in a multilevel complex network model of cortex can provide insights into the relationship between network topology and functional organization of complex brain networks. N2 - Das Gehirn von Säugetieren stellt mit seinen zahlreichen, hochgradig vernetzten Neuronen ein natürliches Netzwerk von immenser Komplexität dar. In der jüngsten Vergangenheit sind die großflächige kortikale Konnektivitäten, sowohl unter strukturellen wie auch funktionalen Gesichtspunkten, in den Fokus der Forschung getreten. Die Verwendung von komplexe Netzwerke spielt hierbei eine entscheidende Rolle. In der vorliegenden Dissertation versuchen wir, das Verhältnis von struktureller und funktionaler Konnektivität durch Untersuchung der Synchronisationsdynamik anhand eines realistischen Modells der Konnektivität im Kortex einer Katze näher zu beleuchten. Wir modellieren die Kortexareale durch ein Subnetzwerk interagierender, erregbarer Neuronen (multilevel model) und durch ein Modell von Neuronenensembles (population model). Bei schwacher Kopplung zeigt das multilevel model eine biologisch plausible Dynamik und die Synchronisationsmuster lassen eine hierarchische Organisation der Netzwerkstruktur erkennen. Indem wir die dynamischen Cluster mit den topologischen Einheiten des Netzwerks vergleichen, sind wir in der Lage die Hirnareale, die an der Bewältigung komplexer Aufgaben beteiligt sind, zu identifizieren. Bei starker Kopplung im multilevel model und unter Verwendung des Ensemblemodells weist die Dynamik klare Oszillationen auf. Die Synchronisationsmuster werden hauptsächlich durch die Eingangsstärke an den einzelnen Knoten bestimmt, während die genaue Netzwerktopologie zweitrangig ist. Eine Erweiterung des Modells auf andere biologisch relevante Faktoren bestätigt die vorherigen Ergebnisse. Die Untersuchung der Synchronisation in einem multilevel model des Kortex ermöglicht daher tiefere Einblicke in die Zusammenhänge zwischen Netzwerktopologie und funktionaler Organisation in komplexen Hirn-Netzwerken. KW - komplexe Hirnnetzwerke KW - Verhältnis der Struktur und Funktion KW - hierarchisches Model KW - Synchronization KW - complex brain networks KW - structur-function relationship KW - hierarchical model KW - synchronization Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18400 ER - TY - THES A1 - Zeitz, Maria T1 - Modeling the future resilience of the Greenland Ice Sheet T1 - Numerische Modellierung der zukünftigen Resilienz des grönländischen Eisschildes BT - from the flow of ice to the interplay of feedbacks N2 - The Greenland Ice Sheet is the second-largest mass of ice on Earth. Being almost 2000 km long, more than 700 km wide, and more than 3 km thick at the summit, it holds enough ice to raise global sea levels by 7m if melted completely. Despite its massive size, it is particularly vulnerable to anthropogenic climate change: temperatures over the Greenland Ice Sheet have increased by more than 2.7◦C in the past 30 years, twice as much as the global mean temperature. Consequently, the ice sheet has been significantly losing mass since the 1980s and the rate of loss has increased sixfold since then. Moreover, it is one of the potential tipping elements of the Earth System, which might undergo irreversible change once a warming threshold is exceeded. This thesis aims at extending the understanding of the resilience of the Greenland Ice Sheet against global warming by analyzing processes and feedbacks relevant to its centennial to multi-millennial stability using ice sheet modeling. One of these feedbacks, the melt-elevation-feedback is driven by the temperature rise with decreasing altitudes: As the ice sheet melts, its thickness and surface elevation decrease, exposing the ice surface to warmer air and thus increasing the melt rates even further. The glacial isostatic adjustment (GIA) can partly mitigate this melt-elevation feedback as the bedrock lifts in response to an ice load decrease, forming the negative GIA feedback. In my thesis, I show that the interaction between these two competing feedbacks can lead to qualitatively different dynamical responses of the Greenland Ice Sheet to warming – from permanent loss to incomplete recovery, depending on the feedback parameters. My research shows that the interaction of those feedbacks can initiate self-sustained oscillations of the ice volume while the climate forcing remains constant. Furthermore, the increased surface melt changes the optical properties of the snow or ice surface, e.g. by lowering their albedo, which in turn enhances melt rates – a process known as the melt-albedo feedback. Process-based ice sheet models often neglect this melt-albedo feedback. To close this gap, I implemented a simplified version of the diurnal Energy Balance Model, a computationally efficient approach that can capture the first-order effects of the melt-albedo feedback, into the Parallel Ice Sheet Model (PISM). Using the coupled model, I show in warming experiments that the melt-albedo feedback almost doubles the ice loss until the year 2300 under the low greenhouse gas emission scenario RCP2.6, compared to simulations where the melt-albedo feedback is neglected, and adds up to 58% additional ice loss under the high emission scenario RCP8.5. Moreover, I find that the melt-albedo feedback dominates the ice loss until 2300, compared to the melt-elevation feedback. Another process that could influence the resilience of the Greenland Ice Sheet is the warming induced softening of the ice and the resulting increase in flow. In my thesis, I show with PISM how the uncertainty in Glen’s flow law impacts the simulated response to warming. In a flow line setup at fixed climatic mass balance, the uncertainty in flow parameters leads to a range of ice loss comparable to the range caused by different warming levels. While I focus on fundamental processes, feedbacks, and their interactions in the first three projects of my thesis, I also explore the impact of specific climate scenarios on the sea level rise contribution of the Greenland Ice Sheet. To increase the carbon budget flexibility, some warming scenarios – while still staying within the limits of the Paris Agreement – include a temporal overshoot of global warming. I show that an overshoot by 0.4◦C increases the short-term and long-term ice loss from Greenland by several centimeters. The long-term increase is driven by the warming at high latitudes, which persists even when global warming is reversed. This leads to a substantial long-term commitment of the sea level rise contribution from the Greenland Ice Sheet. Overall, in my thesis I show that the melt-albedo feedback is most relevant for the ice loss of the Greenland Ice Sheet on centennial timescales. In contrast, the melt-elevation feedback and its interplay with the GIA feedback become increasingly relevant on millennial timescales. All of these influence the resilience of the Greenland Ice Sheet against global warming, in the near future and on the long term. N2 - Das grönländische Eisschild ist die zweitgrößte Eismasse der Erde. Es fasst genug Eis, um den globalen Meeresspiegel um 7m anzuheben, wenn er vollständig schmilzt. Trotz seiner Größe ist es durch den vom Menschen verursachten Klimawandel immens gefährdet: Die Temperaturen über Grönland sind in den letzten 30 Jahren um mehr als 2,7◦C gestiegen, doppelt so stark wie im globalen Mittel. Daher verliert das Eisschild seit den 1980er Jahren an Masse und die Verlustrate hat sich seitdem versechsfacht. Zudem ist das grönländische Eisschild ein Kippelement des Erdsystems, es könnte sich unwiederbringlich verändern, wenn die globale Erwärmung einen Schwellwert überschreiten sollte. Ziel dieser Arbeit ist es, das Verständnis für die Resilienz des grönländischen Eisschildes zu erweitern, indem relevante Rückkopplungen und Prozesse analysiert werden. Eine dieser Rückkopplungen, die positive Schmelz-Höhen-Rückkopplung wird durch den Temperaturanstieg bei abnehmender Höhe angetrieben: Wenn der Eisschild schmilzt, nehmen seine Dicke und die Oberflächenhöhe ab, wodurch die Eisoberfläche wärmerer Luft ausgesetzt wird und die Schmelzraten noch weiter ansteigen. Die glaziale isostatische Anpassung (GIA) kann die Schmelz-Höhen-Rückkopplung teilweise abschwächen, da sich der Erdmantel als Reaktion auf die abnehmende Eislast hebt und so die negative GIA-Rückkopplung bildet. Ich zeige, dass die Interaktion zwischen diesen beiden konkurrierenden Rückkopplungen zu qualitativ unterschiedlichem dynamischen Verhalten des grönländischen Eisschildes bei Erwärmung führen kann - von permanentem Verlust bis hin zu unvollständiger Erholung. Das Zusammenspiel dieser Rückkopplungen kann zudem Oszillationen des Eisvolumens in einem konstanten Klima auslösen. Die verstärkte Oberflächenschmelze ändert die optischen Eigenschaften von Schnee und Eis und verringert deren Albedo, was wiederum die Schmelzraten erhöht – die sogenannte Schmelz-Albedo Rückkopplung. Da viele Eisschildmodelle diese vernachlässigen, habe ich eine vereinfachte Version des tageszeitlichen Energiebilanzmodells, welches die Effekte der Schmelz-Albedo-Rückkopplung erster Ordnung erfassen kann, in das Eisschildmodell PISM implementiert. Mithilfe des gekoppelten Modells zeige ich, dass die Schmelz-Albedo-Rückkopplung den Eisverlust bis zum Jahr 2300 im moderaten Klimaszenario RCP2.6 fast verdoppelt und im RCP8.5-Szenario, welches von starken Emissionen ausgeht, bis zu 58% zusätzlichen Eisverlust verursacht, im Vergleich zu Simulationen in denen die Schmelz-Albedo-Rückkopplung vernachlässigt wird. Bis zum Jahr 2300 trägt die Schmelz-Albedo-Rückkopplung mehr zum Eisverlust bei als die Schmelz-Höhen-Rückkopplung. Ein weiterer Prozess, der die Widerstandsfähigkeit des grönländischen Eisschilds beeinflussen könnte, ist die Erweichung des Eises bei steigenden Temperaturen, sowie die daraus resultierende Zunahme des Eisflusses. In meiner Dissertation zeige ich, wie sich die parametrische Unsicherheit in dem Flussgesetz auf die Ergebnisse von PISM Simulationen bei Erwärmung auswirkt. In einem idealisierten, zweidimensionalen Experiment mit fester klimatischer Massenbilanz führt die Unsicherheit in den Strömungsparametern zu einer Bandbreite des Eisverlustes, die mit der Bandbreite durch unterschiedliche Erwärmungen vergleichbar ist. Neben den grundsätzlichen Prozessen und Rückkopplungen untersuchte ich auch die Auswirkungen konkreter Klimaszenarien auf den Eisverlust von Grönland. Um die Flexibilität des Kohlenstoffbudgets zu erhöhen sehen einige Erwärmungsszenarien eine temporäre Überschreitung der globalen Temperaturen über das Ziel von 1,5◦C vor. Ich zeige, dass eine solche Temperaturerhöhung den kurz- und langfristigen Eisverlust von Grönland um mehrere Zentimeter erhöht. Der langfristige Meeresspiegelanstieg ist auf die anhaltende Temperaturerhöhung in hohen Breitengraden zurückzuführen. Solche Prozesse führen zu einem langfristigen und bereits festgelegtem Meeresspiegelanstieg, selbst wenn die Temperaturen nicht weiter steigen. Insgesamt zeige ich in meiner Arbeit, dass die Schmelz-Albedo-Rückkopplung für den Eisverlust des grönländischen Eisschilds in den nächsten Jahrhunderten am wichtigsten ist. Im Gegensatz dazu werden die Schmelz-Höhen-Rückkopplung und ihr Zusammenspiel mit der GIA-Rückkopplung auf längeren Zeiträumen immer relevanter. KW - Greenland Ice Sheet KW - ice-flow modeling KW - sea-level rise KW - Grönländisches Eisschild KW - Computersimulation KW - Meeresspiegelanstieg Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-568839 ER - TY - THES A1 - Zeiske, Anja T1 - "Sexualität im angehenden Erwachsenenalter" : die sexuelle Handlungsfähigkeit junger Frauen und Männer T1 - "Sexuality in emerging adulthood" : young women's and men's sexual agency N2 - In dieser Arbeit wurden Zusammenhänge zwischen den sexuellen Erfahrungen junger Frauen und Männer, ihren Persönlichkeitseigenschaften und ihren sexualmoralischen Einstellungen auf der einen Seite und der Einschätzung ihrer sexuellen Handlungsfähigkeit auf der anderen Seite untersucht. Die Grundlage für das Modell der sexuellen Handlungsfähigkeit bildeten die Vorstellungen der Arbeitsgruppe um Matthias Grundmann (Grundmann et al. 2006) sowie von Emirbayer und Mische (1998). Das in dieser Arbeit entwickelte Modell zur sexuellen Handlungsfähigkeit ist ein multidimensionales Konstrukt, das sich aus den Komponenten „sexuelle Kommunikation“, „sexuelle Zufriedenheit“, „sexuelle Reziprozität“ sowie „sexuelle Eigenverantwortung“ zusammensetzt. „Sexuelle Kommunikation“ beinhaltet die Fähigkeit, sexuelle Wünsche zum Ausdruck bringen zu können. „Sexuelle Zufriedenheit“ beschreibt den Grad der Zufriedenheit mit dem eigenen Sexualleben. „Sexuelle Reziprozität“ verweist auf die Fähigkeit, sexuelle Aufmerksamkeiten sowohl Annehmen als auch Geben zu können. „Sexuelle Eigenverantwortung“ betont schließlich die Einschätzung, inwieweit die eigene Sexualität selbst bestimmt gestaltet werden kann. Mit Emirbayer und Mische werden die sexuellen Erfahrungen der Frauen und Männer als Korrelate der Einschätzung der Dimensionen der sexuellen Handlungsfähigkeit betrachtet. Mit Grundmann et al. sind es zudem verschiedene Persönlichkeitseigenschaften sowie sexualmoralische Einstellungen, deren Beschaffenheiten Aussagen über die sexuelle Handlungsfähigkeit erlauben. Um die Thematik der sexuellen Handlungsfähigkeit empirisch zu betrachten, wurden im Jahr 2006 695 junge Potsdamer/innen im Alter von 19 bis 21 Jahren im Rahmen einer standardisierten Erhebung zu ihren sexuellen und Beziehungserfahrungen befragt. Die empirischen Analysen verdeutlichen eine ko-konstruktive Anschauung von der Entwicklung sexueller Handlungsfähigkeit. Diese entsteht nicht im Individuum allein, sondern innerhalb der Interaktions- und Aushandlungsprozesse des Individuums mit den Anderen seiner sozialen und sexuellen Umwelt. Von Bedeutung erweisen dabei sowohl die Erlebnisse der sexuellen Biografie als auch die Persönlichkeitsmerkmale eines jeden Einzelnen. Nur geringfügig erscheinen die erfragten sexualmoralischen Ansichten von Bedeutung. N2 - This study examines the connections between young women’s and men’s sexual experiences, their psychometrically meassures, and their moral attitudes according to sexuality on the one hand and the young women’s and men’s evaluation of their sexual agency on the other hand. The model of sexual agency used in this study is based upon the conceptions of Matthias Grundmann and collegues (Grundmann et al. 2006) as well as upon the conceptions of Mustafa Emirbayer and Ann Mische (1998). According to Emirbayer and Mische, in this study young women’s and men’s sexual experiences are conceived as correlates of their self-evalutation of sexual agency. Moreover, according to Grundmann et al., it is suggested that the young adults’ personality traits and their moral attitudes concerning sexulity are able to characterize their state of sexual agency. In this work a multidimensional construct of sexual agency has been developed. The multidimensional construct of sexual agency consists of the four dimensions “sexual communication”, “sexual satisfaction”, “sexual reciprocity”, and “sexual self-responsibility”. “Sexual communication” characterizes the ability to communicate one’s own sexual wishes. “Sexual satisfaction” describes the state of satisfaction with one’s sexual life. “Sexual reciprocity” contains the ability of both taking and giving sexual pleasures. Finally, “sexual self-responsibility” emphasizes the capability of creating one’s sexuality in an self dependened way. Based on a quantitative sample the subject of sexual agency has been examined empirically. In the year 2006 695 young adults, aged 19 to 21 years and living in Potsdam, Germany, have been asked about their sexual experiences and their experiences concerning romantic relationships. Data support a co-constructive view of the development of sexual agency. Thus, the development of sexual agency is not an exclusively individual demand, but a demand of the individuum’s negotiations with it’s social others, with men and women of it’s social and sexual society. Therefore, aspects of the individual’s sexual biography as well as the individual’s personality traits are important for the self-evaluaton of it’s sexual agency. However, data also show that the moral attitudes concerning sexuality are less important for the perception of one’s state of sexual agency. KW - Sexualität KW - sexuelle Handlungsfähigkeit KW - junge Erwachsene KW - Frauen KW - Männer KW - sexuality KW - sexual agency KW - emerging adults KW - women KW - men Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52346 ER - TY - THES A1 - Zeckra, Martin T1 - Seismological and seismotectonic analysis of the northwestern Argentine Central Andean foreland N2 - After a severe M W 5.7 earthquake on October 17, 2015 in El Galpón in the province of Salta NW Argentina, I installed a local seismological network around the estimated epicenter. The network covered an area characterized by inherited Cretaceous normal faults and neotectonic faults with unknown recurrence intervals, some of which may have been reactivated normal faults. The 13 three-component seismic stations recorded data continuously for 15 months. The 2015 earthquake took place in the Santa Bárbara System of the Andean foreland, at about 17km depth. This region is the easternmost morphostructural region of the central Andes. As a part of the broken foreland, it is bounded to the north by the Subandes fold-and-thrust belt and the Sierras Pampeanas to the south; to the east lies the Chaco-Paraná basin. A multi-stage morphotectonic evolution with thick-skinned basement uplift and coeval thin-skinned deformation in the intermontane basins is suggested for the study area. The release of stresses associated with the foreland deformation can result in strong earthquakes, as the study area is known for recurrent and historical, destructive earthquakes. The available continuous record reaches back in time, when the strongest event in 1692 (magnitude 7 or intensity IX) destroyed the city of Esteco. Destructive earthquakes and surface deformation are thus a hallmark of this part of the Andean foreland. With state-of-the-art Python packages (e.g. pyrocko, ObsPy), a semi-automatic approach is followed to analyze the collected continuous data of the seismological network. The resulting 1435 hypocenter locations consist of three different groups: 1.) local crustal earthquakes (nearly half of the events belong to this group), 2.) interplate activity, of regional distance in the slab of the Nazca-plate, and 3.) very deep earthquakes at about 600km depth. My major interest focused on the first event class. Those crustal events are partly aftershock events of the El Galpón earthquake and a second earthquake, in the south of the same fault. Further events can be considered as background seismicity of other faults within the study area. Strikingly, the seismogenic zone encompass the whole crust and propagates brittle deformation down, close to the Moho. From the collected seismological data, a local seismic velocity model is estimated, using VELEST. After the execution of various stability tests, the robust minimum 1D-velocity model implies guiding values for the composition of the local, subsurface structure of the crust. Afterwards, performing a hypocenter relocation enables the assignment of individual earthquakes to aftershock clusters or extended seismotectonic structures. This allows the mapping of previously unknown seismogenic faults. Finally, focal mechanisms are modeled for events with acurately located hypocenters, using the newly derived local velocity model. A compressive regime is attested by the majority of focal mechanisms, while the strike direction of the individual seismogenic structures is in agreement with the overall north – south orientation of the Central Andes, its mountain front, and individual mountain ranges in the southern Santa-Bárbara-System. N2 - Nach einem schweren Erdbeben der Magnitude M W 5.7 am 17. Oktober 2015 in El Galpón, in der Provinz Salta im Nordwesten Argentiniens, habe ich ein lokales seismologisches Netzwerk, um das vermutete Epizentrum herum, aufgebaut. Dabei haben 13 Stationen kontinuierlich für 15 Monate gemessen. Das Netzwerk wurde in einem Gebiet installiert, welches durch tektonische Störungen charakterisiert ist, die entweder in der Kreidezeit zunächst als Abschiebungen initiiert und später als Aufschiebungen reaktiviert wurden oder in der geologischen jüngeren Vergangenheit erst entstanden sind. Die Intervallzeiten zwischen zwei Erdbeben sind dabei häufig unbekannt. Das Erdbeben von 2015 trat im Santa-Barbara-System im Argentinischen Vorland, 17 km unter der Erdoberfläche auf. Diese Region ist die östlichste strukturgeologische Provinz der Zentralanden und dem broken-foreland-Typus zuzuordnen. Im Norden schließt sich der Bolivianische Faltengürtel (Sierras Subandinas) und im Süden die Sierras Pampeanas an; im Osten liegt das Chaco-Paraná Becken. Eine mehrstufige morphotektonische Entwicklung wird hier vermutet, bei der das Grundgebirge durch als thick-skinned bezeichnete Deformation herausgehoben wurde und die dazwischen liegenden Intermontanbecken gleichzeitig Deformation des Typs thin-skinned erfahren haben. Die plötzliche Spannungsfreisetzung, die mit dieser Vorlanddeformation einhergeht, kann zu starken Erdbeben führen. Das Untersuchungsgebiet ist für wiederkehrende und historische, zerstörerische Erdbeben bekannt. Der zur Verfügung stehenden Aufzeichnungen reichen bis in das Jahr 1692 zurück, als ein Erdbeben der Magnitude M 7 (oder Intensität IX) die Stadt Esteco zerstörte. Daher sind zerstörerische Erdbeben ein besonderes Kennzeichen in diesem Teil des Andenvorlands. Für die Analyse der im seismologischen Netzwerk aufgezeichneten kontinuierlichen Daten wurde ein semiautomatischer Ansatz verfolgt, der mittels hochmoderner Python-Bibliotheken informationstechnisch umgesetzt wurde. Die resultierenden 1435 Erdbeben bestehen aus drei verschiedenen Gruppen: 1.) lokale Erdbeben in der Erdkruste (die etwa die Hälfte aller Events ausmachen), 2.) weiter entfernte Interplattenaktivität, die durch die Subduktion der Nazca-Platte unter den Südamerikanischen Kontinent hervorgerufen wird und 3.) sehr tiefen Erdbeben in etwa 600 km Tiefe. Mein Hauptaugenmerk lag dabei auf der ersten Gruppe. Diese krustalen Ereignisse sind teilweise Nachbeben des El Galpón Erdbebens und eines weiteren Bebens, welches sich weiter im Süden an der gleichen Störung ereignete. Die restlichen Beben können der allgemeinen Hintergrundaktivität entlang weiterer Störungen im Untersuchungsgebiet zugeschrieben werden. Beachtenswert ist dabei der Umstand, dass die Erdbebenaktivität in der gesamten Kruste beobachtet werden kann und sich dadurch die Deformation bis a fast an den Erdmantel ausbreitet. Mit den gesammelten Daten kann, unter der Verwendung der VELEST Software, ein lokales seismisches Geschwindigkeitsmodell bestimmt werden. Nach der Durchführung verschiedener Stabilitätstests, können aus dem robusten eindimensionalen Modell Richtwerte für die Zusammensetzung und den Aufbau der Erdkruste gewonnen werden. Dieanschließende Relokalisierung von Erdbebenherden erlaubt die Zuordnung einzelner Erdbeben zu Erdbebenclustern oder ausgedehnten seismotektonischen Strukturen. Dadurch können sogar zuvor unbekannte seismogene Störungen kartiert werden. Schlussendlich, werden Herdflächenlösungen für Beben mit präzise lokalisierten Erdbebenherden und unter der Einbeziehung des neu bestimmten lokalen Geschwindigkeitsmodells modelliert. Der Großteil der resultierenden Lösungen bestätigt das vorherrschende kompressive Regime. Das Streichen der einzelnen seismogenen Strukturen stimmt größtenteils mit der allgemeinen Nord – Süd Ausrichtugn der Zentralanden, ihrer Gebirgsfront und den einzelnen Höhenzügen im Santa-Barbará-System überein. T2 - Seismologische und Seismotektonische Analyse des Vorlandsystems der nordwestargentinischen Zentralanden KW - Seismology KW - Seismotektonik KW - Geophysics KW - Andes KW - Geosciences KW - Argentina KW - Anden KW - Seismologie KW - Geophysik KW - Geowissenschaften KW - Argentinien Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-473240 ER - TY - THES A1 - Zaupa, Alessandro T1 - Physical crosslinking of gelatin : a supramolecular approach to biomaterials T1 - Physikalische Quervernetzung von Gelatine : ein supramolekularer Zugang zu Biomaterialien N2 - This work describes the realization of physically crosslinked networks based on gelatin by the introduction of functional groups enabling specific supramolecular interactions. Molecular models were developed in order to predict the material properties and permit to establish a knowledge-based approach to material design. The effect of additional supramolecular interactions with hydroxyapaptite was then studied in composite materials. The calculated properties are compared to experimental results to validate the models. The models are then further used for the study of physically crosslinked networks. Gelatin was functionalized with desaminotyrosine (DAT) and desaminotyrosyl-tyrosine (DATT) side groups, derived from the natural amino acid tyrosine. These group can potentially undergo to π-π and hydrogen bonding interactions also under physiological conditions. Molecular dynamics (MD) simulations were performed on models with 0.8 wt.-% or 25 wt.-% water content, using the second generation forcefield CFF91. The validation of the models was obtained by the comparison with specific experimental data such as, density, peptide conformational angles and X-ray scattering spectra. The models were then used to predict the supramolecular organization of the polymer chain, analyze the formation of physical netpoints and calculate the mechanical properties. An important finding of simulation was that with the increase of aromatic groups also the number of observed physical netpoints increased. The number of relatively stable physical netpoints, on average zero 0 for natural gelatin, increased to 1 and 6 for DAT and DATT functionalized gelatins respectively. A comparison with the Flory-Rehner model suggested reduced equilibrium swelling by factor 6 of the DATT-functionalized materials in water. The functionalized gelatins could be synthesized by chemoselective coupling of the free carboxylic acid groups of DAT and DATT to the free amino groups of gelatin. At 25 wt.-% water content, the simulated and experimentally determined elastic mechanical properties (e.g. Young Modulus) were both in the order of GPa and were not influenced by the degree of aromatic modification. The experimental equilibrium degree of swelling in water decreased with increasing the number of inserted aromatic functions (from 2800 vol.-% for pure gelatin to 300 vol.-% for the DATT modified gelatin), at the same time, Young’s modulus, elongation at break, and maximum tensile strength increased. It could be show that the functionalization with DAT and DATT influences the chain organization of gelatin based materials together with a controlled drying condition. Functionalization with DAT and DATT lead to a drastic reduction of helical renaturation, that could be more finely controlled by the applied drying conditions. The properties of the materials could then be influenced by application of two independent methods. Composite materials of DAT and DATT functionalized gelatins with hydroxyapatite (HAp) show a drastic reduction of swelling degree. In tensile tests and rheological measurements, the composites equilibrated in water had increased Young’s moduli (from 200 kPa up to 2 MPa) and tensile strength (from 57 kPa up to 1.1 MPa) compared to the natural polymer matrix without affecting the elongation at break. Furthermore, an increased thermal stability from 40 °C to 85 °C of the networks could be demonstrated. The differences of the behaviour of the functionalized gelatins to pure gelatin as matrix suggested an additional stabilizing bond between the incorporated aromatic groups to the hydroxyapatite. N2 - Diese Arbeit beschreibt die Entwicklung von durch spezifische physikalische Wechselwirkungen quervernetzten Gelatine-basierten Materialien. Dazu wurden zunächst Computermodelle entwickelt, mit denen Eigenschaften der Materialien vorhergesagt werden sollten, um so eine wissensbasierte Entwicklung zu ermöglichen, um dann die Ergebnisse mit experimentellen Daten zu vergleichen und die Materialien und Modelle als Grundlage für weitere Entwicklungen zu nutzen. Gelatine wurde mit Desaminotyrosin (DAT) und Desaminotyrosyltyrosin (DATT) funktionalisiert, die sich von der natürlichen Aminosäure Tyrosin ableiten. Diese Gruppen können potentiell π-π Wechselwirkungen und Wasserstoffbrückenbindungen auch unter physiologischen Bedingungen eingehen. Es wurden Computersimulationen der Materialien mittels Moleküldynamik durchgeführt, wobei Modelle mit 0.8 Gew.-% und 25 Gew.-% Wassergehalt betrachtet wurden. Die Validierung der Modelle erfolgte durch Vergleich der errechneten mit experimentellen Daten wie z.B. der Dichte, Bindungswinkeln sowie Röntgenstreuungsspektren. Die Modelle wurden dann zur Vorhersage der molekularen Organisation der Polymerketten, Formierung physikalischer Netzpunkte und Berechnung der mechanischen Eigenschaften eingesetzt. Die Funktionalisierung der Gelatine mit DAT bzw. DATT führten wie gewünscht zur Ausbildung physikalischer Netzpunkte durch π-π Wechselwirkungen und Wasserstoffbrücken¬bindungen. Ein Schlüsselergebnis der Simulationen war, dass mit zunehmender Zahl an aromatischen Gruppen auch eine Zunahme der physikalischen Netzpunkte beobachtet werden konnte. Die funktionalisierten Gelatinen konnten durch chemoselektive Reaktion der Aminogruppen der Gelatine mit den freien Carboxylgruppen von DAT und DATT hergestellt werden. Materialien mit 25 Gew.-% Wassergehalt hatten in der Simulation und im Experiment mechanische Eigenschaften derselben Größenordnung (z.B. E-Moduln im unteren GPa-Bereich). Der Quellungsgrad der Materialien im Experiment nahm mit zunehmender Zahl an aromatische Gruppen ab (von 2800 Vol.-% auf 300 Vol.-%), wobei der Elastizitätsmodul, die Bruchdehnung sowie die Zugfestigkeit zunahmen. Die Funktionalisierung der Gelatine ist eine chemische Methode, um die Kettenanordnung auf molekularer Ebene zu beeinflussen, während die genaue Kontrolle der Trocknungs¬bedinguungen von Gelatine-basierten Materialien eine physikalische Methode mit demselben Ziel ist. Es konnte gezeigt werden, dass die Funktionalisierung von Gelatine mit DAT oder DATT zu einer stark verminderten Helixausbildungstendenz, die jedoch durch Variation der Trocknunsgbedingungen noch fein abgestimmt werden konnte. Somit konnten die mechanischen Eigenschaften von Filmen aus funktionlisierter Gelatine mit zwei unabhängigen Methoden eingestellt werden. Komposite der mit DAT oder DATT funktionalisierten Gelatine und Hydroxyapatit (HAp) zeigten deutlich verringerter Quellung. In Zugdehnungsexperimenten und rheologischen Untersuchungen zeigten die Komposite im Gleichgewichtsquellungszustand erhöhte Elastizitätsmoduln (von 200 kPa auf bis zu 2 MPa) und Zugfestigkeit (von 57 kPa auf bis zu 1.1 MPa). Darüber hinaus konnte die Übergangstemperatur Tc deutlich gesteigert werden (von ca. 40 °C auf > 85 °C). Dieses Verhalten ließ sich auf stabilisierende Bindungen zwischen den aromatische Gruppen und dem HAp zurückführen. KW - Physikalische Quervernetzung KW - Supramolekularen Wechselwirkung KW - Molekulare Modellierung KW - Biomaterialien KW - Gelatine KW - Komposite KW - Hydroxyapatit KW - Physical Network KW - Supramolecular Interaction KW - Molecular modeling KW - Biomaterial KW - Gelatin KW - Composite KW - Hydroxyapatite Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52888 ER - TY - THES A1 - Zass, Alexander T1 - A multifaceted study of marked Gibbs point processes T1 - Facetten von markierten Gibbsschen Punktprozessen N2 - This thesis focuses on the study of marked Gibbs point processes, in particular presenting some results on their existence and uniqueness, with ideas and techniques drawn from different areas of statistical mechanics: the entropy method from large deviations theory, cluster expansion and the Kirkwood--Salsburg equations, the Dobrushin contraction principle and disagreement percolation. We first present an existence result for infinite-volume marked Gibbs point processes. More precisely, we use the so-called entropy method (and large-deviation tools) to construct marked Gibbs point processes in R^d under quite general assumptions. In particular, the random marks belong to a general normed space S and are not bounded. Moreover, we allow for interaction functionals that may be unbounded and whose range is finite but random. The entropy method relies on showing that a family of finite-volume Gibbs point processes belongs to sequentially compact entropy level sets, and is therefore tight. We then present infinite-dimensional Langevin diffusions, that we put in interaction via a Gibbsian description. In this setting, we are able to adapt the general result above to show the existence of the associated infinite-volume measure. We also study its correlation functions via cluster expansion techniques, and obtain the uniqueness of the Gibbs process for all inverse temperatures β and activities z below a certain threshold. This method relies in first showing that the correlation functions of the process satisfy a so-called Ruelle bound, and then using it to solve a fixed point problem in an appropriate Banach space. The uniqueness domain we obtain consists then of the model parameters z and β for which such a problem has exactly one solution. Finally, we explore further the question of uniqueness of infinite-volume Gibbs point processes on R^d, in the unmarked setting. We present, in the context of repulsive interactions with a hard-core component, a novel approach to uniqueness by applying the discrete Dobrushin criterion to the continuum framework. We first fix a discretisation parameter a>0 and then study the behaviour of the uniqueness domain as a goes to 0. With this technique we are able to obtain explicit thresholds for the parameters z and β, which we then compare to existing results coming from the different methods of cluster expansion and disagreement percolation. Throughout this thesis, we illustrate our theoretical results with various examples both from classical statistical mechanics and stochastic geometry. N2 - Diese Arbeit konzentriert sich auf die Untersuchung von markierten Gibbs-Punkt-Prozessen und stellt insbesondere einige Ergebnisse zu deren Existenz und Eindeutigkeit vor. Dabei werden Ideen und Techniken aus verschiedenen Bereichen der statistischen Mechanik verwendet: die Entropie-Methode aus der Theorie der großen Abweichungen, die Cluster-Expansion und die Kirkwood-Salsburg-Gleichungen, das Dobrushin-Kontraktionsprinzip und die Disagreement-Perkolation. Wir präsentieren zunächst ein Existenzergebnis für unendlich-volumige markierte Gibbs-Punkt-Prozesse. Genauer gesagt verwenden wir die sogenannte Entropie-Methode (und Werkzeuge der großen Abweichung), um markierte Gibbs-Punkt-Prozesse in R^d unter möglichst allgemeinen Annahmen zu konstruieren. Insbesondere gehören die zufälligen Markierungen zu einem allgemeinen normierten Raum und sind nicht beschränkt. Außerdem lassen wir Interaktionsfunktionale zu, die unbeschränkt sein können und deren Reichweite endlich, aber zufällig ist. Die Entropie-Methode beruht darauf, zu zeigen, dass eine Familie von endlich-volumigen Gibbs-Punkt-Prozessen zu sequentiell kompakten Entropie-Niveau-Mengen gehört, und daher dicht ist. Wir stellen dann unendlich-dimensionale Langevin-Diffusionen vor, die wir über eine Gibbssche Beschreibung in Wechselwirkung setzen. In dieser Umgebung sind wir in der Lage, das vorangehend vorgestellte allgemeine Ergebnis anzupassen, um die Existenz des zugehörigen unendlich-dimensionalen Maßes zu zeigen. Wir untersuchen auch seine Korrelationsfunktionen über Cluster-Expansions Techniken und erhalten die Eindeutigkeit des Gibbs-Prozesses für alle inversen Temperaturen β und Aktivitäten z unterhalb einer bestimmten Schwelle. Diese Methode beruht darauf, zunächst zu zeigen, dass die Korrelationsfunktionen des Prozesses eine so genannte Ruelle-Schranke erfüllen, um diese dann zur Lösung eines Fixpunktproblems in einem geeigneten Banach-Raum zu verwenden. Der Eindeutigkeitsbereich, den wir erhalten, wird dann aus den Modellparametern z und β definiert, für die ein solches Problem genau eine Lösung hat. Schließlich untersuchen wir die Frage nach der Eindeutigkeit von unendlich-volumigen Gibbs-Punkt-Prozessen auf R^d im unmarkierten Fall weiter. Im Zusammenhang mit repulsiven Wechselwirkungen basierend auf einer Hartkernkomponente stellen wir einen neuen Ansatz zur Eindeutigkeit vor, indem wir das diskrete Dobrushin-Kriterium im kontinuierlichen Rahmen anwenden. Wir legen zunächst einen Diskretisierungsparameter a>0 fest und untersuchen dann das Verhalten des Bereichs der Eindeutigkeit, wenn a gegen 0 geht. Mit dieser Technik sind wir in der Lage, explizite Schwellenwerte für die Parameter z und β zu erhalten, die wir dann mit bestehenden Ergebnissen aus den verschiedenen Methoden der Cluster-Expansion und der Disagreement-Perkolation vergleichen. In dieser Arbeit illustrieren wir unsere theoretischen Ergebnisse mit verschiedenen Beispielen sowohl aus der klassischen statistischen Mechanik als auch aus der stochastischen Geometrie. KW - marked Gibbs point processes KW - Langevin diffusions KW - Dobrushin criterion KW - Entropy method KW - Cluster expansion KW - Kirkwood--Salsburg equations KW - DLR equations KW - Markierte Gibbs-Punkt-Prozesse KW - Entropiemethode KW - Cluster-Expansion KW - DLR-Gleichungen KW - Dobrushin-Kriterium KW - Kirkwood-Salsburg-Gleichungen KW - Langevin-Diffusions Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-512775 ER - TY - THES A1 - Zarafshani, Zoya T1 - Chain-end functionalization and modification of polymers using modular chemical reactions T1 - Ketten-Ende Funktionalisierung und Modifikation von Polymeren mittels modulare chemischen Reaktionen N2 - Taking advantage of ATRP and using functionalized initiators, different functionalities were introduced in both α and ω chain-ends of synthetic polymers. These functionalized polymers could then go through modular synthetic pathways such as click cycloaddition (copper-catalyzed or copper-free) or amidation to couple synthetic polymers to other synthetic polymers, biomolecules or silica monoliths. Using this general strategy and designing these co/polymers so that they are thermoresponsive, yet bioinert and biocompatible with adjustable cloud point values (as it is the case in the present thesis), the whole generated system becomes "smart" and potentially applicable in different branches. The applications which were considered in the present thesis were in polymer post-functionalization (in situ functionalization of micellar aggregates with low and high molecular weight molecules), hydrophilic/hydrophobic tuning, chromatography and bioconjugation (enzyme thermoprecipitation and recovery, improvement of enzyme activity). Different α-functionalized co/polymers containing cholesterol moiety, aldehyde, t-Boc protected amine, TMS-protected alkyne and NHS-activated ester were designed and synthesized in this work. N2 - In dieser Arbeit wurden mittels der ATRP Methode sowie durch Benutzung funktioneller Initiatoren verschiedene Funktionalitäten an der α- und ω-Position der synthetischen Polymere (Kettenenden) eingeführt. Diese funktionalisierten Polymere können durch modulare synthetische Methoden wie z.B. die “Klick-Zykloaddition” (kupferkatalysiert oder auch kupferfreie Methoden möglich), Amidierung mit anderen synthetischen Polymeren oder Biomolekülen, oder auch mit Silikatmonolithen gekuppelt werden. Den beschriebenen Strategien folgend und unter Benutzung von thermoresponsiven, bioinerten und biokompartiblen (Co-) Polymeren mit einstellbaren Trübungspunkten können mittels Temperaturänderungen leicht steuerbare, „smarte“ Polymersysteme für verschiedene Anwendungen hergestellt werden. Im Rahmen dieser Arbeit wurden speziell Anwendungen wie die Postfunktionalisierung (in situ Funktionalisierung mizellarer Aggregate mit Molekülen, die sowohl niedrige als auch höhere Molekulargewichte aufweisen), hydrophiles/hydrophobes Tuning von Polymeren, Chromatographie an Polymeren sowie Biokonjugation von Polymeren (Enzymthermoprezipitation und -Gewinnung, Enzymaktivitätsmodifizierung) genauer untersucht. Es wurden verschiedene α-funktionalisierte (Co-)Polymere, die Cholesterol, Aldehyde, t-Boc geschützte Amine, TMS-geschützte Alkine und NHS-aktivierte Ester entwickelt und hergestellt und mittels passender ATRP Initiatoren eingeführt. KW - Atom Transfer Radical Polymerization KW - Klick-Chemie KW - Biokonjugation KW - Funktionalisierung KW - Modifizierung von Polymeren KW - ATRP KW - Click chemistry KW - Bioconjugation KW - Functionalization KW - Polymer Modification Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-59723 ER - TY - THES A1 - Zapata, Sebastian Henao T1 - Paleozoic to Pliocene evolution of the Andean retroarc between 26 and 28°S: interactions between tectonics, climate, and upper plate architecture T1 - Paläozoische bis pliozäne Entwicklung des andinen Randbeckens zwischen 26 und 28° Süd: Interaktion von Tektonik, Klima und Architektur der kontinentalen Kruste BT - interactions between tectonics, climate, and upper plate architecture N2 - Interactions and feedbacks between tectonics, climate, and upper plate architecture control basin geometry, relief, and depositional systems. The Andes is part of a longlived continental margin characterized by multiple tectonic cycles which have strongly modified the Andean upper plate architecture. In the Andean retroarc, spatiotemporal variations in the structure of the upper plate and tectonic regimes have resulted in marked along-strike variations in basin geometry, stratigraphy, deformational style, and mountain belt morphology. These along-strike variations include high-elevation plateaus (Altiplano and Puna) associated with a thin-skin fold-and-thrust-belt and thick-skin deformation in broken foreland basins such as the Santa Barbara system and the Sierras Pampeanas. At the confluence of the Puna Plateau, the Santa Barbara system and the Sierras Pampeanas, major along-strike changes in upper plate architecture, mountain belt morphology, basement exhumation, and deformation style can be recognized. I have used a source to sink approach to unravel the spatiotemporal tectonic evolution of the Andean retroarc between 26 and 28°S. I obtained a large low-temperature thermochronology data set from basement units which includes apatite fission track, apatite U-Th-Sm/He, and zircon U-Th/He (ZHe) cooling ages. Stratigraphic descriptions of Miocene units were temporally constrained by U-Pb LA-ICP-MS zircon ages from interbedded pyroclastic material. Modeled ZHe ages suggest that the basement of the study area was exhumed during the Famatinian orogeny (550-450 Ma), followed by a period of relative tectonic quiescence during the Paleozoic and the Triassic. The basement experienced horst exhumation during the Cretaceous development of the Salta rift. After initial exhumation, deposition of thick Cretaceous syn-rift strata caused reheating of several basement blocks within the Santa Barbara system. During the Eocene-Oligocene, the Andean compressional setting was responsible for the exhumation of several disconnected basement blocks. These exhumed blocks were separated by areas of low relief, in which humid climate and low erosion rates facilitated the development of etchplains on the crystalline basement. The exhumed basement blocks formed an Eocene to Oligocene broken foreland basin in the back-bulge depozone of the Andean foreland. During the Early Miocene, foreland basin strata filled up the preexisting Paleogene topography. The basement blocks in lower relief positions were reheated; associated geothermal gradients were higher than 25°C/km. Miocene volcanism was responsible for lateral variations on the amount of reheating along the Campo-Arenal basin. Around 12 Ma, a new deformational phase modified the drainage network and fragmented the lacustrine system. As deformation and rock uplift continued, the easily eroded sedimentary cover was efficiently removed and reworked by an ephemeral fluvial system, preventing the development of significant relief. After ~6 Ma, the low erodibility of the basement blocks which began to be exposed caused relief increase, leading to the development of stable fluvial systems. Progressive relief development modified atmospheric circulation, creating a rainfall gradient. After 3 Ma, orographic rainfall and high relief lead to the development of proximal fluvial-gravitational depositional systems in the surrounding basins. N2 - Die Wechselwirkungen zwischen Tektonik, Klima und dem Aufbau der Oberkruste beeinflussen Relief, Beckengeometrien und sedimentäre Systeme. Die geologische Geschichte der Anden ist durch wiederkehrende tektonische Zyklen gekennzeichnet, die nachhaltig den Aufbau der umliegenden Oberkruste geprägt haben. Im Vorlandbecken der Anden (Retro-Arc Typus) führten räumlich und zeitlich variierende strukturgeologische Prozesse in der Oberkruste zu diversen Beckengeometrien, Deformationsvorgängen, sowie stratigraphische und geomorphologische Markern entlang des Streichens des Hochgebirgszuges. Die räumliche Variation beinhaltet unter anderem Hochgebirgsplateaus wie dem Altiplano oder der Puna, die jeweils mit dem thin-skin Aufschiebungsgürtel oder der thick-skin Deformation des zerbrochenen Vorlands im Santa-Barbara-System, bzw. der Sierras Pampeanas assoziiert werden. Besonders am Tripelpunkt zwischen der Puna Plateau, dem Santa-Barbara-System und der Sierras Pampeanas werden deutliche Veränderungen in der Oberkrustenarchitektur, der Oberflächenbeschaffenheit, der dominierenden Deformationsprozesse und der Heraushebung des Grundgebirges ersichtlich. Ich habe einen Quelle-zu-Senke Ansatz genutzt, um die räumliche und zeitliche tektonische Entwicklung der zentralen Ostanden zwischen 26° und 28°S aufzudecken. Dabei habe ich einen umfangreichen Niedertemperaturdatensatz aus Gesteinen des Grundgebirges gewonnen, welche folgende Methoden mit einschließen: Apatit Spaltspur Methode (apatite fission Track, AFT), Apatit U-Th-Sm/He (AHe), und Zirkon U-Th/He (Zhe) Abkühlalter. Für die stratigraphische Besprechung und die exakte Altersbestimmung der Einheiten des Miozäns wurden U-Pb ICP-MS-LA Zirkonalter aus pyroklastisch zwischengelagerten Materialien genutzt. Die modellierten ZHe Altersdatierungen legen den Schluss nahe, dass das Grundgebirge im Untersuchungsgebiet während der Famatinischen Orogenese (vor 550-450 Ma) herausgehoben wurde, woraufhin im Paläozoikum und dem Trias eine Phase von tektonischer Ruhe folgte. Während der Kreide und dem einsetzenden Salta Rift wurde das Grundgebirge in Form von Horststrukturen freigelegt. Nach der ersten Freilegung wurden einige Grundgebirgsblöcke wieder erwärmt durch die rift-parallele Grabenverfüllung im Santa-Barbara-System. Während dem Eozän und dem Oligozän ist der Übergang in ein kompressives Stressregime verantwortlich für die Heraushebung mehrerer losgelöster Grundgebirgszüge. Diese freigelegten Blöcke entstanden zeitgleich wie Gebiete mit flachem Relief, wo feuchtes Klima und geringe Erosionsraten die Herausbildung von „etchplains“ im kristallinem Grundgebirge ermöglichen. Weiterhin durchbrechen diese Gebirgsblöcke das Vorlandbecken, welches sich im Depozentrum des back-bulges der Anden herausgebildet hat. Während des frühen Miozäns füllten Vorlandbeckensedimente die vorher vorhandene paläogene Topographie. Die Grundgebirgsblöcke mit niedrigem Relief wurden wieder erwärmt und wiesen einen Temperaturgradienten von mehr als 25°C/km auf. Der Vulkanismus im Miozän war verantwortlich für laterale Variationen der Intensität der erneuten Erwärmung innerhalb des Campo-Arenal Beckens. Vor etwa 12 Ma modifizierte eine neue Deformationsphase das Abflussnetz und zerstückelte das lakustrische System. Während die Deformation und die Gebirgsbildung anhielt, wurden überlagernde Sedimentschichten einfach erodiert, effizient beseitigt und durch fluviale Prozesse umgelagert, die die weitere Herausbildung von Relief verhinderten. Nach ~6 Ma ermöglichte die geringe Erodierbarkeit des Grundgebirges deren Reliefzunahme, wodurch sich stabile fluviale Systeme herausbildeten. Möglicherweise unterbrach die fortschreitende Reliefzunahme atmosphärische Zirkulationsprozesse, sodass sich laterale Niederschlagsgradienten ausbildeten. Nach 3 Ma führten orographische Niederschlagsbarrieren zu der Entwicklung von nahe liegenden fluvial-gravitationalen Ablagerungssystemen in den umliegenden Becken. KW - climate KW - tectonics KW - Andes KW - inherited structures KW - Klima KW - Tektonik KW - Anden KW - ererbte Strukturen Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-439036 ER - TY - THES A1 - Zamora-López, Gorka T1 - Linking structure and function of complex cortical networks T1 - Analyse der Struktur-Funktions-Beziehungen komplexer kortikaler Netzwerke N2 - The recent discovery of an intricate and nontrivial interaction topology among the elements of a wide range of natural systems has altered the manner we understand complexity. For example, the axonal fibres transmitting electrical information between cortical regions form a network which is neither regular nor completely random. Their structure seems to follow functional principles to balance between segregation (functional specialisation) and integration. Cortical regions are clustered into modules specialised in processing different kinds of information, e.g. visual or auditory. However, in order to generate a global perception of the real world, the brain needs to integrate the distinct types of information. Where this integration happens, nobody knows. We have performed an extensive and detailed graph theoretical analysis of the cortico-cortical organisation in the brain of cats, trying to relate the individual and collective topological properties of the cortical areas to their function. We conclude that the cortex possesses a very rich communication structure, composed of a mixture of parallel and serial processing paths capable of accommodating dynamical processes with a wide variety of time scales. The communication paths between the sensory systems are not random, but largely mediated by a small set of areas. Far from acting as mere transmitters of information, these central areas are densely connected to each other, strongly indicating their functional role as integrators of the multisensory information. In the quest of uncovering the structure-function relationship of cortical networks, the peculiarities of this network have led us to continuously reconsider the stablished graph measures. For example, a normalised formalism to identify the “functional roles” of vertices in networks with community structure is proposed. The tools developed for this purpose open the door to novel community detection techniques which may also characterise the overlap between modules. The concept of integration has been revisited and adapted to the necessities of the network under study. Additionally, analytical and numerical methods have been introduced to facilitate understanding of the complicated statistical interrelations between the distinct network measures. These methods are helpful to construct new significance tests which may help to discriminate the relevant properties of real networks from side-effects of the evolutionary-growth processes. N2 - Die jüngste Entdeckung einer komplexen und nicht-trivialen Interaktionstopologie zwischen den Elementen einer großen Anzahl natürlicher Systeme hat die Art und Weise verändert, wie wir Komplexität verstehen. So bilden zum Beispiel die Nervenfasern, welche Informationen zwischen Regionen des Kortex übermitteln, ein Netzwerk, das weder vollkommen regelmäßig noch völlig zufallig ist. Die Struktur dieser Netzwerke scheint Funktionsprinzipien zu folgen, die ein Gleichgewicht zwischen Segregation (funktionale Spezialisierung) und Integration (Verarbeitung von Informationen) halten. Die Regionen des Kortex sind in Module gegliedert, welche auf die Verarbeitung unterschiedlicher Arten von Informationen, wie beispielsweise Visuelle oder Auditive, spezialisiert sind. Um eine umfassende Vorstellung von der Realität zu erzeugen, muss das Gehirn verschiedene Informationsarten kombinieren (integrieren). Wo diese Integration jedoch geschieht, ist noch ungeklärt. In dieser Dissertation wurde eine weitreichende und detaillierte graphen- theoretische Analyse der kortiko-kortikalen Organisation des Katzengehirns durchgeführt. Dabei wurde der Versuch unternommen, individuelle sowie kollektive topologische Eigenschaften der Kortexareale zu ihrer Funktion in Beziehung zu setzen. Aus der Untersuchung wird geschlussfolgert, dass der Kortex eine äußerst reichhaltige Kommunikationsstruktur aufweist, die aus einer Mischung von parallelen und seriellen übertragungsbahnen besteht, die es ermöglichen dynamische Prozesse auf vielen verschiedenen Zeitskalen zu tragen. Die Kommunikationsbahnen zwischen den sensorischen Systemen sind nicht zufällig verteilt, sondern verlaufen fast alle durch eine geringe Anzahl von Arealen. Diese zentralen Areale agieren nicht allein als übermittler von Informationen. Sie sind dicht untereinander verbunden, was auf ihre Funktion als Integrator hinweist. Bei der Analyse der Struktur-Funktions-Beziehungen kortikaler Netzwerke wurden unter Berucksichtigung der Besonderheiten des untersuchten Netzwerkes die bisher verwandten Graphenmaße überdacht und zum Teil überarbeitet. So wurde beispielsweise ein normalisierter Formalismus vorgeschlagen, um die funktionalen Rollen der Knoten in Netzwerken mit einer Community-Struktur zu identifizieren. Die für diesen Zweck entwickelten Werkzeuge ermöglichen neue Methoden zur Erkennung dieser Strukturen, die möglicherweise auch die überlappung von Modulen beschreiben. Das Konzept der Integration wurde revidiert und den Bedürfnissen des untersuchten Netzwerkes angepasst. Außerdem wurden analytische und numerische Methoden eingeführt, um das Verständnis des komplizierten statistischen Zusammenhangs zwischen den verschiedenen Netzwerkmaßen zu erleichtern. Diese Methoden sind hilfreich für die Konstruktion neuer Signifikanztests, die relevante Eigenschaften realer Netzwerke von Nebeneffekten ihrer evolutionären Wachstumsprozesse unterscheiden können. KW - komplexe Netzwerke KW - kortikale Netzwerke KW - complex networks KW - cortical networks Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-52257 ER - TY - THES A1 - Zamagni, Jessica T1 - Responses of a shallow-water ecosystem to the early Paleogene greenhouse environmental conditions : evolution of Larger Foraminifera and coral communities from the Northern Tethys T1 - Veränderte Entwicklungen von Flachwasser-Ökosystemen im Bezug auf die Umweltbedingungen des Treibhaus-Klimas des frühen Paläogens : Evolution der Groß-Foraminiferen und Korallen-Gemeinschaften in der nördlichen Tethys N2 - Modern anthropogenic forcing of atmospheric chemistry poses the question of how the Earth System will respond as thousands of gigatons of greenhouse gas are rapidly added to the atmosphere. A similar, albeit nonanthropogenic, situation occurred during the early Paleogene, when catastrophic release of carbon to the atmosphere triggered abrupt increase in global temperatures. The best documented of these events is the Paleocene-Eocene Thermal Maximum (PETM, ~55 Ma) when the magnitude of carbon addition to the oceans and atmosphere was similar to those expected for the future. This event initiated global warming, changes in hydrological cycles, biotic extinction and migrations. A recently proposed hypothesis concerning changes in marine ecosystems suggests that this global warming strongly influenced the shallow-water biosphere, triggering extinctions and turnover in the Larger Foraminifera (LF) community and the demise of corals. The successions from the Adriatic Carbonate Platform (SW Slovenia) represent an ideal location to test the hypothesis of a possible causal link between the PETM and evolution of shallow-water organisms because they record continuous sedimentation from the Late Paleocene to the Early Eocene and are characterized by a rich biota, especially LF, fundamental for detailed biostratigraphic studies. In order to reconstruct paleoenvironmental conditions during deposition, I focused on sedimentological analysis and paleoecological study of benthic assemblages. During the Late Paleocene-earliest Eocene, sedimentation occurred on a shallow-water carbonate ramp system characterized by enhanced nutrient levels. LF represent the common constituent of the benthic assemblages that thrived in this setting throughout the Late Paleocene to the Early Eocene. With detailed biostratigraphic and chemostratigraphic analyses documenting the most complete record to date available for the PETM event in a shallow-water marine environment, I correlated chemostratigraphically for the first time the evolution of LF with the δ¹³C curves. This correlation demonstrated that no major turnover in the LF communities occurred synchronous with the PETM; thus the evolution of LF was mainly controlled by endogenous biotic forces. The study of Late Thanetian metric-sized microbialite-coral mounds which developed in the middle part of the ramp, documented the first Cenozoic occurrence of microbially-cemented mounds. The development of these mounds, with temporary dominance of microbial communities over corals, suggest environmentally-triggered “phase shifts” related to frequent fluctuations of nutrient/turbidity levels during recurrent wet phases which preceding the extreme greenhouse conditions of the PETM. The paleoecological study of the coral community in the microbialites-coral mounds, the study of corals from Early Eocene platform from SW France, and a critical, extensive literature research of Late Paleocene – Early Eocene coral occurrences from the Tethys, the Atlantic, the Caribbean realms suggested that these corals types, even if not forming extensive reefs, are common in the biofacies as small isolated colonies, piles of rubble or small patch-reefs. These corals might have developed ‘alternative’ life strategies to cope with harsh conditions (high/fluctuating nutrients/turbidity, extreme temperatures, perturbation of aragonite saturation state) during the greenhouse times of the early Paleogene, representing a good fossil analogue to modern corals thriving close to their thresholds for survival. These results demonstrate the complexity of the biological responses to extreme conditions, not only in terms of temperature but also nutrient supply, physical disturbance and their temporal variability and oscillating character. N2 - Die anthropogene Beeinflussung der Chemie der Atmosphäre in der modernen Zeit wirft die Frage nach dem Schicksal des Systems Erde auf, wenn tausende von Tonnen an Treibhausgasen in kurzer Zeit in die Atmosphäre einströmen. Im Känozoikum trat bereits eine ähnliche Situation während des frühen Paläogens auf, als eine katastrophale Freisetzung von Kohlenstoff in die Atmosphäre einen plötzlichen Anstieg der globalen Temperatur hervorrief. Das am besten dokumentierte dieser Ereignisse stellt das Paläozän-Eozäne Temperatur Maximum (PETM, ~55 Ma) dar, bei welchem die Größenordnung der Kohlenstoffzufuhr in Ozeanen und Atmosphäre jener ähnelte, die in der Zukunft zu erwarten ist. Das damalige Ereignis initiierte eine globale Erwärmung, Veränderungen hydrologischer Kreisläufe, biotische Auslöschung und Abwanderungen. Eine kürzlich veröffentlichte Hypothese zu Veränderungen in marinen Ökosystemen postuliert, dass diese globale Erwärmung die Biosphäre der Flachwässer stark beeinflusste, indem sie Aussterben und Fluktuation innerhalb der Gemeinschaft der Großforaminiferen (GF) sowie den Niedergang einiger Korallen bewirkte. Die Abfolgen der Adriatischen Karbonatplattform (SW-Slovenien) stellen einen idealen Ort dar, um die Hypothese des kausalen Zusammenhangs zwischen dem PETM und der Evolution der Flachwasserorganismen zu überprüfen, da sie aufgrund ihrer kontinuierlichen Sedimentation vom Spätpaläozän bis zum Früheozän und ihres Reichtums an Biota, insbesondere an GF, fundamentale Voraussetzungen für eine detaillierte biostratigraphische Studie erfüllen. Um die Paläoumweltbedingungen während der Sedimentablagerung zu rekonstruieren, wurde der Schwerpunkt dieser Arbeit auf eine sedimentologische Analyse und eine paäoökologische Studie benthischer Vergesellschaftungen gesetzt. Während dem Spätpaläozan bis zum frühesten Eozän fand die Sedimentation auf einem Flachwasser-Rampensystem statt, welches durch ein erhöhtes Nährstoffangebot gekennzeichnet war. GF stellen jenen häufigen und verbreiteten Bestandteil der benthischen Vergesellschaftungen dar, welcher in dieser Umgebung durch das Spätpaläozän hindurch bis ins Früheozän gedeihen konnte. Mit den in dieser Arbeit vorgestellten detaillierten bio- und chemostratigraphischen Analysen, deren Dokumentation den zur Zeit vollständigsten Datensatz für das PETM-Ereignis in einem flachmarinen Milieu repräsentieren, wurde die Evolution der GF zum ersten Mal mit δ¹³C -Kurven chemostratigraphisch korreliert. Diese Korrelation zeigte, dass in den GF-Gemeinschaften keine großmaßstäbliche Fluktuation zeitgleich mit dem PETM auftrat, und dass daher die Evolution der GF hauptsächlich durch endogene biotische Einflüsse kontrolliert worden sein muss. Die Studie mikrobiell-überkrustete Korallenhügel im Größenbereich zwischen einigen Metern und einigen Zehnermetern, die sich im Spätthanetium im mittleren Teil der Rampe entwickelten, dokumentiert das erste Auftreten mikrobiell-zementierter Erhebungen während des Känozoikums. Die Entwicklung dieser Erhebungen, mit einer zeitweiligen Dominanz der mikrobiellen Gemeinschaften gegenüber den Korallen, spricht für ein Auftreten Umwelt-gesteuerter "Phasenverschiebungen" im Zusammenhang mit häufigen Wechseln von Nahrungsangebot und Trübung während wiederkehrender nasser Phasen, welche dem extremen Treibhaus der PETM vorausgingen. Die paläoökologische Studie der Korallen-Gemeinschaften in den mikrobiell-überkrusteten Korallenhügeln, die Studie der Korallen der früheozänen Plattform in SW-Frankreich sowie eine kritische, ausgedehnte Literaturrecherche zum Auftreten spätpaläozäner bis früheozäner Korallen in der Tethys, im Atlantik und in der Karibik sprechen dafür, dass diese Korallentypen – selbst wenn sie nicht ausgedehnte Riffe formen – in der Biofazies häufig als kleine isolierte Kolonien, Berge von Geröll oder kleine Kuppelriffe auftreten. Diese Korallen könnten 'alternative' Überlebensstrategien entwickelt haben, um mit den rauen Bedingungen (hohes/wechselndes Nahrungsangebot, schwache/starke Trübung, schwankende Temperaturen, häufige physikalische Störungen) fertig zu werden, die während den Zeiten des paläogenen Treibhauses vorherrschten, und stellen damit ein gutes fossiles Analog zu modernen Korallen dar, welche nahe an ihrer Überlebensgrenze gedeihen. Diese Ergebnisse zeigen die Komplexität der biologischen Reaktionen auf extreme Bedingungen, nicht nur im Hinblick auf Temperaturen, sondern auch hinsichtlich Nahrungsangebot, physikalische Beeinträchtigungen sowie deren zeitliche Schwankungen und deren oszillierenden Charakter. KW - Paläoökologie KW - Paläoklimatologie KW - Flachwassercarbonate KW - Foraminifera KW - Korallen KW - paleoecology KW - paleoclimatology KW - shallow-water carbonates KW - foraminifera KW - corals Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-31853 ER - TY - THES A1 - Zali, Zahra T1 - Volcanic tremor analysis based on advanced signal processing concepts including music information retrieval (MIR) strategies N2 - Volcanoes are one of the Earth’s most dynamic zones and responsible for many changes in our planet. Volcano seismology aims to provide an understanding of the physical processes in volcanic systems and anticipate the style and timing of eruptions by analyzing the seismic records. Volcanic tremor signals are usually observed in the seismic records before or during volcanic eruptions. Their analysis contributes to evaluate the evolving volcanic activity and potentially predict eruptions. Years of continuous seismic monitoring now provide useful information for operational eruption forecasting. The continuously growing amount of seismic recordings, however, poses a challenge for analysis, information extraction, and interpretation, to support timely decision making during volcanic crises. Furthermore, the complexity of eruption processes and precursory activities makes the analysis challenging. A challenge in studying seismic signals of volcanic origin is the coexistence of transient signal swarms and long-lasting volcanic tremor signals. Separating transient events from volcanic tremors can, therefore, contribute to improving our understanding of the underlying physical processes. Some similar issues (data reduction, source separation, extraction, and classification) are addressed in the context of music information retrieval (MIR). The signal characteristics of acoustic and seismic recordings comprise a number of similarities. This thesis is going beyond classical signal analysis techniques usually employed in seismology by exploiting similarities of seismic and acoustic signals and building the information retrieval strategy on the expertise developed in the field of MIR. First, inspired by the idea of harmonic–percussive separation (HPS) in musical signal processing, I have developed a method to extract harmonic volcanic tremor signals and to detect transient events from seismic recordings. This provides a clean tremor signal suitable for tremor investigation along with a characteristic function suitable for earthquake detection. Second, using HPS algorithms, I have developed a noise reduction technique for seismic signals. This method is especially useful for denoising ocean bottom seismometers, which are highly contaminated by noise. The advantage of this method compared to other denoising techniques is that it doesn’t introduce distortion to the broadband earthquake waveforms, which makes it reliable for different applications in passive seismological analysis. Third, to address the challenge of extracting information from high-dimensional data and investigating the complex eruptive phases, I have developed an advanced machine learning model that results in a comprehensive signal processing scheme for volcanic tremors. Using this method seismic signatures of major eruptive phases can be automatically detected. This helps to provide a chronology of the volcanic system. Also, this model is capable to detect weak precursory volcanic tremors prior to the eruption, which could be used as an indicator of imminent eruptive activity. The extracted patterns of seismicity and their temporal variations finally provide an explanation for the transition mechanism between eruptive phases. N2 - Vulkane gehören zu den dynamischsten Zonen der Erde und sind für viele Veränderungen auf unserem Planeten verantwortlich. Die Vulkanseismologie zielt darauf ab, physikalischen Prozesse in Vulkansystemen besser zu verstehen und die Art und den Zeitpunkt von Eruptionen durch die Analyse der seismischen Aufzeichnungen vorherzusagen. Die Signale vulkanischer Tremore werden normalerweise vor oder während Vulkanausbrüchen beobachtet und müssen überwacht werden, um die vulkanische Aktivität zu bewerten. Die Untersuchung vulkanischer Tremore ist ein wichtiger Teil der Vulkanüberwachung, die darauf abzielt, Anzeichen für das Erwachen oder Wiedererwachen von Vulkanen zu erkennen und möglicherweise Ausbrüche vorherzusagen. Mehrere Dekaden kontinuierlicher seismischer Überwachung liefern nützliche Informationen für die operative Eruptionsvorhersage. Die ständig wachsende Menge an seismischen Aufzeichnungen stellt jedoch eine Herausforderung für die Analyse, Informationsextraktion und Interpretation für die zeitnahe Entscheidungsfindung während Vulkankrisen dar. Darüber hinaus erschweren die Komplexität der Eruptionsprozesse und Vorläuferaktivitäten die Analyse. Eine Herausforderung bei der Untersuchung seismischer Signale vulkanischen Ursprungs ist die Koexistenz von transienten Signalschwärmen und lang anhaltenden vulkanischen Tremoren. Die Trennung dieser beiden Signaltypen kann daher dazu beitragen, unser Verständnis der zugrunde liegenden physikalischen Prozesse zu verbessern. Einige ähnliche Probleme (Datenreduktion, Quellentrennung, Extraktion und Klassifizierung) werden im Zusammenhang mit Music Information Retrieval (MIR, dt. Etwa Musik-Informationsabruf) behandelt. Die Signaleigenschaften von akustischen und seismischen Aufzeichnungen weisen eine Reihe von Gemeinsamkeiten auf. Ich gehe über die klassischen Signalanalysetechniken hinaus, die normalerweise in der Seismologie verwendet werden, indem ich die Ähnlichkeiten von seismischen und akustischen Signalen und das Fachwissen aus dem Gebiet der MIR zur Informationsgewinnung nutze. Inspiriert von der Idee der harmonisch-perkussiven Trennung (HPS) in der musikalischen Signalverarbeitung habe ich eine Methode entwickelt, mit der harmonische vulkanische Erschütterungssignale extrahiert und transiente Ereignisse aus seismischen Aufzeichnungen erkannt werden können. Dies liefert ein sauberes Tremorsignal für die Tremoruntersuchung, sowie eine charakteristischen Funktion, die für die Erdbebenerkennung geeignet ist. Weiterhin habe ich unter Verwendung von HPS-Algorithmen eine Rauschunterdrückungstechnik für seismische Signale entwickelt. Diese kann zum Beispiel verwendet werden, um klarere Signale an Meeresbodenseismometern zu erhalten, die sonst durch zu starkes Rauschen überdeckt sind. Der Vorteil dieser Methode im Vergleich zu anderen Denoising-Techniken besteht darin, dass sie keine Verzerrung in der Breitbandantwort der Erdbebenwellen einführt, was sie für verschiedene Anwendungen in der passiven seismologischen Analyse zuverlässiger macht. Um Informationen aus hochdimensionalen Daten zu extrahieren und komplexe Eruptionsphasen zu untersuchen, habe ich ein fortschrittliches maschinelles Lernmodell entwickelt, aus dem ein umfassendes Signalverarbeitungsschema für vulkanische Erschütterungen abgeleitet werden kann. Mit dieser Methode können automatisch seismische Signaturen größerer Eruptionsphasen identifizieren werden. Dies ist nützlich, um die Chronologie eines Vulkansystems zu verstehen. Außerdem ist dieses Modell in der Lage, schwache vulkanische Vorläuferbeben zu erkennen, die als Indikator für bevorstehende Eruptionsaktivität verwendet werden könnten. Basierend auf den extrahierten Seismizitätsmustern und ihren zeitlichen Variationen liefere ich eine Erklärung für den Übergangsmechanismus zwischen verschiedenen Eruptionsphasen. KW - seismic signal processing KW - machine learning KW - volcano seismology KW - music information retrieval KW - noise reduction Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610866 ER - TY - THES A1 - Zakrevskyy, Yuriy T1 - Liquid crystallinity and alignment of ionic self-assembly complexes T1 - Flüssigkristallinität und Alignment ionischer Self-Assembly Komplexe N2 - In this work the first observation of new type of liquid crystals is presented. This is ionic self-assembly (ISA) liquid crystals formed by introduction of oppositely charged ions between different low molecular tectonic units. As practically all conventional liquid crystals consist of rigid core and alkyl chains the attention is focused to the simplest case where oppositely charged ions are placed between a rigid core and alkyl tails. The aim of this work is to investigate and understand liquid crystalline and alignment properties of these materials. It was found that ionic interactions within complexes play the main role. Presence of these interactions restricts transition to isotropic phase. In addition, these interactions hold the system (like network) allowing crystallization into a single domain from aligned LC state. Alignment of these simple ISA complexes was spontaneous on a glass substrate. In order to show potentials for application perylenediimide and azobenzene containing ISA complexes have been investigated for correlations between phase behavior and their alignment properties. The best results of macroscopic alignment of perylenediimide-based ISA complexes have been obtained by zone-casting method. In the aligned films the columns of the complex align perpendicular to the phase-transition front. The obtained anisotropy (DR = 18) is thermally stable. The investigated photosensitive (azobenzene-based) ISA complexes show formation of columnar LC phases. It was demonstrated that photo alignment of such complexes was very effective (DR = 50 has been obtained). It was shown that photo-reorientation in the photosensitive ISA complexes is cooperative process. The size of domains has direct influence on efficiency of the photo-reorientation process. In the case of small domains the photo-alignment is the most effective. Under irradiation with linearly polarized light domains reorient in the plane of the film leading to macroscopic alignment of columns parallel to the light polarization and joining of small domains into big ones. Finally, the additional distinguishable properties of the ISA liquid crystalline complexes should be noted: (I) the complexes do not solve in water but readily solve in organic solvents; (II) the complexes have good film-forming properties when cast or spin-coated from organic solvent; (III) alignment of the complexes depends on their structure and secondary interactions between tectonic units. N2 - In dieser Arbeit wird erstmalig eine neue Klasse von Flüssigkristallen auf Basis ionischer Self-Assembly (ISA) Komplexe beschrieben. Während herkömmliche thermotrope Flüssigkristalle aus steifen, formanisotropen Molekülfragmenten und kovalent gebundenen Flügelgruppen (meist Alkylketten) bestehen, entstehen diese neuartigen supramolekularen Verbindungen durch die Komplexierung gegensätzlich geladener ionischer tektonischer Einheiten und Tenside. Ziel der Arbeit war es, die flüssigkristallinen und insbesondere die Orientierungseigenschaften dieser neuen Materialien am Beispiel repräsentativer Modellverbindungen zu untersuchen. Es wurde nachgewiesen, dass die ionischen Wechselwirkungen die thermischen Eigenschaften der Verbindungen entscheidend beeinflussen. So behindern sie den Übergang in die isotrope Phase. Das System wird quasi durch ein Netzwerk ionischer Wechselwirkungen stabilisiert. Makroskopisch orientierte LC Zustände sind offensichtlich Ausgangspunkt für hochgeordnete flüssigkristalline Filme oder gar für die Kristallisation von Monodomänen. In speziellen Fällen erfolgt eine spontane Ausbildung von ISA Monodomänen bereits auf Glassubstraten. Mit Hinblick auf potentielle Anwendungen wurden Perylendiimid und Azobenzen enthaltene ISA Komplexe insbesondere hinsichtlich von Zusammenhängen zwischen Phasenverhalten und Orientierungseigenschaften untersucht. Die zone-casting Methode erwies sich als besonders geeignet für die makroskopische Orientierung perylendiimidbasierter ISA Komplexe. In orientierten Filmen richten sich die Kolumnen des Komplexes senkrecht zur Phasenübergangsfront aus. Das dabei erreichte dichroitische Verhältnis (DR=18) ist thermisch stabil. Die untersuchten Azobenzen basierten ISA Komplexe weisen kolumnare LC Phasen auf. Durch Photoalignment mittels linear polarisierten Lichts werden Komplexe sehr effektiv senkrecht bzw. die Columnen der Komplexe parallel zur Polarisation des Lichtes orientiert, wobei sehr hohe DR bis zu 50 erreicht wurden. Weiterhin wurde gezeigt, dass die Photo-Reorientierung photosensitiver ISA Komplexe kooperativ erfolgt. Die Größe der Domänen hat dabei einen entscheidenden Einfluß auf die Effektivität des Photo-Reorientierungsprozesses. So ist der Prozess im Fall kleiner Domänen effektiver. Durch die Bestrahlung mit linear polarisiertem Licht werden die Domänen in der Filmebene reorientiert, was zu einer makroskopischen Ausrichtung der Kolumnen parallel zur Lichtpolarisation und zu einer Vereinigung kleiner Domänen führt. KW - Flüssigkristall KW - ionischer Self-Assembly KW - Komplex KW - Alignment KW - Liquid crystal KW - Ionic Self-Assembly KW - Complex KW - Alignment Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-10048 ER - TY - THES A1 - Zakharova, Olga T1 - Analysis and modeling of transient earthquake patterns and their dependence on local stress regimes T1 - Analyse und Modellierung der transienten Erdbebenmuster und deren Abhängigkeit von lokalen Spannungsregimen N2 - Investigations in the field of earthquake triggering and associated interactions, which includes aftershock triggering as well as induced seismicity, is important for seismic hazard assessment due to earthquakes destructive power. One of the approaches to study earthquake triggering and their interactions is the use of statistical earthquake models, which are based on knowledge of the basic seismicity properties, in particular, the magnitude distribution and spatiotemporal properties of the triggered events. In my PhD thesis I focus on some specific aspects of aftershock properties, namely, the relative seismic moment release of the aftershocks with respect to the mainshocks; the spatial correlation between aftershock occurrence and fault deformation; and on the influence of aseismic transients on the aftershock parameter estimation. For the analysis of aftershock sequences I choose a statistical approach, in particular, the well known Epidemic Type Aftershock Sequence (ETAS) model, which accounts for the input of background and triggered seismicity. For my specific purposes, I develop two ETAS model modifications in collaboration with Sebastian Hainzl. By means of this approach, I estimate the statistical aftershock parameters and performed simulations of aftershock sequences as well. In the case of seismic moment release of aftershocks, I focus on the ratio of cumulative seismic moment release with respect to the mainshocks. Specifically, I investigate the ratio with respect to the focal mechanism of the mainshock and estimate an effective magnitude, which represents the cumulative aftershock energy (similar to Bath's law, which defines the average difference between mainshock and the largest aftershock magnitudes). Furthermore, I compare the observed seismic moment ratios with the results of the ETAS simulations. In particular, I test a restricted ETAS (RETAS) model which is based on results of a clock advanced model and static stress triggering. To analyze spatial variations of triggering parameters I focus in my second approach on the aftershock occurrence triggered by large mainshocks and the study of the aftershock parameter distribution and their spatial correlation with the coseismic/postseismic slip and interseismic locking. To invert the aftershock parameters I improve the modified ETAS (m-ETAS) model, which is able to take the extension of the mainshock rupture into account. I compare the results obtained by the classical approach with the output of the m-ETAS model. My third approach is concerned with the temporal clustering of seismicity, which might not only be related to earthquake-earthquake interactions, but also to a time-dependent background rate, potentially biasing the parameter estimations. Thus, my coauthors and I also applied a modification of the ETAS model, which is able to take into account time-dependent background activity. It can be applicable for two different cases: when an aftershock catalog has a temporal incompleteness or when the background seismicity rate changes with time, due to presence of aseismic forces. An essential part of any research is the testing of the developed models using observational data sets, which are appropriate for the particular study case. Therefore, in the case of seismic moment release I use the global seismicity catalog. For the spatial distribution of triggering parameters I exploit two aftershock sequences of the Mw8.8 2010 Maule (Chile) and Mw 9.0 2011 Tohoku (Japan) mainshocks. In addition, I use published geodetic slip models of different authors. To test our ability to detect aseismic transients my coauthors and I use the data sets from Western Bohemia (Central Europe) and California. Our results indicate that: (1) the seismic moment of aftershocks with respect to mainshocks depends on the static stress changes and is maximal for the normal, intermediate for thrust and minimal for strike-slip stress regimes, where the RETAS model shows a good correspondence with the results; (2) The spatial distribution of aftershock parameters, obtained by the m-ETAS model, shows anomalous values in areas of reactivated crustal fault systems. In addition, the aftershock density is found to be correlated with coseismic slip gradient, afterslip, interseismic coupling and b-values. Aftershock seismic moment is positively correlated with the areas of maximum coseismic slip and interseismically locked areas. These correlations might be related to the stress level or to material properties variations in space; (3) Ignoring aseismic transient forcing or temporal catalog incompleteness can lead to the significant under- or overestimation of the underlying trigger parameters. In the case when a catalog is complete, this method helps to identify aseismic sources. N2 - Untersuchungen im Bereich der Erdbebennukleation, sowie der Erdbebeninteraktion und induzierter Seismizität, sind wegen des enormen Zerstörungspotenzials von Erdbeben besonders wichtig für seismische Gefährdungsanalysen. In meiner Doktorarbeit fokussiere ich mich auf einige Eigenschaften von Nachbeben, insbesondere auf deren freigesetztes seismisches Moment in Relation zum Hauptbeben, die räumliche Korrelation zwischen der Nachbebenaktivität und der Deformationsgeschichte der Verwerfung und den Einfluss von aseismischen Transienten auf die Bestimmung von Nachbebenparametern. Ich habe einen statistischen Ansatz für die Analyse der Nachbebensequenzen gewählt. Das sogenannte Epidemic Type Aftershock Sequence (ETAS) Modell berücksichtigt sowohl Hintergrundseismizität als auch getriggerte Erdbebenaktivität. Für meine Zwecke habe ich zusammen mit Sebastian Hainzl zwei Modifikationen für dieses ETAS Modell entwickelt. Mittels dieser Ansätze habe ich die statistischen Parameter der Nachbebenaktivität bestimmt und Simulationen von Nachbebensequenzen durchgeführt. Im Falle des freigesetzten seismischen Moments von Nachbeben habe ich das Verhältnis des kummulativen Moments der Nachbeben in Bezug zum Hauptbeben untersucht. Im Speziellen betrachte ich das Verhältnis in Bezug auf den Herdmechanismus des Hauptbebens und bestimme eine effektive Magnitude, welche die kummulative Nachbebenenergie darstellt (ähnlich zu Bath's Gesetz, welches den durchschnittlichen Unterschied zwischen der Hauptbebenmagnitude und der Magnitude des größten Nachbebens beschreibt). Desweiteren vergleiche ich das Verhältnis des beobachteten seismischen Moments mit den Ergebnissen von ETAS-basierten Simulationen. Dabei teste ich ein Restricted ETAS (RETAS) Modell, welches auf den Resultaten eines Clock-Advance Modells und den durch das Hauptbeben ausgelösten statischen Spannungsänderungen basiert. Um die räumliche Variation der Trigger-Parameter zu analysieren, fokussiere ich mich in meinem zweiten Modellansatz auf das Auftreten von Nachbeben infolge von großen Hauptbeben, sowie die Verteilung von Nachbebenparametern und deren räumliche Korrelation mit ko-/post-seismischen Verschiebungen und inter-seismischer Verhakung. Zum Bestimmen der Nachbebenparameter habe ich ein modifiziertes ETAS (m-ETAS) Modell analysiert, welches die räumliche Ausdehnung des Hauptbebenbruches berücksichtigen kann. Ich vergleiche die Ergebnisse des klassischen Ansatzes mit denen des m-ETAS Modells. Mein dritter Versuch beschäftigt sich mit dem zeitlichen Clustern der Seismizität, welche nicht nur auf Erdbeben-Erdbeben-Interaktion zurückzuführen ist, sondern auch auf eine zeitabhängige Hintergrundrate, die die Parameterabschätzung verfälschen kann. Meine Koautoren und ich haben dem ETAS Modell darum eine weitere Modifikation hinzugefügt, welche in der Lage ist, eine zeitabhängige Hintergrundaktivität einzubeziehen. Dieses Modell kann auf zwei Fälle angewendet werden, einerseits wenn ein Erdbebenkatalog zeitlich unvollständig ist und andererzeits wenn sich die Hintergrundseismizität, durch Vorhandensein aseismischer Kräfte, zeitlich verändert. Ein wichtiger Teil dieser Forschung ist es die entwickelten Modelle anhand von beobachteten Daten zu testen. Darum benutze ich im Falle des freigesetzten seismischen Moments einen globalen Erdbebenkatalog. Zur Bestimmung der räumlichen Verteilung von Trigger-Parametern untersuche ich zwei Nachbebensequenzen, die des 2010er Maule (Chile) Mw8.8 Erdbebens und die des 2011er Tohoku (Japan) Mw9.0 Erdbebens. Zusätzlich benutze ich publizierte geodätische Verschiebungsmodelle verschiedener Autoren. Um die Detektionsfähigkeit für aseismische Transienten zu testen, benutzen meine Koautoren und ich Daten aus West-Böhmen (Zentraleuropa) und Kalifornien. Unsere Ergebnisse zeigen: (1) Das Verhältnis des kumulativen seismischen Moments der Nachbeben zum Hauptbeben ist von den statischen Spannungsänderung abhängig und ist maximal in Spannungsregimen dominiert von Abschiebungen, mittel für Überschiebungen und minimal für Blattverschiebungen, wobei das RETAS Modell eine gute Korrelation mit unseren Ergebnissen zeigt. (2) Die mit dem m-ETAS Modell erhaltene räumliche Verteilung von Nachbebenparametern zeigt ungewöhnliche Werte in Gebieten reaktivierter krustaler Verwerfungssysteme. Zusätzlich fanden wir heraus, dass die Nachbebendichte mit dem ko-seismischen Verschiebungsgradienten, Nachkriechen, inter-seismischer Kopplung und b-Werten korreliert. Das seismische Moment untersuchter Nachbeben ist positiv korreliert mit Bereichen maximaler koseismischer Verschiebungen und interseismisch blockierten Bereichen. Diese Korrelation könnte dem Spannungsniveau oder räumlicher Variation der Materialeigenschaften geschuldet sein. (3) Wenn man aseismische transiente Kräfte oder zeitliche Katalogunvollständigkeit ignoriert, kann das zu signifikantem Unter- oder Überschätzen der zugrunde liegenden Seismizitäts-Parametern führen. Im Fall eines kompletten Katalogs kann diese Methode helfen, aseismische Quellen zu identifizieren. KW - aftershocks KW - statistical seismology KW - transient earthquake patterns KW - ETAS model KW - uncertainty estimation KW - statistische Seismologie KW - Nachbeben KW - transiente Erdbebenmuster KW - ETAS Modell KW - Abschätzung der Unsicherheiten Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-86455 ER - TY - THES A1 - Zakariás, Lilla T1 - Transfer effects after working memory training in post-stroke aphasia T1 - Transfereffekte nach Arbeitsgedächtnistraining bei Aphasie nach Schlaganfall N2 - Background: Individuals with aphasia after stroke (IWA) often present with working memory (WM) deficits. Research investigating the relationship between WM and language abilities has led to the promising hypothesis that treatments of WM could lead to improvements in language, a phenomenon known as transfer. Although recent treatment protocols have been successful in improving WM, the evidence to date is scarce and the extent to which improvements in trained tasks of WM transfer to untrained memory tasks, spoken sentence comprehension, and functional communication is yet poorly understood. Aims: We aimed at (a) investigating whether WM can be improved through an adaptive n-back training in IWA (Study 1–3); (b) testing whether WM training leads to near transfer to unpracticed WM tasks (Study 1–3), and far transfer to spoken sentence comprehension (Study 1–3), functional communication (Study 2–3), and memory in daily life in IWA (Study 2–3); and (c) evaluating the methodological quality of existing WM treatments in IWA (Study 3). To address these goals, we conducted two empirical studies – a case-controls study with Hungarian speaking IWA (Study 1) and a multiple baseline study with German speaking IWA (Study 2) – and a systematic review (Study 3). Methods: In Study 1 and 2 participants with chronic, post-stroke aphasia performed an adaptive, computerized n-back training. ‘Adaptivity’ was implemented by adjusting the tasks’ difficulty level according to the participants’ performance, ensuring that they always practiced at an optimal level of difficulty. To assess the specificity of transfer effects and to better understand the underlying mechanisms of transfer on spoken sentence comprehension, we included an outcome measure testing specific syntactic structures that have been proposed to involve WM processes (e.g., non-canonical structures with varying complexity). Results: We detected a mixed pattern of training and transfer effects across individuals: five participants out of six significantly improved in the n-back training. Our most important finding is that all six participants improved significantly in spoken sentence comprehension (i.e., far transfer effects). In addition, we also found far transfer to functional communication (in two participants out of three in Study 2) and everyday memory functioning (in all three participants in Study 2), and near transfer to unpracticed n-back tasks (in four participants out of six). Pooled data analysis of Study 1 and 2 showed a significant negative relationship between initial spoken sentence comprehension and the amount of improvement in this ability, suggesting that the more severe the participants’ spoken sentence comprehension deficit was at the beginning of training, the more they improved after training. Taken together, we detected both near far and transfer effects in our studies, but the effects varied across participants. The systematic review evaluating the methodological quality of existing WM treatments in stroke IWA (Study 3) showed poor internal and external validity across the included 17 studies. Poor internal validity was mainly due to use of inappropriate design, lack of randomization of study phases, lack of blinding of participants and/or assessors, and insufficient sampling. Low external validity was mainly related to incomplete information on the setting, lack of use of appropriate analysis or justification for the suitability of the analysis procedure used, and lack of replication across participants and/or behaviors. Results in terms of WM, spoken sentence comprehension, and reading are promising, but further studies with more rigorous methodology and stronger experimental control are needed to determine the beneficial effects of WM intervention. Conclusions: Results of the empirical studies suggest that WM can be improved with a computerized and adaptive WM training, and improvements can lead to transfer effects to spoken sentence comprehension and functional communication in some individuals with chronic post-stroke aphasia. The fact that improvements were not specific to certain syntactic structures (i.e., non-canonical complex sentences) in spoken sentence comprehension suggest that WM is not involved in the online, automatic processing of syntactic information (i.e., parsing and interpretation), but plays a more general role in the later stage of spoken sentence comprehension (i.e., post-interpretive comprehension). The individual differences in treatment outcomes call for future research to clarify how far these results are generalizable to the population level of IWA. Future studies are needed to identify a few mechanisms that may generalize to at least a subpopulation of IWA as well as to investigate baseline non-linguistic cognitive and language abilities that may play a role in transfer effects and the maintenance of such effects. These may require larger yet homogenous samples. N2 - Patienten mit einer Aphasie nach einem Schlaganfall weisen häufig auch Beeinträchtigungen des Arbeitsgedächtnisses auf. Studien, die das Zusammenspiel von Arbeitsgedächtnis und Sprachfähigkeit untersuchen führten zu der Hypothese, dass ein Training des Arbeitsgedächtnisses auch zu Verbesserungen der Sprache führen könnten (sogenannte Transfer-Effekte). Obwohl jüngste Therapiestudien nachweislich die Leistung des Arbeitsgedächtnisses verbessern konnten, gibt es derzeitig nur wenig Evidenzen, ob und in welchem Ausmaß sich Verbesserungen des Arbeitsgedächtnisses auch auf ungeübte Gedächtnisaufgaben, das auditive Satzverständnis und die Kommunikationsfähigkeit im Alltag auswirken können. Das vorliegende Dissertationsprojekt untersucht, ob (a) das Arbeitsgedächtnis bei Patienten mit einer Aphasie über ein adaptiertes N-Back-Training verbessert werden kann (Studie 1–3) und (b) das Arbeitsgedächtnistraining zu einem nahen Transfer auf ungeübte Arbeitsgedächtnisaufgaben (Studie 1–3) und zu einem weiten Transfer auf auditive Satzverständnisaufgaben (Studie 1–3), auf die Alltagskommunikation (Studie 2–3) und auf das Alltagsgedächtnis (Studie 2–3) bei Patienten mit einer Aphasie führt. Zudem evaluiert das vorliegende Projekt (c) die methodische Qualität bereits existierender Arbeitsgedächtnistrainings bei Patienten mit einer Aphasie (Studie 3). Zur Beantwortung der vorliegenden Studienfragen wurden zwei empirische Studien (Studie 1 und 2) sowie ein systematisches Review (Studie 3) durchgeführt. In Studie 1 und 2 durchliefen Studienteilnehmer mit einer chronischen Aphasie nach einem Schlaganfall ein adaptiertes N-Back-Training. Es zeigte sich ein sehr gemischtes Trainingsmuster und Transfereffekte bei den Studienteilnehmern: Fünf von sechs Probanden verbesserten sich signifikant beim N-Back-Training. Alle sechs Probanden zeigten zudem signifikante weite Transfereffekte auf das auditive Satzverständnis. Darüber hinaus konnte ein weiter Transfereffekt auf die Kommunikationsfähigkeit und das Gedächtnis im Alltag sowie ein naher Transfer auf ungeübte N-Back-Aufgaben nachgewiesen werden. Allerdings schwankte das Transferverhalten innerhalb der Probanden stark. Das systematische Review (Studie 3) zeigte eine schwache interne und externe Validität über die 17 eingeschlossenen Studien. Obwohl die Ergebnisse bezüglich des Arbeitsgedächtnisses, des auditiven Satzverständnisses und des Lesens trotz der methodischen Einschränkungen der untersuchten Studien vielversprechend sind, sollten Schlussfolgerungen über die positiven Transfereffekte von Arbeitsgedächtnistrainings dennoch mit Vorsicht betrachtet werden. Die Ergebnisse der empirischen Studien zeigten, dass sich mit Hilfe eines computergestützten und adaptiven Trainings das Arbeitsgedächtnis verbessert und zudem ein Transfer auf das auditive Satzverständnis und die Kommunikationsfähigkeit im Alltag bei einigen Patienten mit einer chronischen Aphasie nach einem Schlaganfall erzielt werden konnte. Es sind jedoch weitere Studien notwendig, um den Einfluss individueller Unterschiede auf die individuellen Transfermaße aufzudecken und eine Generalisierbarkeit der Ergebnisse auf Untergruppen aphasischer Teilnehmer zu beleuchten. Darüber hinaus werden zukünftige Studien benötigt, die die Rolle der Baseline nicht-linguistischer kognitiver Fähigkeiten und der Sprachproduktion sowie die Aufrechterhaltung von Transfereffekte weiter untersuchen. KW - aphasia KW - working memory KW - treatment KW - Aphasie KW - Arbeitsgedächtnis KW - Therapie Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423600 ER - TY - THES A1 - Zajnulina, Marina T1 - Optical frequency comb generation in optical fibres T1 - Generierung von optischen Frequenzkämmen in optischen Fasern N2 - Optical frequency combs (OFC) constitute an array of phase-correlated equidistant spectral lines with nearly equal intensities over a broad spectral range. The adaptations of combs generated in mode-locked lasers proved to be highly efficient for the calibration of high-resolution (resolving power > 50000) astronomical spectrographs. The observation of different galaxy structures or the studies of the Milky Way are done using instruments in the low- and medium resolution range. To such instruments belong, for instance, the Multi Unit Spectroscopic Explorer (MUSE) being developed for the Very Large Telescope (VLT) of the European Southern Observatory (ESO) and the 4-metre Multi-Object Spectroscopic Telescope (4MOST) being in development for the ESO VISTA 4.1 m Telescope. The existing adaptations of OFC from mode-locked lasers are not resolvable by these instruments. Within this work, a fibre-based approach for generation of OFC specifically in the low- and medium resolution range is studied numerically. This approach consists of three optical fibres that are fed by two equally intense continuous-wave (CW) lasers. The first fibre is a conventional single-mode fibre, the second one is a suitably pumped amplifying Erbium-doped fibre with anomalous dispersion, and the third one is a low-dispersion highly nonlinear optical fibre. The evolution of a frequency comb in this system is governed by the following processes: as the two initial CW-laser waves with different frequencies propagate through the first fibre, they generate an initial comb via a cascade of four-wave mixing processes. The frequency components of the comb are phase-correlated with the original laser lines and have a frequency spacing that is equal to the initial laser frequency separation (LFS), i.e. the difference in the laser frequencies. In the time domain, a train of pre-compressed pulses with widths of a few pico-seconds arises out of the initial bichromatic deeply-modulated cosine-wave. These pulses undergo strong compression in the subsequent amplifying Erbium-doped fibre: sub-100 fs pulses with broad OFC spectra are formed. In the following low-dispersion highly nonlinear fibre, the OFC experience a further broadening and the intensity of the comb lines are fairly equalised. This approach was mathematically modelled by means of a Generalised Nonlinear Schrödinger Equation (GNLS) that contains terms describing the nonlinear optical Kerr effect, the delayed Raman response, the pulse self-steepening, and the linear optical losses as well as the wavelength-dependent Erbium gain profile for the second fibre. The initial condition equation being a deeply-modulated cosine-wave mimics the radiation of the two initial CW lasers. The numerical studies are performed with the help of Matlab scripts that were specifically developed for the integration of the GNLS and the initial condition according to the proposed approach for the OFC generation. The scripts are based on the Fourth-Order Runge-Kutta in the Interaction Picture Method (RK4IP) in combination with the local error method. This work includes the studies and results on the length optimisation of the first and the second fibre depending on different values of the group-velocity dispersion of the first fibre. Such length optimisation studies are necessary because the OFC have the biggest possible broadband and exhibit a low level of noise exactly at the optimum lengths. Further, the optical pulse build-up in the first and the second fibre was studied by means of the numerical technique called Soliton Radiation Beat Analysis (SRBA). It was shown that a common soliton crystal state is formed in the first fibre for low laser input powers. The soliton crystal continuously dissolves into separated optical solitons as the input power increases. The pulse formation in the second fibre is critically dependent on the features of the pulses formed in the first fibre. I showed that, for low input powers, an adiabatic soliton compression delivering low-noise OFC occurs in the second fibre. At high input powers, the pulses in the first fibre have more complicated structures which leads to the pulse break-up in the second fibre with a subsequent degradation of the OFC noise performance. The pulse intensity noise studies that were performed within the framework of this thesis allow making statements about the noise performance of an OFC. They showed that the intensity noise of the whole system decreases with the increasing value of LFS. N2 - Optische Frequenzkämme (OFK) stellen ein diskretes optisches Spektrum mit phasenkorrelierten Linien dar, die gleichen spektralen Abstand voneinander haben und fast gleiche Intensität über einen größeren Spektralbereich aufweisen. In modengelockten Lasern generierte Kämme haben sich als höchst effizient für die Kalibrierung von hochauflösenden (Auflösungsvermögen > 50000) astronomischen Spektrografen erwiesen. Die astronomische Beobachtung von verschiedenen Galaxie-Strukturen oder die Studien der Milchstraße werden jedoch mit Hilfe von nieder- bis mittelauflösenden Instrumenten gemacht. Zu solchen Instrumenten gehören zum Beispiel der Multi-Spectroscopic-Exproler (MUSE), der gerade für das Very-Large-Telescope (VLT) der Europäischen Südsternwarte (ESO) entwickelt wird, und das 4-metre-Multi-Object-Spectroscopic-Telescope (4MOST), das sich in der Entwicklung für das ESO-VISTA-4,1m-Teleskop befindet. Die existierenden Anpassungen von OFK von modengelockten Lasern sind für solche Instrumente nicht auflösbar. Im Rahmen dieser Arbeit wird ein faserbasierter Ansatz für die Generierung von OFK für den Bereich der nieder- bis mittelauflösenden Instrumente numerisch studiert. Die experimentelle Umsetzung dieses Ansatzes besteht aus drei optischen Fasern, in die das Strahlungsfeld von zwei Dauerstrichlasern mit gleicher Intensität eingespeist wird. Die erste Faser ist eine konventionelle Monomodefaser, die zweite ist eine Erbium-dotierte Verstärkerfaser mit negativer Dispersion, die dritte ist eine hoch nichtlineare Faser mit niedriger Dispersion. Die Entwicklung eines OFKs in diesem System geschieht auf folgende Art und Weise: als die Laserwellen mit verschiedenen Frequenzen sich durch die erste Faser ausbreiten, erzeugen sie einen Anfangskamm durch einen Kaskadenprozess der Vier-Wellen-Mischung (VWM). Die neu entstandenen Frequenzkomponenten des Kamms sind frequenzkorreliert und haben einen spektralen Abstand, der der Laserfrequenzseparation (LFS) gleicht. Dies entspricht dem Entstehen von einem Zug von prä-komprimierten optischen Impulsen mit Impulsbreiten von einigen Pikosekunden. Diese Impulse werden strakt komprimiert in der nachfolgenden Erbium-dotierten Faser: es entstehen Sub-100-Femtosekunden-Impulse mit breiten OFK-Spektren. In der anschließenden hochnichtlinearen Faser wird das Kamm-Spektrum weiter verbreitet, während seine Frequenzlinien in ihren Intensitäten ausgeglichen werden. Dieser Ansatz wurde mathematisch mit Hilfe einer Verallgemeinerten Nichtlinearen Schrödinger Gleichung (VNSG) modelliert, die die Terme für den nichtlinearen optischen Kerr-Effekt, den Raman-Effekt, die Impuls-Selbstaufsteilung, die optischen Verluste und das wellenlängenabhängigen Erbium-Verstärkungsprofil für die zweite Faser enthält. Die Gleichung der Anfangsbedingung von der Form einer bichromatischen tief durchmodulierten Kosinus-Welle repräsentiert das Strahlungsfeld zweier Dauerstrichlaser. Die numerischen Studien sind mit Hilfe von Matlab-Skripten durchgeführt, die speziell für die numerische Integration der VNSG mit der bichromatischen Kosinus-Welle als Anfangsbedingung entworfen worden sind. Diese Skripte basieren auf dem numerischen Verfahren Fourth-Order Runge-Kutta in the Interaction Picture Method, das mit der Methode der Auswertung von lokalen numerischen Fehlern kombiniert wurde. Diese Arbeit enthält die Studien und Resultate der Optimierung der Längen der ersten und der zweiten Faser in Abhängigkeit von der Gruppengeschwindigkeitsdispersion der ersten Faser. Solche Optimierungsstudien sind notwendig, da genau an solche optimierten Längen weisen die Frequenzkämme die größte Bandbreite auf sowie das niedrigste Rauschniveau. Des Weiteren wurde der Aufbau von optischen Impulsen in der ersten und der zweiten Faser des Ansatzes mittels der numerischen Technik Soliton Radiation Beat Analysis analysiert. Es wurde gezeigt, dass für niedrige Eingangsleistungen ein kollektiver Solitonenkristall in der ersten Faser generiert wird, der sich mit steigender Eingangsleistung in freie optische Solitonen auflöst. Was die zweite Faser betrifft, so wurde gezeigt, dass der Aufbau und Ausbreitung von optischen Impulsen in dieser Faser kritisch von den Eigenschaften der Impulse abhängt, die in der ersten Faser aufgebaut wurden. So findet adiabatische Solitonenkompression in der zweiten Faser statt, falls die Eingangsleistung niedrig ist und die Form der Impulse in der ersten Faser relativ einfach. Für höhere Eingangsleistungen ist der Aufbau und somit die Dynamik der Impulse in der ersten Faser komplizierter. Solche Impulse zerfallen dann in der zweiten Faser, was zum Erhöhen des Intensitätsrauschens führt. Die Studien des Intensitätsrauschens der optischen Impulse, die im Rahmen dieser Arbeit durchgeführt wurden, erlauben die Aussagen über das Rauschverhalten der OFK. Diese Studien haben gezeigt, dass das Intensitätsrauschen des Gesamtsystems (d.h. aller drei Fasern) mit steigender LFS nachlässt. KW - optical frequency combs KW - spectrograph calibration KW - generalised nonlinear Schrödinger equation KW - four-wave mixing KW - optical solitons KW - optische Frequenzkämme KW - Kalibrierung von Spektrografen KW - verallgemeinerte nichlineare Schrödinger Gleichung KW - Vier-Wellen-Mischung KW - optische Solitonen Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-88776 ER - TY - THES A1 - Zaehle, Sönke T1 - Process-based simulation of the terrestrial biosphere : an evaluation of present-day and future terrestrial carbon balance estimates and their uncertainty T1 - Prozessbasierte Modellierung der terrestrischen Biosphäre : eine Auswertung heutiger und zukünftiger terrestrischer Kohlenstoffbilanzabschätzungen und ihrer Unsicherheit N2 - At present, carbon sequestration in terrestrial ecosystems slows the growth rate of atmospheric CO2 concentrations, and thereby reduces the impact of anthropogenic fossil fuel emissions on the climate system. Changes in climate and land use affect terrestrial biosphere structure and functioning at present, and will likely impact on the terrestrial carbon balance during the coming decades - potentially providing a positive feedback to the climate system due to soil carbon releases under a warmer climate. Quantifying changes, and the associated uncertainties, in regional terrestrial carbon budgets resulting from these effects is relevant for the scientific understanding of the Earth system and for long-term climate mitigation strategies. A model describing the relevant processes that govern the terrestrial carbon cycle is a necessary tool to project regional carbon budgets into the future. This study (1) provides an extensive evaluation of the parameter-based uncertainty in model results of a leading terrestrial biosphere model, the Lund-Potsdam-Jena Dynamic Global Vegetation Model (LPJ-DGVM), against a range of observations and under climate change, thereby complementing existing studies on other aspects of model uncertainty; (2) evaluates different hypotheses to explain the age-related decline in forest growth, both from theoretical and experimental evidence, and introduces the most promising hypothesis into the model; (3) demonstrates how forest statistics can be successfully integrated with process-based modelling to provide long-term constraints on regional-scale forest carbon budget estimates for a European forest case-study; and (4) elucidates the combined effects of land-use and climate changes on the present-day and future terrestrial carbon balance over Europe for four illustrative scenarios - implemented by four general circulation models - using a comprehensive description of different land-use types within the framework of LPJ-DGVM. This study presents a way to assess and reduce uncertainty in process-based terrestrial carbon estimates on a regional scale. The results of this study demonstrate that simulated present-day land-atmosphere carbon fluxes are relatively well constrained, despite considerable uncertainty in modelled net primary production. Process-based terrestrial modelling and forest statistics are successfully combined to improve model-based estimates of vegetation carbon stocks and their change over time. Application of the advanced model for 77 European provinces shows that model-based estimates of biomass development with stand age compare favourably with forest inventory-based estimates for different tree species. Driven by historic changes in climate, atmospheric CO2 concentration, forest area and wood demand between 1948 and 2000, the model predicts European-scale, present-day age structure of forests, ratio of biomass removals to increment, and vegetation carbon sequestration rates that are consistent with inventory-based estimates. Alternative scenarios of climate and land-use change in the 21st century suggest carbon sequestration in the European terrestrial biosphere during the coming decades will likely be on magnitudes relevant to climate mitigation strategies. However, the uptake rates are small in comparison to the European emissions from fossil fuel combustion, and will likely decline towards the end of the century. Uncertainty in climate change projections is a key driver for uncertainty in simulated land-atmosphere carbon fluxes and needs to be accounted for in mitigation studies of the terrestrial biosphere. N2 - Kohlenstoffspeicherung in terrestrischen Ökosystemen reduziert derzeit die Wirkung anthropogener CO2-Emissionen auf das Klimasystem, indem sie die Wachstumsrate der atmosphärischer CO2-Konzentration verlangsamt. Die heutige terrestrische Kohlenstoffbilanz wird wesentlich von Klima- und Landnutzungsänderungen beeinflusst. Diese Einflussfaktoren werden sich auch in den kommenden Dekaden auf die terrestrische Biosphäre auswirken, und dabei möglicherweise zu einer positiven Rückkopplung zwischen Biosphäre und Klimasystem aufgrund von starken Bodenkohlenstoffverlusten in einem wärmeren Klima führen. Quantitative Abschätzungen der Wirkung dieser Einflussfaktoren - sowie der mit ihnen verbundenen Unsicherheit - auf die terrestrische Kohlenstoffbilanz sind daher sowohl für das Verständnis des Erdsystems, als auch für eine langfristig angelegte Klimaschutzpolitik relevant. Um regionale Kohlenstoffbilanzen in die Zukunft zu projizieren, sind Modelle erforderlich, die die wesentlichen Prozesse des terrestrischen Kohlenstoffkreislaufes beschreiben. Die vorliegende Arbeit (1) analysiert die parameterbasierte Unsicherheit in Modellergebnissen eines der führenden globalen terrestrischen Ökosystemmodelle (LPJ-DGVM) im Vergleich mit unterschiedlichen ökosystemaren Messgrößen, sowie unter Klimawandelprojektionen, und erweitert damit bereits vorliegende Studien zu anderen Aspekten der Modelunsicherheit; (2) diskutiert unter theoretischen und experimentellen Aspekten verschiedene Hypothesen über die altersbedingte Abnahme des Waldwachstums, und implementiert die vielversprechenste Hypothese in das Model; (3) zeigt für eine europäische Fallstudie, wie Waldbestandsstatistiken erfolgreich für eine verbesserte Abschätzung von regionalen Kohlenstoffbilanzen in Wäldern durch prozessbasierten Modelle angewandt werden können; (4) untersucht die Auswirkung möglicher zukünftiger Klima- und Landnutzungsänderungen auf die europäische Kohlenstoffbilanz anhand von vier verschiedenen illustrativen Szenarien, jeweils unter Berücksichtigung von Klimawandelprojektionen vier verschiedener Klimamodelle. Eine erweiterte Version von LPJ-DGVM findet hierfür Anwendung, die eine umfassende Beschreibung der Hauptlandnutzungstypen beinhaltet. Die vorliegende Arbeit stellt einen Ansatz vor, um Unsicherheiten in der prozessbasierten Abschätzung von terrestrischen Kohlenstoffbilanzen auf regionaler Skala zu untersuchen und zu reduzieren. Die Ergebnisse dieser Arbeit zeigen, dass der Nettokohlenstoffaustausch zwischen terrestrischer Biosphäre und Atmosphäre unter heutigen klimatischen Bedingungen relativ sicher abgeschätzt werden kann, obwohl erhebliche Unsicherheit über die modelbasierte terrestrische Nettoprimärproduktion existiert. Prozessbasierte Modellierung und Waldbestandsstatistiken wurden erfolgreich kombiniert, um verbesserte Abschätzungen von regionalen Kohlenstoffvorräten und ihrer Änderung mit der Zeit zu ermöglichen. Die Anwendung des angepassten Modells in 77 europäischen Regionen zeigt, dass modellbasierte Abschätzungen des Biomasseaufwuchses in Wäldern weitgehend mit inventarbasierten Abschätzungen für verschiede Baumarten übereinstimmen. Unter Berücksichtigung von historischen Änderungen in Klima, atmosphärischem CO2-Gehalt, Waldfläche und Holzernte (1948-2000) reproduziert das Model auf europäischer Ebene die heutigen, auf Bestandsstatistiken beruhenden, Abschätzungen von Waldaltersstruktur, das Verhältnis von Zuwachs und Entnahme von Biomasse, sowie die Speicherungsraten im Kohlenstoffspeicher der Vegetation. Alternative Szenarien von zukünftigen Landnutzungs- und Klimaänderungen legen nahe, dass die Kohlenstoffaufnahme der europäischen terrestrischen Biosphäre von relevanter Größenordnung für Klimaschutzstrategien sind. Die Speicherungsraten sind jedoch klein im Vergleich zu den absoluten europäischen CO2-Emissionen, und nehmen zudem sehr wahrscheinlich gegen Ende des 21. Jahrhunderts ab. Unsicherheiten in Klimaprojektionen sind eine Hauptursache für die Unsicherheiten in den modellbasierten Abschätzungen des zukünftigen Nettokohlenstoffaustausches und müssen daher in Klimaschutzanalysen der terrestrischen Biosphäre berücksichtigt werden. KW - Terrestrische Ökologie KW - Kohlenstoffkreislauf KW - Modellierung KW - Landnutzung KW - Anthropogene Klimaänderung KW - dynamic global vegetation model KW - terrestrial carbon balance KW - forest age-structure KW - model uncertainty KW - global change Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-5263 ER - TY - THES A1 - Youk, Sol T1 - Molecular design of heteroatom-doped nanoporous carbons with controlled porosity and surface polarity for gas physisorption and energy storage N2 - The world energy consumption has constantly increased every year due to economic development and population growth. This inevitably caused vast amount of CO2 emission, and the CO2 concentration in the atmosphere keeps increasing with economic growth. To reduce CO2 emission, various methods have been developed but there are still many bottlenecks to be solved. Solvents easily absorbing CO2 such as monoethanol-amine (MEA) and diethanolamine, for example, have limitations of solvent loss, amine degradation, vulnerability to heat and toxicity, and the high cost of regeneration which is especially caused due to chemisorption process. Though some of these drawbacks can be compensated through physisorption with zeolites and metal-organic frameworks (MOFs) by displaying significant adsorption selectivity and capacity even in ambient conditions, limitations for these materials still exist. Zeolites demand relatively high regeneration energy and have limited adsorption kinetics due to the exceptionally narrow pore structure. MOFs have low stability against heat and moisture and high manufacturing cost. Nanoporous carbons have recently received attention as an attractive functional porous material due to their unique properties. These materials are crucial in many applications of modern science and industry such as water and air purification, catalysis, gas separation, and energy storage/conversion due to their high chemical and thermal stability, and in particular electronic conductivity in combination with high specific surface areas. Nanoporous carbons can be used to adsorb environmental pollutants or small gas molecules such as CO2 and to power electrochemical energy storage devices such as batteries and fuel cells. In all fields, their pore structure or electrical properties can be modified depending on their purposes. This thesis provides an in-depth look at novel nanoporous carbons from the synthetic and the application point of view. The interplay between pore structure, atomic construction, and the adsorption properties of nanoporous carbon materials are investigated. Novel nanoporous carbon materials are synthesized by using simple precursor molecules containing heteroatoms through a facile templating method. The affinity, and in turn the adsorption capacity, of carbon materials toward polar gas molecules (CO2 and H2O) is enhanced by the modification of their chemical construction. It is also shown that these properties are important in electrochemical energy storage, here especially for supercapacitors with aqueous electrolytes which are basically based on the physisorption of ions on carbon surfaces. This shows that nanoporous carbons can be a “functional” material with specific physical or chemical interactions with guest species just like zeolites and MOFs. The synthesis of sp2-conjugated materials with high heteroatom content from a mixture of citrazinic acid and melamine in which heteroatoms are already bonded in specific motives is illustrated. By controlling the removal procedure of the salt-template and the condensation temperature, the role of salts in the formation of porosity and as coordination sites for the stabilization of heteroatoms is proven. A high amount of nitrogen of up to 20 wt. %, oxygen contents of up to 19 wt.%, and a high CO2/N2 selectivity with maximum CO2 uptake at 273 K of 5.31 mmol g–1 are achieved. Besides, the further controlled thermal condensation of precursor molecules and advanced functional properties on applications of the synthesized porous carbons are described. The materials have different porosity and atomic construction exhibiting a high nitrogen content up to 25 wt. % as well as a high porosity with a specific surface area of more than 1800 m2 g−1, and a high performance in selective CO2 gas adsorption of 62.7. These pore structure as well as properties of surface affect to water adsorption with a remarkably high Qst of over 100 kJ mol−1 even higher than that of zeolites or CaCl2 well known as adsorbents. In addition to that, the pore structure of HAT-CN-derived carbon materials during condensation in vacuum is fundamentally understood which is essential to maximize the utilization of porous system in materials showing significant difference in their pore volume of 0.5 cm3 g−1 and 0.25 cm3 g−1 without and with vacuum, respectively. The molecular designs of heteroatom containing porous carbon derived from abundant and simple molecules are introduced in the presented thesis. Abundant precursors that already containing high amount of nitrogen or oxygen are beneficial to achieve enhanced interaction with adsorptives. The physical and chemical properties of these heteroatom-doped porous carbons are affected by mainly two parameters, that is, the porosity from the pore structure and the polarity from the atomic composition on the surface. In other words, controlling the porosity as well as the polarity of the carbon materials is studied to understand interactions with different guest species which is a fundamental knowledge for the utilization on various applications. N2 - Nanoporöse Kohlenstoffe haben in letzter Zeit aufgrund ihrer einzigartigen Eigenschaften als ein attraktives funktionelles poröses Material Aufmerksamkeit erregt. Diese Materialien sind aufgrund ihrer hohen chemischen und thermischen Stabilität und insbesondere aufgrund ihrer elektronischen Leitfähigkeit in Kombination mit hohen spezifischen Oberflächen von entscheidender Bedeutung für viele Anwendungen der modernen Wissenschaft und Industrie wie Wasser- und Luftreinigung, Katalyse, Gastrennung und Energiespeicherung/-umwandlung. Nanoporöse Kohlenstoffe können verwendet werden, um Umweltschadstoffe oder kleine Gasmoleküle wie CO2 zu adsorbieren und elektrochemische Energiespeicher wie Batterien und Brennstoffzellen anzutreiben. Ihre Porenstruktur oder ihre elektrischen Eigenschaften je nach Einsatzzweck modifiziert werden. Diese Arbeit bietet einen eingehenden Blick auf neuartige nanoporöse Kohlenstoffe aus synthetischer und anwendungstechnischer Sicht. Das Zusammenspiel zwischen Porenstruktur, atomarem Aufbau und den Adsorptionseigenschaften von nanoporösen Kohlenstoffmaterialien wird untersucht. Neuartige nanoporöse Kohlenstoffmaterialien werden unter Verwendung einfacher Vorläufermoleküle, die Heteroatome enthalten, durch ein einfaches Templatverfahren synthetisiert. Die Affinität und damit die Adsorptionskapazität von Kohlenstoffmaterialien gegenüber polaren Gasmolekülen (CO2 und H2O) wird durch die Modifikation ihres chemischen Aufbaus erhöht. Es wird auch gezeigt, dass diese Eigenschaften bei der elektrochemischen Energiespeicherung wichtig sind. Hier insbesondere für Superkondensatoren mit wässrigen Elektrolyten, die grundsätzlich auf der Physisorption von Ionen an Kohlenstoffoberflächen beruhen. Dies zeigt, dass nanoporöse Kohlenstoffe, genauso wie Zeolithen und MOFs, ein „funktionelles“ Material mit spezifischen physikalischen oder chemischen Wechselwirkungen mit Gastspezien sein können. Mit den Vorteilen einer hohen elektrischen Leitfähigkeit, einer gut entwickelten Porenstruktur und einer stark hydrophilen Oberflächenstruktur sind nanoporöse Kohlenstoffe vielversprechende Materialien, die weitreichende Auswirkungen auf verschiedene Bereiche des zukünftigen Energiebedarfs haben. KW - porous carbon KW - gas adsorption KW - energy storage KW - N-doped carbon KW - poröser Kohlenstoff KW - Gasadsorption KW - Energiespeicher KW - N-dotierter Kohlenstoff Y1 - 2022 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-539098 ER - TY - THES A1 - Youakim, Kris T1 - Galactic archaeology with metal-poor stars from the Pristine survey N2 - The Milky Way is a spiral galaxy consisting of a disc of gas, dust and stars embedded in a halo of dark matter. Within this dark matter halo there is also a diffuse population of stars called the stellar halo, that has been accreting stars for billions of years from smaller galaxies that get pulled in and disrupted by the large gravitational potential of the Milky Way. As they are disrupted, these galaxies leave behind long streams of stars that can take billions of years to mix with the rest of the stars in the halo. Furthermore, the amount of heavy elements (metallicity) of the stars in these galaxies reflects the rate of chemical enrichment that occurred in them, since the Universe has been slowly enriched in heavy elements (e.g. iron) through successive generations of stars which produce them in their cores and supernovae explosions. Therefore, stars that contain small amounts of heavy elements (metal-poor stars) either formed at early times before the Universe was significantly enriched, or in isolated environments. The aim of this thesis is to develop a better understanding of the substructure content and chemistry of the Galactic stellar halo, in order to gain further insight into the formation and evolution of the Milky Way. The Pristine survey uses a narrow-band filter which specifically targets the Ca II H & K spectral absorption lines to provide photometric metallicities for a large number of stars down to the extremely metal-poor (EMP) regime, making it a very powerful data set for Galactic archaeology studies. In Chapter 2, we quantify the efficiency of the survey using a preliminary spectroscopic follow-up sample of ~ 200 stars. We also use this sample to establish a set of selection criteria to improve the success rate of selecting EMP candidates for follow-up spectroscopy. In Chapter 3, we extend this work and present the full catalogue of ~ 1000 stars from a three year long medium resolution spectroscopic follow-up effort conducted as part of the Pristine survey. From this sample, we compute success rates of 56% and 23% for recovering stars with [Fe/H] < -2.5 and [Fe/H] < -3.0, respectively. This demonstrates a high efficiency for finding EMP stars as compared to previous searches with success rates of 3-4%. In Chapter 4, we select a sample of ~ 80000 halo stars using colour and magnitude cuts to select a main sequence turnoff population in the distance range 6 < dʘ < 20 kpc. We then use the spectroscopic follow-up sample presented in Chapter 3 to statistically rescale the Pristine photometric metallicities of this sample, and present the resulting corrected metallicity distribution function (MDF) of the halo. The slope at the metal-poor end is significantly shallower than previous spectroscopic efforts have shown, suggesting that there may be more metal-poor stars with [Fe/H] < -2.5 in the halo than previously thought. This sample also shows evidence that the MDF of the halo may not be bimodal as was proposed by previous works, and that the lack of globular clusters in the Milky Way may be the result of a physical truncation of the MDF rather than just statistical under-sampling. Chapter 5 showcases the unexpected capability of the Pristine filter for separating blue horizontal branch (BHB) stars from Blue Straggler (BS) stars. We demonstrate a purity of 93% and completeness of 91% for identifying BHB stars, a substantial improvement over previous works. We then use this highly pure and complete sample of BHB stars to trace the halo density profile out to d > 100 kpc, and the Sagittarius stream substructure out to ~ 130 kpc. In Chapter 6 we use the photometric metallicities from the Pristine survey to perform a clustering analysis of the halo as a function of metallicity. Separating the Pristine sample into four metallicity bins of [Fe/H] < -2, -2 < [Fe/H] < -1.5, -1.5 < [Fe/H] < -1 and -0.9 < [Fe/H] < -0.8, we compute the two-point correlation function to measure the amount of clustering on scales of < 5 deg. For a smooth comparison sample we make a mock Pristine data set generated using the Galaxia code based on the Besançon model of the Galaxy. We find enhanced clustering on small scales (< 0.5 deg) for some regions of the Galaxy for the most metal-poor bin ([Fe/H] < -2), while in others we see large scale signals that correspond to known substructures in those directions. This confirms that the substructure content of the halo is highly anisotropic and diverse in different Galactic environments. We discuss the difficulties of removing systematic clustering signals from the data and the limitations of disentangling weak clustering signals from real substructures and residual systematic structure in the data. Taken together, the work presented in this thesis approaches the problem of better understanding the halo of our Galaxy from multiple angles. Firstly, presenting a sizeable sample of EMP stars and improving the selection efficiency of EMP stars for the Pristine survey, paving the way for the further discovery of metal-poor stars to be used as probes to early chemical evolution. Secondly, improving the selection of BHB distance tracers to map out the halo to large distances, and finally, using the large samples of metal-poor stars to derive the MDF of the inner halo and analyse the substructure content at different metallicities. The results of this thesis therefore expand our understanding of the physical and chemical properties of the Milky Way stellar halo, and provide insight into the processes involved in its formation and evolution. N2 - Die Milchstraße ist eine Spiralgalaxie, die aus einer Scheibe aus Gas, Staub und Sternen besteht und in einen Halo aus dunkler Materie eingebettet ist. Der Halo beherbergt auch eine diffuse Sternpopulation, den sogenanten stellaren Halo, welcher seit Milliarden von Jahren kleinere Galaxien verschlingt, die durch das große Gravitationspotenzial der Milchstraße angezogen werden. Wenn sie von der Gezeitenkraft der Milchstraße zerrissen werden, hinterlassen diese Galaxien lange Sternenströme, die ihrerseits Milliarden von Jahren überdauern können, bis sie sich komplett mit dem Rest der Halosterne vermischen. Die Menge an schweren chemischen Elementen (Metallizität) in den Sternen dieser Galaxien verrät uns ihre Sternentstehungsgeschichte: aufeinanderfolgende Generationen von Sternen und ihre Supernovae Explosionen reichern die Galaxie langsam mit schweren Elementen an. Sterne mit sehr wenig schweren Elementen (metallarme Sterne) bildeten sich daher entweder früh vor der signifikanten Anreicherung des Universums, oder in isolierten Umgebungen. Das Ziel dieser Arbeit ist eine genauere Charakterisierung der Struktur und Zusammensetzung des galaktischen stellaren Halos, um so die Entstehung und Entwicklung der Milchstraße besser zu verstehen. Metallarme Sterne sind schwierig zu finden, da sie viel seltener sind als Sterne mit höherer Metallizität, wie etwa unsere Sonne. Die Pristine Survey verwendet einen Schmalbandfilter, um metallarme Sterne photometrisch zu identifizieren, und kann daher Metallizitäten für eine große Anzahl von Sternen viel schneller bestimmen als spektroskopische Untersuchungen. Dies macht die Pristine Survey zu einem wertvollen Datensatz für Studien der Frühgeschichte der Milchstraße. In Kapitel 2 quantifizieren wir die Effizienz der Survey mit einer Stichprobe von ca. 200 Sternen, die spektroskopisch nachbeobachtet wurden. Wir verwenden diese Stichprobe auch, um eine Reihe von Auswahlkriterien festzulegen, um die Erfolgsrate bei der Auswahl metallarmer Kandidaten für die Folgespektroskopie zu verbessern. In Kapitel 3 erweitern wir diese Arbeit und präsentieren den vollständigen Katalog von ca. 1000 Sternen aus einem dreijährigen spektroskopischen Follow-up-Projekt, das im Rahmen der Pristine Survey durchgeführt wurde. Diese Stichprobe zeigt, dass die Pristine Survey circa fünfmal effizienter im Finden extrem metallarmer Sterne ist als frühere Studien. In Kapitel 4 wählen wir eine Stichprobe von ca. 80000 Halosternen aus der Pristine Survey aus, um die Verteilung der Sterne an verschiedenen Metallizitäten im Halo zu analysieren. Wir verwenden die spektroskopische Stichprobe von Kapitel 3 für die Reskalierung der photometrischen Metallizitäten, um Verzerrungen in der Probe zu reduzieren. Die Steigung am metallarmen Ende dieser Verteilung ist deutlich flacher als in früheren spektroskopischen Studien gemessen. Das bedeutet, dass es viel mehr sehr metallarme Sterne im Halo geben könnte als bisher angenommen. Blaue Horizontalaststerne (BHB-Sterne) sind sehr hell und ihre Entfernungen können sehr genau bestimmt werden. Deswegen sind sie ideale Standardkerzen für Studien von Sternpopulationen im galaktischen Halo. Kapitel 5 zeigt, wie die Pristine Survey dazu verwendet werden kann, BHB-Sterne besser zu identifizieren hinsichtlich ihrer Reinheit und Vollständigkeit als frühere Studien. Wir verwenden dann diese Stichprobe von BHB-Sternen, um das Dichteprofil des Halos sowie einige bekannte Halosubstrukturen über weite Entfernungen zu verfolgen. In Kapitel 6 verwenden wir die photometrischen Metallizitäten aus der Pristine Survey, um eine Clustering-Analyse des Halos für verschiedene Metallizitäten durchzuführen. Wir finden stärkeres Clustering auf kleiner Skala (< 0,5 Grad) für einige Regionen der Galaxie im metallärmsten Bereich, wohingegen wir in anderen Regionen große Signale sehen, die bereits bekannten Substrukturen in den jeweiligen Richtungen entsprechen. Dies zeigt die Fähigkeit dieser Methode, quantitative Vergleiche des Substrukturgehalts für verschiedene Proben und in verschiedenen galaktischen Umgebungen durchzuführen. Wir diskutieren auch die Schwierigkeiten bei der Entfernung systematischer Clustering-Signale aus den Daten und die Grenzen der Entflechtung schwacher Clustering-Signale von realen Substrukturen. Zusammengefasst nähert sich diese Arbeit dem Problem eines besseren Verständnisses unseres Galaxienhalos aus mehreren Blickwinkeln. Als erstes stellt sie die Pristine Survey vor, die uns eine neue beträchtlichen Stichprobe von extrem metallarmen Sternen mit verbesserter Selektionseffizienz liefert. Dies ebnet den Weg für die Entdeckung weiterer metallarmer Sterne, die als Sonden für die frühe chemische Evolution verwendet werden können. Außerdem verbessert diese Arbeit das Auswahlverfahren für BHB-Sterne zur großräumigen Vermessung des galaktischen Halos, die Verwendung von großen Stichproben metallarmer Sterne zur Ableitung der Metallizitätsverteilung des inneren Halos, sowie die Analyse von Halosubstrukturen für verschiedene Metallizitäten. Die Ergebnisse dieser Arbeit erweitern somit unsere Kenntnis physikalischer und chemischer Eigenschaften des Milchstraßenhalos und vertiefen unser Verständnis von dessen Entstehung und Entwicklung. T2 - Galaktische Archäologie mit metallarmen Sternen des Pristine Surveys KW - Milky Way Halo KW - Metal-poor stars KW - Dwarf galaxies KW - Galactic archaeology KW - Halo der Milchstraße KW - Metallarme Sterne KW - Zwerg Galaxien KW - Galaktische Archäologie Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-474314 ER - TY - THES A1 - Yin, Fan T1 - Mathematic approaches for the calibration of the CHAMP satellite magnetic field measurements T1 - Mathematische Ansätze für die Kalibrierung des Satelliten CHAMP Magnetfeldmessungen N2 - CHAMP (CHAllenging Minisatellite Payload) is a German small satellite mission to study the earth's gravity field, magnetic field and upper atmosphere. Thanks to the good condition of the satellite so far, the planned 5 years mission is extended to year 2009. The satellite provides continuously a large quantity of measurement data for the purpose of Earth study. The measurements of the magnetic field are undertaken by two Fluxgate Magnetometers (vector magnetometer) and one Overhauser Magnetometer (scalar magnetometer) flown on CHAMP. In order to ensure the quality of the data during the whole mission, the calibration of the magnetometers has to be performed routinely in orbit. The scalar magnetometer serves as the magnetic reference and its readings are compared with the readings of the vector magnetometer. The readings of the vector magnetometer are corrected by the parameters that are derived from this comparison, which is called the scalar calibration. In the routine processing, these calibration parameters are updated every 15 days by means of scalar calibration. There are also magnetic effects coming from the satellite which disturb the measurements. Most of them have been characterized during tests before launch. Among them are the remanent magnetization of the spacecraft and fields generated by currents. They are all considered to be constant over the mission life. The 8 years of operation experience allow us to investigate the long-term behaviors of the magnetometers and the satellite systems. According to the investigation, it was found that for example the scale factors of the FGM show obvious long-term changes which can be described by logarithmic functions. The other parameters (offsets and angles between the three components) can be considered constant. If these continuous parameters are applied for the FGM data processing, the disagreement between the OVM and the FGM readings is limited to \pm1nT over the whole mission. This demonstrates, the magnetometers on CHAMP exhibit a very good stability. However, the daily correction of the parameter Z component offset of the FGM improves the agreement between the magnetometers markedly. The Z component offset plays a very important role for the data quality. It exhibits a linear relationship with the standard deviation of the disagreement between the OVM and the FGM readings. After Z offset correction, the errors are limited to \pm0.5nT (equivalent to a standard deviation of 0.2nT). We improved the corrections of the spacecraft field which are not taken into account in the routine processing. Such disturbance field, e.g. from the power supply system of the satellite, show some systematic errors in the FGM data and are misinterpreted in 9-parameter calibration, which brings false local time related variation of the calibration parameters. These corrections are made by applying a mathematical model to the measured currents. This non-linear model is derived from an inversion technique. If the disturbance field of the satellite body are fully corrected, the standard deviation of scalar error \triangle B remains about 0.1nT. Additionally, in order to keep the OVM readings a reliable standard, the imperfect coefficients of the torquer current correction for the OVM are redetermined by solving a minimization problem. The temporal variation of the spacecraft remanent field is investigated. It was found that the average magnetic moment of the magneto-torquers reflects well the moment of the satellite. This allows for a continuous correction of the spacecraft field. The reasons for the possible unknown systemic error are discussed in this thesis. Particularly, both temperature uncertainties and time errors have influence on the FGM data. Based on the results of this thesis the data processing of future magnetic missions can be designed in an improved way. In particular, the upcoming ESA mission Swarm can take advantage of our findings and provide all the auxiliary measurements needed for a proper recovery of the ambient magnetic field. N2 - CHAMP (CHAllenging Minisatellite Payload) ist eine deutsche Kleinsatellitenmission für die Forschung und Anwendung in Bereich der Geowissenschaften und Atmosphärenphysik. Das Projekt wird vom GFZ geleitet. Mit seinen hochgenauen, multifunktionalen, sich ergänzenden Nutzlastelementen (Magnetometer, Akzelerometer, Sternsensor, GPS-Empfänger, Laser-Retroreflektor, Ionendriftmeter) liefert CHAMP erstmalig gleichzeitig hochgenaue Schwere- und Magnetfeldmessungen (seit Mitte 2000). Dank des bisherigen guten Zustandes des Satelliten ist die auf 5 Jahre ausgelegte Mission bis 2009 verlängert geworden. An Board befinden sich ein skalares Overhauser-Magnetometer(OVM) für Kalibrierungszwecke sowie zwei Fluxgate-Magnetometer(FGM) zur Messung des magnetischen Feldvektors. Die Messungen vom FGM werden immer verglichen mit denen vom OVM und korregiert im Fall von Widersprüche, das ist die sog. Skalar-Kalibrierung. Um eine zuverlässige Datenqualität während der 8 jährigen Mission zu garantieren, ist die Nachkalibrierung implementiert. Im Rahmen der standard mäßigen Datenverarbeitung werden die Instrumentenparameter des FGM alle 15 Tage neu bestimmt. Das Ziel der vorliegenden Arbeit ist es, eine Verbesserung der Vektormagnetfelddaten zu erzielen durch eine neue Methode der Kalibrierung, die die Eigenschaften der Sensoren und Störung vom Raumfahrzeug mit berücksichtigt. Die Erfahrung aus den zurückliegenden Jahren hat gezeigt, dass sich die Skalenfaktoren des FGM stark mit der Zeit ändern. Dieser Verlauf lässt sich gut durch eine Logarithmuskurve anpassen. Andere Parameter wie die Winkel und die Offsets scheinen stabil zu sein. Eine Ausnahme macht der Offset der Z-Komponent. Dieser bedarf einer regelmäßigen Korrektur. Während die Standardverarbeitung eine undifferenzierte Bestimmung aller 9 FGM Parameter durch nicht-lineare Inversion der skalar Daten vornimmt, beziehen wir jetzt die langzeitlichen Eigenschaften der Parameter in die Bestimmung mit ein. Eine weitere Verbesserung der CHAMP-Magnetfelddaten konnte erreicht werden durch geeignete Berücksichtigung von Störung vom Raumfahrzeug. Die verbleibenden Unsicherheiten konnten durch diese Maßnahmen auf eine Standardabweichung von 0.1nT reduziert werden. KW - Magnetische Feldmessungen KW - Magnetometer-Kalibrierung KW - Magnetfeld-Satellit KW - Magnetic field measurements KW - magnetometer calibration KW - magnetic field satellites Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-41201 ER - TY - THES A1 - Yin, Chunhong T1 - The interplay of nanostructure and efficiency of polymer solar cells T1 - Einfluss der Nanostruktur auf die Effizienz von Polymer-Solarzellen N2 - The aim of this thesis is to achieve a deep understanding of the working mechanism of polymer based solar cells and to improve the device performance. Two types of the polymer based solar cells are studied here: all-polymer solar cells comprising macromolecular donors and acceptors based on poly(p-phenylene vinylene) and hybrid cells comprising a PPV copolymer in combination with a novel small molecule electron acceptor. To understand the interplay between morphology and photovoltaic properties in all-polymer devices, I compared the photocurrent characteristics and excited state properties of bilayer and blend devices with different nano-morphology, which was fine tuned by using solvents with different boiling points. The main conclusion from these complementary measurements was that the performance-limiting step is the field-dependent generation of free charge carriers, while bimolecular recombination and charge extraction do not compromise device performance. These findings imply that the proper design of the donor-acceptor heterojunction is of major importance towards the goal of high photovoltaic efficiencies. Regarding polymer-small molecular hybrid solar cells I combined the hole-transporting polymer M3EH-PPV with a novel Vinazene-based electron acceptor. This molecule can be either deposited from solution or by thermal evaporation, allowing for a large variety of layer architectures to be realized. I then demonstrated that the layer architecture has a large influence on the photovoltaic properties. Solar cells with very high fill factors of up to 57 % and an open circuit voltage of 1V could be achieved by realizing a sharp and well-defined donor-acceptor heterojunction. In the past, fill factors exceeding 50 % have only been observed for polymers in combination with soluble fullerene-derivatives or nanocrystalline inorganic semiconductors as the electron-accepting component. The finding that proper processing of polymer-vinazene devices leads to similar high values is a major step towards the design of efficient polymer-based solar cells. N2 - Ziel dieser Dissertation ist es, die grundlegende Arbeitsweise von polymerbasierten Solarzellen zu verstehen und ihre Leistungsfähigkeit zu erhöhen. Zwei Arten von organischen Solarzellen werden untersucht: Solarzellen, bei denen sowohl Elektronendonator und akzeptor auf Poly(p-phenylen-vinylen) basieren sowie Zellen, bei denen ein PPV-Copolymer als Elektronendonator und organische kleine Moleküle als Elektronenakzeptor fungierten. Um die Zusammenhänge zwischen Morphologie und photovoltaischen Eigenschaften zu verstehen, untersuchte ich Photoströme sowie die Eigenschaften angeregter Zustände in Zweischicht- und Mischsolarzellen mit unterschiedlicher Nano-Morphologie, welche durch die Verwendung von Lösungsmitteln mit unterschiedlichen Siedetemperaturen modifiziert wurde. Die Hauptschlussfolgerung aus diesen Messungen ist, dass der effizienzlimitierende Faktor die feldabhängige Generation freier Ladungsträger ist, wohingegen bimolekulare Rekombination oder die Extraktion der Ladungsträger die Leistungsfähigkeit von Polymer-Polymer- Solarzellen nicht beeinträchtigen. Diese Ergebnisse legen nahe, dass die gezielte Einstellung der Donator-Akzeptor-Grenzfläche von besonderer Bedeutung zum Erreichen hoher Effizienzen ist. In Hybridsolarzellen aus Polymeren und kleinen Molekülen kombinierte ich das lochleitende konjugierte Polymer M3EH-PPV mit einem neuartigen Vinazen-Molekül als Elektronen-akzeptor. Dieses Molekül bietet die Möglichkeit, entweder aus einer Lösung heraus verarbeitet oder im Hochvakuum verdampft zu werden, wodurch eine Vielzahl an unterschiedlichen Probenstrukturen realisiert werden kann. Dadurch konnte ich zeigen, dass die Struktur der aktiven Schicht einen großen Einfluss auf die photovoltaischen Eigenschaften hat. Die Solarzellen erreichten einen Füllfaktor von bis zu 57% und eine Kurzschluss¬spannung von 1 V. In der Vergangenheit konnten bei polymerbasierten Solarzellen Füllfaktoren über 50% nur in Verbindung mit Fullerenen oder nanokristallinen anorganischen Halbleitern als Akzeptoren erreicht werden. Das Resultat, dass bei geeigneter Präparation der Polymer-Vinazen-Schicht vergleichbare Ergebnisse erzielt werden können, ist ein bedeutender Schritt hin zu effizienteren Polymersolarzellen. KW - Nanostruktur KW - Polymer-Solarzelle KW - Effizienz KW - Morphologie KW - Polymer solar cells KW - nanostructure KW - efficiency KW - morphology Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29054 ER - TY - THES A1 - Yildiz, Tugba T1 - Dissecting the role of the TusA protein for cell functionality and FtsZ ring assembly in Escherichia coli T1 - Entschlüsselung der Rolle des TusA-Proteins für die Zellfunktionalität und FtsZ-Ringbildung in Escherichia coli N2 - In this work, the role of the TusA protein was investigated for the cell functionality and FtsZ ring assembly in Escherichia coli. TusA is the tRNA-2-thiouridine synthase that acts as a sulfur transferase in tRNA thiolation for the formation of 2-thiouridine at the position 34 (wobble base) of tRNALys, tRNAGlu and tRNAGln. It binds the persulfide form of sulfur and transfers it to further proteins during mnm5s2U tRNA modification at wobble position and for Moco biosynthesis. With this thiomodification of tRNA, the ribosome binding is more efficient and frameshifting is averted during the protein translation. Previous studies have revealed an essential role of TusA in bacterial cell physiology since deletion of the tusA gene resulted in retarded growth and filamentous cells during the exponential growth phase in a rich medium which suddenly disappeared during the stationary phase. This indicates a problem in the cell division process. Therefore the focus of this work was to investigate the role of TusA for cell functionality and FtsZ ring formation and thus the cell separation. The reason behind the filamentous growth of the tusA mutant strain was investigated by growth and morphological analyses. ΔtusA cells showed a retarded growth during the exponential phase compared to the WT strain. Also, morphological analysis of ΔtusA cells confirmed the filamentous cell shape. The growth and cell division defects in ΔtusA indicated a defect in FtsZ protein as a key player of cell division. The microscopic investigation revealed that filamentous ΔtusA cells possessed multiple DNA parts arranged next to each other. This suggested that although the DNA replication occurred correctly, there was a defect in the step where FtsZ should act; probably FtsZ is unable to assemble to the ring structure or the assembled ring is not able to constrict. All tested mutant strains (ΔtusD, ΔtusE and ΔmnmA) involved in the mnm5s2U34 tRNA modification pathway shared the similar retarded growth and filamentous cell shape like ΔtusA strain. Thus, the cell division defect arises from a defect in mnm5s2U34 tRNA thiolation. Since the FtsZ ring formation was supposed to be defective in filaments, a possible intracellular interaction of TusA and FtsZ was examined by fluorescent (EGFP and mCherry) fusion proteins expression and FRET. FtsZ expressing tusA mutant (DE3) cells showed a red mCherry signal at the cell poles, indicating that FtsZ is still in the assembling phase. Interestingly, the cellular region of EGFP-TusA fusion protein expressed in ΔtusA (DE3) was conspicuous; the EGFP signal was spread throughout the whole cell and, in addition, a slight accumulation of the EGFP-TusA fluorescence was detectable at the cell poles, the same part of the cell as for mCherry-FtsZ. Thus, this strongly suggested an interaction of TusA and FtsZ. Furthermore, the cellular FtsZ and Fis concentrations, and their change during different growth phases were determined via immunoblotting. All tested deletion strains of mnm5s2U34 tRNA modification show high cellular FtsZ and Fis levels in the exponential phase, shifting to the later growth phases. This shift reflects the retarded growth, whereby the deletion strains reach later the exponential phase. Conclusively, the growth and cell division defect, and thus the formation of filaments, is most likely caused by changes in the cellular FtsZ and Fis concentrations. Finally, the translation efficiencies of certain proteins (RpoS, Fur, Fis and mFis) in tusA mutant and in additional gene deletion strains were studied whether they were affected by using unmodified U34 tRNAs of Lys, Glu and Gln. The translation efficiency is decreased in mnm5s2U34 tRNA modification-impaired strains in addition to their existing growth and cell division defect due to the elimination of these three amino acids. Finally, these results confirm and reinforce the importance of Lys, Glu and Gln and the mnm5s2U34 tRNA thiolation for efficient protein translation. Thus, these findings verify that the translation of fur, fis and rpoS is regulated by mnm5s2U34 tRNA modifications, which is growth phase-dependent. In total, this work showed the importance of the role of TusA for bacterial cell functionality and physiology. The deletion of the tusA gene disrupted a complex regulatory network within the cell, that most influenced by the decreased translation of Fis and RpoS, caused by the absence of mnm5s2U34 tRNA modifications. The disruption of RpoS and Fis cellular network influences in turn the cellular FtsZ level in the early exponential phase. Finally, the reduced FtsZ concentration leads to elongated, filamentous E. coli cells, which are unable to divide. N2 - In dieser Arbeit wurde die Rolle des TusA-Proteins für die Zellfunktionalität und FtsZ-Ringbildung in Escherichia coli untersucht. Bei TusA handelt es sich um die tRNA-2-Thiouridine-Synthase, die als Schwefeltransferase bei der tRNA-Thiolierung zur Bildung von 2-Thiouridin an der Position 34 (Wobble-Base) von tRNALys, tRNAGlu und tRNAGln dient. Dieses Protein bindet das Schwefelatom als Persulfid und überträgt dieses bei der mnm5s2U tRNA-Modifikation an der Wobble-Position und der Molybdän-Cofaktor (Moco)-Biosynthese auf weitere Proteine. Durch diese Thiomodifikation der tRNA wird eine effizientere Bindung des Ribosoms erreicht und zudem eine Verschiebung des Leserasters während der Proteintranslation verhindert. Frühere Studien haben eine essenzielle Rolle für TusA in der bakteriellen Zellphysiologie gezeigt: die Deletion des tusA-Gens führte zu einem verlangsamten Wachstum und filamentösen (fadenförmigen) Zellen als WT-Zellen während der exponentiellen Wachstumsphase in einem reichhaltigen Medium. In der stationären Phase waren diese Filamente hingegen nicht mehr zu beobachten, was auf einen Defekt während der Zellteilung hindeutete. Ziel dieser Arbeit war es daher die Rolle des TusA-Proteins für die Zellfunktionalität und FtsZ-Ringbildung zu analysieren. Im Rahmen der vorliegenden Doktorarbeit wurde die Ursache für das filamentöse Wachstum der tusA-Mutante untersucht. Dafür wurden Wachstums- und Morphologieanalysen durchgeführt. Die ΔtusA-Zellen zeigten im Vergleich zum WT-Stamm ein verzögertes Wachstum in der exponentiellen Phase. Die filamentöse Zellform der ΔtusA-Zellen wurde ebenfalls durch die Analyse der Zellmorphologie bestätigt. Demnach deutete das Wachstums- und Zellteilungsproblem von ΔtusA auf einen Defekt des FtsZ-Proteins hin, das eine Schlüsselrolle bei der Zellteilung besitzt. Anhand von mikroskopischen Untersuchungen konnte gezeigt werden, dass die filamentöse ΔtusA-Zellen mehrere nebeneinander angeordnete DNA-Abschnitte besaßen. Dies ließ die Vermutung zu, dass trotz korrekt verlaufender DNA-Replikation, ein Defekt in dem Schritt, in dem FtsZ einsetzen sollte, vorliegt. Folglich scheint FtsZ sich nicht zur Ringstruktur anordnen zu können. Denkbar wäre auch, dass der zusammengesetzte Ring nicht in der Lage ist zu kontrahieren. Alle getesteten Mutantenstämme (ΔtusD, ΔtusE und ΔmnmA), die an der mnm5s2U34-Modifikation beteiligt sind, zeigten ein ähnlich verzögertes Wachstum und eine ähnliche filamentöse Zellform wie der ΔtusA-Stamm. Somit ist der Zellteilungsdefekt auf einen Defekt in der mnm5s2U34-tRNA-Thiolierung zurückzuführen. Des Weiteren wurde eine mögliche intrazelluläre Interaktion von TusA und FtsZ anhand der Expression von fluoreszierender (EGFP und mCherry) Fusionsproteine und FRET-Analysen überprüft, da die Bildung des FtsZ-Rings in den Filamenten defekt zu sein scheint. Für FtsZ-exprimierende tusA (DE3)-Zellen wurden rote mCherry-Signale an den Zellpolen detektiert, was auf das sich noch assemblierende FtsZ hindeutete. Interessanterweise war die zelluläre Region des EGFP-TusA Signals, das in ΔtusA (DE3) exprimiert wurde, überlappend mit dem von mCherry-FtsZ. Das EGFP-Signal zeigte eine Verteilung über die gesamte Zelle, wobei noch zusätzlich eine leichte Akkumulation der EGFP-TusA-Fluoreszenz an den Zellpolen (wie bei mCherry-FtsZ) festgestellt wurde. Somit deutet dies auf eine Interaktion zwischen TusA und FtsZ hin. Zusätzlich wurden die FtsZ- und Fis-Konzentrationen und deren Änderung während der unterschiedlichen Wachstumsphasen anhand von Immunoblot-Analysen ermittelt. Alle getesteten Deletionsstämme der mnm5s2U34-tRNA-Modifikation zeigten hohe zelluläre FtsZ- und Fis-Mengen in der exponentiellen Phase, die in die späteren Wachstumsphasen verschoben sind. Diese Verschiebung spiegelt das verlangsamte Wachstum wider, wodurch die Deletionsstämme später die exponentielle Phase erreichen. Demzufolge ist anzunehmen, dass der Wachstums- und Zellteilungsdefekt und daraus die Bildung von Filamenten durch Veränderungen der zellulären FtsZ- und Fis-Konzentrationen verursacht werden. Abschließend wurde in dieser Arbeit mittels Durchflusszytometrie die Translationseffizienz bestimmter Proteine (RpoS, Fur, Fis und mFis) in ΔtusA und zusätzlichen Gendeletionsstämmen untersucht. Insbesondere sollte gezeigt werden, ob die Translation der Proteine durch die Verwendung von unmodifizierten U34-tRNAs für Lys, Glu und Gln beeinträchtigt wird. Somit ist die Translationseffizienz in den Stämmen mit beeinträchtigter mnm5s2U34-tRNA-Modifikation verringert, was zusätzlich zu ihren bereits bestehenden Wachstums- und Zellteilungsdefekten aufgrund der Eliminierung dieser drei Aminosäuren hinzukommt. Damit bestätigen und verstärken diese Ergebnisse die Bedeutung von Lys, Glu und Gln und der mnm5s2U34 tRNA-Thiolierung für eine effiziente Proteintranslation. Sie belegen auch, dass die Translation von fur, fis und rpoS durch die mnm5s2U34-tRNA-Modifikation reguliert wird, welche wachstumsphasenabhängig ist. Im Résumé zeigen die Ergebnisse dieser Forschungsarbeit neue Funktionen des TusA-Proteins für die Funktionalität und Physiologie von Bakterienzellen. Durch die Deletion des tusA-Gens wurde ein komplexes regulatorisches Netzwerk innerhalb der Zelle gestört, das vor allem durch die verringerte Translation von Fis und RpoS beeinflusst wird (die durch das Fehlen der mnm5s2U34-tRNA-Modifikation verursacht wird). Die Unterbrechung des zellulären RpoS- und Fis-Netzwerks beeinflusst wiederum die zelluläre FtsZ-Menge in der frühen exponentiellen Phase. Schließlich führt diese Verringerung der FtsZ-Konzentration zu filamentösen E. coli-Zellen, die sich nicht mehr teilen können. KW - tRNA thiomodifications KW - 5-methylaminomethyl-2-thiouridine KW - TusA KW - growth defect KW - cell division KW - FtsZ KW - FtsZ ring assemby KW - RpoS KW - Fis KW - translation efficiency KW - tRNA Thiomodifikation KW - 5-Methylaminomethyl-2-Thiouridin KW - TusA KW - Zellteilungsdefekt KW - Zellteilung KW - FtsZ-Ringbildung KW - Translationseffizienz KW - filaments KW - Filamente Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-617135 ER - TY - THES A1 - Yeldesbay, Azamat T1 - Complex regimes of synchronization T1 - Komplexe Synchronisationszustände BT - modeling and analysis N2 - Synchronization is a fundamental phenomenon in nature. It can be considered as a general property of self-sustained oscillators to adjust their rhythm in the presence of an interaction. In this work we investigate complex regimes of synchronization phenomena by means of theoretical analysis, numerical modeling, as well as practical analysis of experimental data. As a subject of our investigation we consider chimera state, where due to spontaneous symmetry-breaking of an initially homogeneous oscillators lattice split the system into two parts with different dynamics. Chimera state as a new synchronization phenomenon was first found in non-locally coupled oscillators system, and has attracted a lot of attention in the last decade. However, the recent studies indicate that this state is also possible in globally coupled systems. In the first part of this work, we show under which conditions the chimera-like state appears in a system of globally coupled identical oscillators with intrinsic delayed feedback. The results of the research explain how initially monostable oscillators became effectivly bistable in the presence of the coupling and create a mean field that sustain the coexistence of synchronized and desynchronized states. Also we discuss other examples, where chimera-like state appears due to frequency dependence of the phase shift in the bistable system. In the second part, we make further investigation of this topic by modeling influence of an external periodic force to an oscillator with intrinsic delayed feedback. We made stability analysis of the synchronized state and constructed Arnold tongues. The results explain formation of the chimera-like state and hysteric behavior of the synchronization area. Also, we consider two sets of parameters of the oscillator with symmetric and asymmetric Arnold tongues, that correspond to mono- and bi-stable regimes of the oscillator. In the third part, we demonstrate the results of the work, which was done in collaboration with our colleagues from Psychology Department of University of Potsdam. The project aimed to study the effect of the cardiac rhythm on human perception of time using synchronization analysis. From our part, we made a statistical analysis of the data obtained from the conducted experiment on free time interval reproduction task. We examined how ones heartbeat influences the time perception and searched for possible phase synchronization between heartbeat cycles and time reproduction responses. The findings support the prediction that cardiac cycles can serve as input signals, and is used for reproduction of time intervals in the range of several seconds. N2 - Synchronisation ist ein fundamentales Naturphänomen. Es ist die grundlegende Eigenschaft sich selbsterhaltender Oszillatoren, in Gegenwart einer Wechselwirkung, danach zu streben, ihre Rhythmen anzupassen. In dieser Arbeit betrachten wir komplexe Synchronisationszustände sowohl mit Hilfe analytischer Methoden als auch durch numerische Simulation und in experimentellen Daten. Unser Untersuchungsobjekt sind die sogenannten Chimera Zustände, in welchen sich Ensemble von gekoppelten, identischen Oszillatoren auf Grund eines Symmetriebruches spontan in Gruppen mit unterschiedlicher Dynamik aufteilen. Die Entdeckung von Chimeras in zunächst nichtlokal gekoppelten Systemen hat in den letzten zehn Jahren ein großes Interesse an neuartigen Synchronisationsphänomenen geweckt. Neueste Forschungsergebnisse belegen, dass diese Zustände unter bestimmten Bedingungen auch in global gekoppelten Systemen existieren können. Solche Bedingungen werden im ersten Teil der Arbeit in Ensemblen global gekoppelter Oszillatoren mit zusätzlicher, zeitverzögerter Selbstkopplung untersucht. Wir zeigen, wie zunächst monostabile Oszillatoren in Gegenwart von dem Treiben der globalen Kopplung effektiv bistabil werden, und sich so in zwei Gruppen organisieren. Das mittlere Feld, welches durch diese Gruppen aufgebaut wird, ist quasiperiodisch wodurch der Chimera Zustand sich selbst stabilisiert. In einem anderen Beispiel zeigen wir, dass der Chimera Zustand auch durch einen frequenzabhängigen Phasenunterschied in der globalen Kopplung erreicht werden kann. Zur genaueren Untersuchung der Mechanismen, die zur effektiven Bistabilität führen, betrachten wir im zweiten Teil der Arbeit den Einfluss einer externen periodischen Kraft auf einzelne Oszillatoren mit zeitverzögerter Selbstkopplung. Wir führen die Stabilitätanalyse des synchronen Zustands durch, und stellen die Arnoldzunge dar. Im dritten Teil der Arbeit stellen wir die Ergebnisse einer Synchronisationsanalyse vor, welche in Kooperation mit Wissenschaftlern der Psychologischen Fakultät der Universität Potsdam durchgeführt wurde. In dem Projekt wurde die Auswirkung des Herzrhythmus auf die menschliche Zeitwahrnehmung erforscht. Unsere Aufgabe war es, die experimentellen Daten statistisch zu analysieren. Im Experiment sollten Probanden ein gegebenes Zeitintervall reproduzieren während gleichzeitig ihr Herzschlag aufgezeichnet wurde. Durch eine Phasenanalyse haben wir den Zusammenhang zwischen dem Herzschlag und der Start- bzw. Stoppzeit der zu reproduzierenden Zeitintervalle untersucht. Es stellt sich heraus, dass Herzschläge bei Zeitintervallen über einige Sekunden als Taktgeber dienen können. KW - synchronization KW - phase oscillators KW - chimera state KW - time perception KW - Synchronisation KW - Phasen Oszillatoren KW - chimera Zustände KW - zeitverzögerte Selbstkopplung KW - Synchronisationsanalyse KW - Zeitwahrnehmung Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-73348 ER - TY - THES A1 - Yang, Xiaoqiang T1 - Spatial and temporal analyses of catchment and in-stream nitrate dynamics BT - insights derived from fully distributed, process-based modeling and high-frequency monitoring BT - Untersuchungen auf der Basis von räumlich verteilter, prozessbasierter Modellierung und eines zeitlich hochaufgelösten Gewässermonitorings N2 - Water quality in river systems is of growing concern due to rising anthropogenic pressures and climate change. Mitigation efforts have been placed under the guidelines of different governance conventions during last decades (e.g., the Water Framework Directive in Europe). Despite significant improvement through relatively straightforward measures, the environmental status has likely reached a plateau. A higher spatiotemporal accuracy of catchment nitrate modeling is, therefore, needed to identify critical source areas of diffuse nutrient pollution (especially for nitrate) and to further guide implementation of spatially differentiated, cost-effective mitigation measures. On the other hand, the emerging high-frequency sensor monitoring upgrades the monitoring resolution to the time scales of biogeochemical processes and enables more flexible monitoring deployments under varying conditions. The newly available information offers new prospects in understanding nitrate spatiotemporal dynamics. Formulating such advanced process understanding into catchment models is critical for model further development and environmental status evaluation. This dissertation is targeting on a comprehensive analysis of catchment and in-stream nitrate dynamics and is aiming to derive new insights into their spatial and temporal variabilities through the new fully distributed model development and the new high-frequency data. Firstly, a new fully distributed, process-based catchment nitrate model (the mHM-Nitrate model) is developed based on the mesoscale Hydrological Model (mHM) platform. Nitrate process descriptions are adopted from the Hydrological Predictions for the Environment (HYPE), with considerable improved implementations. With the multiscale grid-based discretization, mHM-Nitrate balances the spatial representation and the modeling complexity. The model has been thoughtfully evaluated in the Selke catchment (456 km2), central Germany, which is characterized by heterogeneous physiographic conditions. Results show that the model captures well the long-term discharge and nitrate dynamics at three nested gauging stations. Using daily nitrate-N observations, the model is also validated in capturing short-term fluctuations due to changes in runoff partitioning and spatial contribution during flooding events. By comparing the model simulations with the values reported in the literature, the model is capable of providing detailed and reliable spatial information of nitrate concentrations and fluxes. Therefore, the model can be taken as a promising tool for environmental scientists in advancing environmental modeling research, as well as for stakeholders in supporting their decision-making, especially for spatially differentiated mitigation measures. Secondly, a parsimonious approach of regionalizing the in-stream autotrophic nitrate uptake is proposed using high-frequency data and further integrated into the new mHM-Nitrate model. The new regionalization approach considers the potential uptake rate (as a general parameter) and effects of above-canopy light and riparian shading (represented by global radiation and leaf area index data, respectively). Multi-parameter sensors have been continuously deployed in a forest upstream reach and an agricultural downstream reach of the Selke River. Using the continuous high-frequency data in both streams, daily autotrophic uptake rates (2011-2015) are calculated and used to validate the regionalization approach. The performance and spatial transferability of the approach is validated in terms of well-capturing the distinct seasonal patterns and value ranges in both forest and agricultural streams. Integrating the approach into the mHM-Nitrate model allows spatiotemporal variability of in-stream nitrate transport and uptake to be investigated throughout the river network. Thirdly, to further assess the spatial variability of catchment nitrate dynamics, for the first time the fully distributed parameterization is investigated through sensitivity analysis. Sensitivity results show that parameters of soil denitrification, in-stream denitrification and in-stream uptake processes are the most sensitive parameters throughout the Selke catchment, while they all show high spatial variability, where hot-spots of parameter sensitivity can be explicitly identified. The Spearman rank correlation is further analyzed between sensitivity indices and multiple catchment factors. The correlation identifies that the controlling factors vary spatially, reflecting heterogeneous catchment responses in the Selke catchment. These insights are, therefore, informative in informing future parameter regionalization schemes for catchment water quality models. In addition, the spatial distributions of parameter sensitivity are also influenced by the gauging information that is being used for sensitivity evaluation. Therefore, an appropriate monitoring scheme is highly recommended to truly reflect the catchment responses. N2 - Die Wasserqualität in Flusssystemen ist aufgrund des steigenden anthropogenen Drucks und des Klimawandels von wachsender Bedeutung. Um kritische Eintragspfade diffuser Nitratbelastungen zu identifizieren, ist eine hohe räumliche und zeitliche Auflösung der Modellierung des Einzugsgebietes erforderlich. Neue hochfrequente Sensordaten bieten neue Perspektiven für das Verständnis der Nitratdynamik in Einzugsgebieten. Die Vertiefung des Prozessverständnisses ist entscheidend für die Weiterentwicklung von Einzugsmodellen. Diese Dissertation zielt auf eine umfassende Analyse der einzugsbezogenen und gewässerinternen Nitratdynamik ab und analysiert ihre räumlichen und zeitlichen Variabilität anhand vollständig verteilter Modellierung und neuer zeitlich hochaufgelöster Sensordaten. Zunächst wurde ein neues, räumlich verteiltes hydrologisches Nitratmodell (das mHM-Nitratmodell) entwickelt, um die Nitratflüsse und -dynamiken in Einzugsgebieten abzubilden. Das Modell wurde im Selke Einzugsgebiet (456 km2) in Mitteldeutschland implementiert. Die Ergebnisse zeigen, dass das Modell sowohl die lang- als auch die kurzfristige Dynamik von Abfluss und Nitrat an drei genesteten Messstationen gut erfasst und in der Lage ist, detaillierte und zuverlässige räumliche Informationen zu liefern. Des Weiteren wurde ein vereinfachter Ansatz zur Regionalisierung der autotrophen Nitrataufnahme in Fließgewässern entwickelt und in das neue mHM-Nitratmodell integriert. Die Verfügbarkeit von Licht auf der Gewässeroberfläche wird als treibender Faktor identifiziert, welcher durch Globalstrahlung und pflanzenspezifischem Blattflächenindex quantifiziert werden kann. Die räumliche Übertragbarkeit des Ansatzes wird anhand kontinuierlicher, zeitlich hochaufgelöster Gewässermessdaten in der Selke überprüft. Hierauf aufbauend wird die vollständig verteilte Parametrisierung des Modells durch Sensitivitätsanalysen untersucht, welche die empfindlichsten Parameter und deren räumliche Variabilität identifizieren. Die Spearman-Rank-Korrelationen zeigen, dass die bestimmenden Einflussfaktoren aufgrund der heterogenen Einzugscharakteristik auch räumlich stark variieren. Das mHM-Nitratmodell kann als vielversprechendes Instrument zur Beurteilung der detaillierten räumzeitlichen Variabilität der Nitratflüsse und -dynamiken genutzt werden, was sowohl für Wissenschaftler als auch für Nutzer aus der Praxis wichtig ist. Die Integration des neuen Ansatzes zur gewässerinternen Nährstoffaufnahme in das Modell ermöglicht eine räumlich-zeitliche Untersuchung des Nitrattransports und Nährstoffentzugs in Fließgewässernetzwerken. Die Erkenntnisse aus Sensitivitäts- und Korrelationsanalysen sind bedeutsam für die Ableitung zukünftiger Parameterregionalisierungsansätze, die es erlauben, einen ausgewogenen Kompromiss zwischen der Komplexität der Modellparametrisierung und der hinreichenden Darstellung der natürlichen Heterogenität zu finden. T2 - Raumzeitliche Analyse von einzugsgebietsbezogenen und gewässerinternen Nitratdynamiken KW - Catchment and in-stream water quality KW - Spatial and temporal nitrate variability KW - Fully distributed nitrate modeling KW - High-frequency data KW - Heterogeneous catchement responses KW - Autotrophic nitrate uptake in river networks KW - Autotropher Nitrat-Aufnahme in Gewässernetzen KW - Räumlich verteilte Nitratmodellierung KW - Heterogene Einzugsgebietsreaktionen KW - Hochfrequenzdaten KW - Räumliche und zeitliche Nitratvariabilität Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-477029 ER - TY - THES A1 - Yan, Runyu T1 - Nitrogen-doped and porous carbons towards new energy storage mechanisms for supercapacitors with high energy density T1 - Neuartige Energiespeichermechanismen in porösen und stickstoffdotierten Kohlenstoffen für die Anwendung in Superkondensatoren mit hoher Energiedichte N2 - Supercapacitors are electrochemical energy storage devices with rapid charge/discharge rate and long cycle life. Their biggest challenge is the inferior energy density compared to other electrochemical energy storage devices such as batteries. Being the most widely spread type of supercapacitors, electrochemical double-layer capacitors (EDLCs) store energy by electrosorption of electrolyte ions on the surface of charged electrodes. As a more recent development, Na-ion capacitors (NICs) are expected to be a more promising tactic to tackle the inferior energy density due to their higher-capacity electrodes and larger operating voltage. The charges are simultaneously stored by ion adsorption on the capacitive-type cathode surface and via faradic process in the battery-type anode, respectively. Porous carbon electrodes are of great importance in these devices, but the paramount problems are the facile synthetic routes for high-performance carbons and the lack of fundamental understanding of the energy storage mechanisms. Therefore, the aim of the present dissertation is to develop novel synthetic methods for (nitrogen-doped) porous carbon materials with superior performance, and to reveal a deeper understanding energy storage mechanisms of EDLCs and NICs. The first part introduces a novel synthetic method towards hierarchical ordered meso-microporous carbon electrode materials for EDLCs. The large amount of micropores and highly ordered mesopores endow abundant sites for charge storage and efficient electrolyte transport, respectively, giving rise to superior EDLC performance in different electrolytes. More importantly, the controversial energy storage mechanism of EDLCs employing ionic liquid (IL) electrolytes is investigated by employing a series of porous model carbons as electrodes. The results not only allow to conclude on the relations between the porosity and ion transport dynamics, but also deliver deeper insights into the energy storage mechanism of IL-based EDLCs which is different from the one usually dominating in solvent-based electrolytes leading to compression double-layers. The other part focuses on anodes of NICs, where novel synthesis of nitrogen-rich porous carbon electrodes and their sodium storage mechanism are investigated. Free-standing fibrous nitrogen-doped carbon materials are synthesized by electrospinning using the nitrogen-rich monomer (hexaazatriphenylene-hexacarbonitrile, C18N12) as the precursor followed by condensation at high temperature. These fibers provide superior capacity and desirable charge/discharge rate for sodium storage. This work also allows insights into the sodium storage mechanism in nitrogen-doped carbons. Based on this mechanism, further optimization is done by designing a composite material composed of nitrogen-rich carbon nanoparticles embedded in conductive carbon matrix for a better charge/discharge rate. The energy density of the assembled NICs significantly prevails that of common EDLCs while maintaining the high power density and long cycle life. N2 - Superkondensatoren sind elektrochemische Energiespeicher, die eine hohe Lade-/Entladerate und Zyklensta-bilität aufweisen, deren größte Einschränkung derzeit jedoch bei ihrer im Vergleich zu anderen Speicherlösungen, wie etwa Batterien, geringen Energiedichte liegt. Im am weitesten verbreiteten Superkondensatortyp, dem elektrochemischen Doppelschichtkondensator (engl. electrochemical double-layer capacitor, EDLC), wird die Energie durch Elektrosorption der Elektrolytionen an die geladene Elektrodenoberfläche gespeichert. Der Natrium-Ionen-Kondensator (engl. Na-ion capacitor, NIC) ist eine neuere Entwicklung und löst das Problem der geringen Energiedichte durch Verwendung von Elektroden mit einer höheren Kapazität und Betriebsspannung. Dies wird dadurch erreicht, dass simultan anodenseitig ein faradayscher Prozess und kathodenseitig der Aufbau einer elektrochemischen Doppelschicht genutzt werden. Somit kommen die Vorteile beider Phänomene zum Tragen. Poröse Kohlenstoffelektroden sind wichtig für beide Speichersysteme, wobei die Entwicklung einfacher Syn-theserouten für die Herstellung von Hochleistungskohlenstoffen und der Aufbau eines grundlegenden Ver-ständnisses der dem Energiespeicher zugrunde liegenden Mechanismen die vordergründigen Herausforde-rungen sind. Daher ist es das Ziel der vorliegenden Dissertation, neue Methoden zur Synthese (stickstoffdo-tierter) Kohlenstoffmaterialien mit überlegener Leistung zu erschließen und eine tiefere Einsicht in die me-chanistischen Aspekte der Funktionsweise der eingangs vorgestellten Superkondensatorsysteme zu erhalten. Im ersten Teil der Arbeit wird eine neuartige Synthese von Kohlenstoff-Elektrodenmaterialien für EDLCs vor-gestellt, welche ein hohes Volumen an Mikroporen und hochgeordneten Mesoporen aufweisen. Durch deren Einsatz kann in verschiedenen Elektrolytsystemen eine herausragende Energiedichte erzielt werden. Umso bedeutender sind die Ergebnisse der Untersuchung des kontrovers diskutierten Energiespeichermechanismus in EDLCs mit Elektrolyten auf Basis ionischer Flüssigkeiten (engl. ionic liquids, ILs) und Elektroden aus porösen Modellkohlenstoffen. Aus diesen können nicht nur Rückschlüsse auf den Zusammenhang zwischen Porosität und Ionentransportdynamik gezogen werden, sondern sie lassen auch wichtige Erkenntnisse auf die Mechanismen des Ladungsspeichers in IL-basierten EDLCs zu, welche sich grundlegend von dem in lösungsmittelbasierten Elektrolyten vorherrschenden Mechanismus, der Bildung einer Kompressionsdoppelschicht, unterscheiden. Im zweiten Teil des Werks liegt der Fokus auf der Synthese stickstoffreicher poröser Kohlenstoffelektroden als Anoden für NICs und der Untersuchung der Vorgänge während der Natriumeinlagerung in solchen Syste-men. Freistehende, faserartige und stickstoffdotierte Kohlenstoffmaterialien wurden durch Elektrospinnen des stickstoffreichen Monomers Hexaazatriphenylen-hexacarbonitril (C18N12) gefolgt von dessen Kondensati-on bei hoher Temperatur erhalten. Diese Fasern überzeugen durch überragende Kapazität und eine hohe Lade-/Entladerate beim Natriumspei-chervorgang. In diesem Rahmen wurde auch der Mechanismus der Natriumeinlagerung in stickstoffdotierten Kohlenstoffen beleuchtet und auf Basis dieser Erkenntnisse wurde eine weitere Optimierung vorgenommen. Indem ein Kompositmaterial aus stickstoffreichen Kohlenstoffnanopartikeln in einer leitfähigen Kohlenstoffmatrix erzeugt wurde, konnte die Lade-/Entladerate abermals verbessert werden. Somit übertrifft die Energiedichte der so konstruierten NICs die gewöhnlicher EDLCs, während deren hohe Leistungsdichte und Lebensdauer erhalten bleibt. KW - porous carbons KW - supercapacitors KW - high energy density KW - energy storage mechanism KW - poröse Kohlenstoffe KW - Superkondensatoren KW - hohe Energiedichte KW - Energiespeichermechanismus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-431413 ER - TY - THES A1 - Yadavalli, Nataraja Sekhar T1 - Advances in experimental methods to probe surface relief grating formation mechanism in photosensitive materials T1 - Entstehung von Oberflächengittern in lichtempfindlichen Materialien N2 - When azobenzene-modified photosensitive polymer films are irradiated with light interference patterns, topographic variations in the film develop that follow the electric field vector distribution resulting in the formation of surface relief grating (SRG). The exact correspondence of the electric field vector orientation in interference pattern in relation to the presence of local topographic minima or maxima of SRG is in general difficult to determine. In my thesis, we have established a systematic procedure to accomplish the correlation between different interference patterns and the topography of SRG. For this, we devise a new setup combining an atomic force microscope and a two-beam interferometer (IIAFM). With this set-up, it is possible to track the topography change in-situ, while at the same time changing polarization and phase of the impinging interference pattern. To validate our results, we have compared two photosensitive materials named in short as PAZO and trimer. This is the first time that an absolute correspondence between the local distribution of electric field vectors of interference pattern and the local topography of the relief grating could be established exhaustively. In addition, using our IIAFM we found that for a certain polarization combination of two orthogonally polarized interfering beams namely SP (↕, ↔) interference pattern, the topography forms SRG with only half the period of the interference patterns. Exploiting this phenomenon we are able to fabricate surface relief structures below diffraction limit with characteristic features measuring only 140 nm, by using far field optics with a wavelength of 491 nm. We have also probed for the stresses induced during the polymer mass transport by placing an ultra-thin gold film on top (5–30 nm). During irradiation, the metal film not only deforms along with the SRG formation, but ruptures in regular and complex manner. The morphology of the cracks differs strongly depending on the electric field distribution in the interference pattern even when the magnitude and the kinetic of the strain are kept constant. This implies a complex local distribution of the opto-mechanical stress along the topography grating. The neutron reflectivity measurements of the metal/polymer interface indicate the penetration of metal layer within the polymer resulting in the formation of bonding layer that confirms the transduction of light induced stresses in the polymer layer to a metal film. N2 - Azobenzolhaltige Polymere gehören zu einer Klasse funktionaler Materialien, bei denen durch ein äußeres Strahlungsfeld eine starke mechanische Reaktion ausgelöst werden kann. Durch die Bindung an das Polymerrückgrat können die Azobenzole, die unter UV-Belichtung eine Photoisomerisierung ausführen, was zum Teil drastische Effekte zur Folge hat. Unter Belichtung mit Intensitätsmustern, d.h. mit räumlich variierender Verteilung der Polarisation oder der Intensität des einfallenden Lichts verändert sich die Topographie der azobenzolhaltigen Filme, was zur Bildung von Oberflächengittern (engl. Surface Relief Gratings, SRG) führt. In dieser Arbeit wurde eine neue Methode vorgeschlagen, bei der das Verhalten elastischer/morphologischer Eigenschaften unter verschiedenen Belichtungsbedingungen, d.h. mit unterschiedlicher Verteilung der Polarisation und der Intensität in situ lokal als Funktion der Position entlang der SRG aufgenommen werden kann. Außerdem wurde hier vorgeschlagen, opto-mechanische Spannungen, die innerhalb der photosensitiven Polymerfilme während der Belichtung entstehen, mit Hilfe dünner aufgebrachter metallischen Schichten abzubilden und zu analysieren. KW - Azobenzolhaltige Polymerfilme KW - Oberflächengitter KW - In-situ Rasterkraftmikroskopie KW - Opto-mechanische Spannungen KW - Metall/Graphen/Polymer Grenzfläch KW - azobenzene polymer films KW - surface relief grating KW - in-situ atomic force microscopy KW - opto-mechanical stresses KW - metal/polymer interfaces Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-71213 ER - TY - THES A1 - Yadav, Himanshu T1 - A computational evaluation of feature distortion and cue weighting in sentence comprehension T1 - Eine komputationale Evaluation von Feature-Verfälschung und Cue-Gewichtung in der Satzverarbeitung N2 - Successful sentence comprehension requires the comprehender to correctly figure out who did what to whom. For example, in the sentence John kicked the ball, the comprehender has to figure out who did the action of kicking and what was being kicked. This process of identifying and connecting the syntactically-related words in a sentence is called dependency completion. What are the cognitive constraints that determine dependency completion? A widely-accepted theory is cue-based retrieval. The theory maintains that dependency completion is driven by a content-addressable search for the co-dependents in memory. The cue-based retrieval explains a wide range of empirical data from several constructions including subject-verb agreement, subject-verb non-agreement, plausibility mismatch configurations, and negative polarity items. However, there are two major empirical challenges to the theory: (i) Grammatical sentences’ data from subject-verb number agreement dependencies, where the theory predicts a slowdown at the verb in sentences like the key to the cabinet was rusty compared to the key to the cabinets was rusty, but the data are inconsistent with this prediction; and, (ii) Data from antecedent-reflexive dependencies, where a facilitation in reading times is predicted at the reflexive in the bodybuilder who worked with the trainers injured themselves vs. the bodybuilder who worked with the trainer injured themselves, but the data do not show a facilitatory effect. The work presented in this dissertation is dedicated to building a more general theory of dependency completion that can account for the above two datasets without losing the original empirical coverage of the cue-based retrieval assumption. In two journal articles, I present computational modeling work that addresses the above two empirical challenges. To explain the grammatical sentences’ data from subject-verb number agreement dependencies, I propose a new model that assumes that the cue-based retrieval operates on a probabilistically distorted representation of nouns in memory (Article I). This hybrid distortion-plus-retrieval model was compared against the existing candidate models using data from 17 studies on subject-verb number agreement in 4 languages. I find that the hybrid model outperforms the existing models of number agreement processing suggesting that the cue-based retrieval theory must incorporate a feature distortion assumption. To account for the absence of facilitatory effect in antecedent-reflexive dependen� cies, I propose an individual difference model, which was built within the cue-based retrieval framework (Article II). The model assumes that individuals may differ in how strongly they weigh a syntactic cue over a number cue. The model was fitted to data from two studies on antecedent-reflexive dependencies, and the participant-level cue-weighting was estimated. We find that one-fourth of the participants, in both studies, weigh the syntactic cue higher than the number cue in processing reflexive dependencies and the remaining participants weigh the two cues equally. The result indicates that the absence of predicted facilitatory effect at the level of grouped data is driven by some, not all, participants who weigh syntactic cues higher than the number cue. More generally, the result demonstrates that the assumption of differential cue weighting is important for a theory of dependency completion processes. This differential cue weighting idea was independently supported by a modeling study on subject-verb non-agreement dependencies (Article III). Overall, the cue-based retrieval, which is a general theory of dependency completion, needs to incorporate two new assumptions: (i) the nouns stored in memory can undergo probabilistic feature distortion, and (ii) the linguistic cues used for retrieval can be weighted differentially. This is the cumulative result of the modeling work presented in this dissertation. The dissertation makes an important theoretical contribution: Sentence comprehension in humans is driven by a mechanism that assumes cue-based retrieval, probabilistic feature distortion, and differential cue weighting. This insight is theoretically important because there is some independent support for these three assumptions in sentence processing and the broader memory literature. The modeling work presented here is also methodologically important because for the first time, it demonstrates (i) how the complex models of sentence processing can be evaluated using data from multiple studies simultaneously, without oversimplifying the models, and (ii) how the inferences drawn from the individual-level behavior can be used in theory development. N2 - Bei der Satzverarbeitung muss der Leser richtig herausfinden, wer wem was angetan hat. Zum Beispiel muss der Leser in dem Satz „John hat den Ball getreten“ herausfinden, wer tat die Aktion des Tretens und was getreten wurde. Dieser Prozess des Identifizierens und Verbindens der syntaktisch verwandte Wörter in einem Satz nennt man Dependency-Completion. Was sind die kognitiven Mechanismen, die Dependency-Completion bestimmen? Eine weithin akzeptierte Theorie ist der Cue-based retrieval. Die Theorie besagt, dass die Dependency-Completion durch eine inhaltsadressierbare Suche nach der vorangetrieben wird Co-Abhängige im Gedächtnis. Der Cue-basierte Abruf erklärt ein breites Spektrum an empirischen Daten mehrere Konstruktionen, darunter Subjekt-Verb-Übereinstimmung, Subjekt-Verb-Nichtübereinstimmung, Plausibilität Mismatch-Konfigurationen und Elemente mit negativer Polarität. Es gibt jedoch zwei große empirische Herausforderungen für die Theorie: (i) Grammatische Sätze Daten aus Subjekt-Verb-Nummer-Dependency, bei denen die Theorie eine Verlangsamung vorhersagt das Verb in Sätzen wie „the key to the cabinet was rusty“ im Vergleich zu „the key to the cabinets was rusty“, aber die Daten stimmen nicht mit dieser Vorhersage überein; und (ii) Daten von Antezedenz-Reflexiv Strukturen, wo eine Leseerleichterung beim reflexiven „the bodybuilder who worked with the trainers injured themselves“ vs. „the bodybuilder who worked with the trainers injured themselves", aber die Daten zeigen keine vermittelnde Wirkung. Die in dieser Dissertation vorgestellte Arbeit widmet sich dem Aufbau einer allgemeineren Theorie von Dependency-Completion, die die beiden oben genannten Datensätze berücksichtigen kann, ohne das Original zu verlieren empirische Abdeckung der Cue-based Retrieval-Annahme. In zwei Zeitschriftenartikeln stelle ich Arbeiten zur Computermodellierung vor, die sich mit den beiden oben genannten empirischen Herausforderungen befassen. Um die Daten der grammatikalischen Sätze aus den Abhängigkeiten der Subjekt-Verb-Nummer-Übereinstimmung zu erklären, schlage ich ein neues Modell vor, das davon ausgeht, dass der Cue-basierte Abruf probabilistisch funktioniert verzerrte Darstellung von Substantiven im Gedächtnis (Artikel I). Dieses hybride Distortion-plus-Retrieval-Modell wurde anhand von Daten aus 17 Studien zu Subjekt-Verb mit den bestehenden Kandidatenmodellen verglichen Nummernvereinbarung in 4 Sprachen. Ich finde, dass das Hybridmodell die bestehenden Modelle übertrifft der Nummernvereinbarungsverarbeitung, was darauf hindeutet, dass die Cue-based Retrieval-Theorie Folgendes umfassen muss: a Annahme von Feature-Verfälschung. Um das Fehlen eines unterstützenden Effekts in antezedens-reflexiven Abhängigkeiten zu berücksichtigen, schlage ich ein individuelles Differenzmodell vor, das innerhalb des Cue-based Retrieval-Frameworks erstellt wurde (Artikel II). Das Modell geht davon aus, dass Individuen sich darin unterscheiden können, wie stark sie eine Syntax gewichten Cue über einem Nummern-Cue. Das Modell wurde an Daten aus zwei Studien zum Antezedenz-Reflexiv angepasst Abhängigkeiten, und die Cue-Gewichtung auf Teilnehmerebene wurde geschätzt. Wir finden, dass ein Viertel von Die Teilnehmer in beiden Studien gewichten bei der Verarbeitung den syntaktischen Cue höher als den numerischen Cue reflexive Abhängigkeiten und die verbleibenden Teilnehmer gewichten die beiden Cue gleichermaßen. Das Ergebnis weist darauf hin, dass das Fehlen des prognostizierten Erleichterungseffekts auf der Ebene der gruppierten Daten von einigen, nicht alle Teilnehmer, die syntaktische Cue höher gewichten als Zahlenhinweise. Allgemeiner gesagt, die Das Ergebnis zeigt, dass die Annahme einer differentiellen Hinweisgewichtung wichtig für eine Theorie von ist Dependency-Completion. Diese Idee der differentiellen Cue-Gewichtung wurde unabhängig unterstützt durch eine Modellierungsstudie zu Subjekt-Verb-Nichteinigungsabhängigkeiten (Artikel III). Insgesamt benötigt der Cue-basierte Abruf, der eine allgemeine Theorie der Abhängigkeitsvervollständigung ist um zwei neue Annahmen aufzunehmen: (i) die im Gedächtnis gespeicherten Substantive können einer Wahrscheinlichkeitsanalyse unterzogen werden Feature-Verfälschung, und (ii) die für den Abruf verwendeten sprachlichen Cue können unterschiedlich gewichtet werden. Das ist das kumulative Ergebnis der in dieser Dissertation vorgestellten Modellierungsarbeit.Die Dissertation leistet einen wichtigen theoretischen Beitrag: Satzverständnis in Der Mensch wird von einem Mechanismus getrieben, der einen hinweisbasierten Abruf, eine probabilistische Merkmalsverzerrung und eine differentielle Hinweisgewichtung annimmt. Diese Einsicht ist theoretisch wichtig, weil es einige gibt unabhängige Unterstützung für diese drei Annahmen in der Satzverarbeitung und im weiteren Gedächtnis Literatur. Die hier vorgestellten Modellierungsarbeiten sind auch methodisch wichtig, weil für die Zum ersten Mal wird gezeigt, (i) wie die komplexen Modelle der Satzverarbeitung evaluiert werden können Daten aus mehreren Studien gleichzeitig zu verwenden, ohne die Modelle zu stark zu vereinfachen, und (ii) wie die Schlussfolgerungen aus dem Verhalten auf individueller Ebene können in der Theorieentwicklung verwendet werden. KW - sentence comprehension KW - individual differences KW - cue-based retrieval KW - memory distortion KW - Approximate Bayesian Computation KW - cue reliability KW - ungefähre Bayessche Komputation KW - Cue-Gewichtung KW - Cue-basierter Retrieval KW - individuelle Unterschiede KW - Darstellung Verfälschung KW - Satzverarbeitung Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-585055 ER - TY - THES A1 - Xü, Chenggang T1 - Preparation and characterization of vapour deposited films based on substituted 2,5-diphenyl-1,3,4-oxadiazole derivatives N2 - Diese Arbeit befasst sich mit dem Einfluss der molekularen Struktur von 2,5-Diphenyl-1,3,4-Oxadiazol-Derivaten auf die Präparierung dünner Schichten mittels Vakuumdeposition. Dünne Schichten von diesen Substanzen wurden auf Si/SiO2 aufgedampft und ihre Struktur systematisch mittels XSR, AFM und IR untersucht. Das Ergebnis zeigt, dass die Schichtstrukturen offenbar von Substratetemperatur (Ts) abhängig sind. Im untersuchten Ts-Bereich bilden etherverbrückte Oxadiazole immer geordnete Schichten und die Schichtperiodicität hängt linear von der Längen der aliphatischen Ketten, während sich bei den amidverbrückten Oxadiazolen nur bei hohen Ts geordnete Schichten bilden können. Diese Unterschiede sind auf die intermolekularen Wasserstoffbrücken zurückzuführen. Der Tilt-Winkel der Moleküle ist durch die Wechselwirkung zwischen dem aromatischen Teil bestimmt. Die Wechselwirkungen zwischen den Kopfgruppen können durch Tempern abgeschwächt werden und führen zur Strukturumwandlung von Schichten, die auf etherverbrückten Oxadiazolen basieren. Alle Schichten von etherverbrückten Oxadiazolen haben Doppelschicht-Struktur, aber amidverbrückte Oxadiazole bilden nur Doppelschicht-Strukturen, wenn die Moleküle eine Kopfgruppe besitzen. N2 - The correlations between the chemical structures of the 2,5-diphenyl-1,3,4-oxadiazole compounds and their corresponding vapour deposited film structures on Si/SiO2 were systematically investigated with AFM, XSR and IR for the first time. The result shows that the film structure depends strongly on the substrate temperature (Ts). For the compounds with ether bridge group, the film periodicity depends linearly on the length of the aliphatic chain. The films based on those oxadiazols have ordered structure in the investigated substrate temperature region, while die amide bridged compounds form ordered film only at high Ts due to the formation of intermolecular H-bond. The tilt angle of most molecules is determined by the pi-pi complexes between the molecules. The intermolecular interaction between head groups leads to the structural transformation during the thermal treatment after deposition. All the ether bridged oxadiazoles form films with bilayer structure, while amide bridged oxadiazole form film bilayer structure only when the molecule has a head group. KW - 1 KW - 3 KW - 4-oxadiazol KW - Vapour Deposition KW - Dünnschichten KW - AFM KW - X-ray KW - Infrarot Spektroskopie KW - intermolekülare Wechselwirkung KW - Hochvakuum KW - 1 KW - 3 KW - 4-oxadiazole KW - vapour deposition KW - Thin film KW - AFM KW - X-ray KW - Infrared spectroscopy KW - intermolecular interaction KW - high vacuum Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001358 ER - TY - THES A1 - Xiong, Tao T1 - Vibrationally resolved absorption, emission, resonance Raman and photoelectron spectra of selected organic molecules, associated radicals and cations T1 - Schwingungsaufgelöste Absorptions-, Emissions-, Resonanz-Raman- und Photoelektronenspektren ausgewählter organischer Moleküle, assoziierter Radikale und Kationen BT - a time-dependent approach BT - ein zeitabhängiger Ansatz N2 - Time-dependent correlation function based methods to study optical spectroscopy involving electronic transitions can be traced back to the work of Heller and coworkers. This intuitive methodology can be expected to be computationally efficient and is applied in the current work to study the vibronic absorption, emission, and resonance Raman spectra of selected organic molecules. Besides, the "non-standard" application of this approach to photoionization processes is also explored. The application section consists of four chapters as described below. In Chapter 4, the molar absorptivities and vibronic absorption/emission spectra of perylene and several of its N-substituted derivatives are investigated. By systematically varying the number and position of N atoms, it is shown that the presence of nitrogen heteroatoms has a negligible effect on the molecular structure and geometric distortions upon electronic transitions, while spectral properties are more sensitive: In particular the number of N atoms is important while their position is less decisive. Thus, N-substitution can be used to fine-tune the optical properties of perylene-based molecules. In Chapter 5, the same methods are applied to study the vibronic absorption/emission and resonance Raman spectra of a newly synthesized donor-acceptor type molecule. The simulated absorption/emission spectra agree fairly well with experimental data, with discrepancies being attributed to solvent effects. Possible modes which may dominate the fine-structure in the vibronic spectra are proposed by analyzing the correlation function with the aid of Raman and resonance Raman spectra. In the next two chapters, besides the above types of spectra, the methods are extended to study photoelectron spectra of several small diamondoid-related systems (molecules, radicals, and cations). Comparison of the photoelectron spectra with available experimental data suggests that the correlation function based approach can describe ionization processes reasonably well. Some of these systems, cationic species in particular, exhibit somewhat peculiar optical behavior, which presents them as possible candidates for functional devices. Correlation function based methods in a more general sense can be very versatile. In fact, besides the above radiative processes, formulas for non-radiative processes such as internal conversion have been derived in literature. Further implementation of the available methods is among our next goals. N2 - Molekülsysteme bestehen aus Kernen und Elektronen, deren viel kleinere Masse sie in die Lage versetzten, sich der Bewegung des ersteren augenblicklich anzupassen. Daher ist die Bewegung der Elektronen und Kerne in einer guten ersten Annäherung "unabhängig", und die Energie der Elektronen kann zuerst berechnet werden, vorausgesetzt, die Kerne sind stationär. Die so gewonnene elektronische Energie wird zur Abstoßungsenergie zwischen den Kernen addiert, um ein Potential zu erhalten, das die Bewegung der Kerne bestimmt. Quantenmechanisch können sowohl die Elektronen als auch die Kerne nur bestimmte Energieniveaus haben. Die molekulare vibronische (= Schwingung + Elektronik) Absorptionsspektroskopie beinhaltet den Übergang der Elektronen und Kerne von ihrem Anfangs- in ihren Endzustand durch Photonenabsorption. Die größere elektronische Übergangsenergie bestimmt die Position des Absorptionsmaximums, während die kleinere nukleare Schwingungsübergangsenergie (ohne Berücksichtigung von Translation und Rotation) die Position der Teilmaxima innerhalb des Absorptionsbereichs bestimmt, wodurch die vibronische Feinstruktur entsteht. Ähnliche Ideen gelten auch für die vibronische Emissionsspektroskopie. Die Resonanz-Raman-Spektroskopie untersucht die Energieänderung des einfallenden Photons (dessen Energie ausreichend ist, um die Elektronen in einen höheren elektronischen Zustand anzuregen), nachdem es mit dem Molekül wechselwirkt. Der Energiegewinn oder -verlust des einfallenden Photons bewirkt eine Änderung des Schwingungszustandes. Die Photoelektronenspektroskopie ist ähnlich wie die vibronische Absorption, benötigt aber in der Regel mehr Energie des einfallenden Photons, da neben der Anregung des Moleküls in einen höheren vibronischen Zustand zusätzliche Energie benötigt wird, um ein Elektron aus dem Molekül zu entfernen. Diese spektroskopischen Techniken liefern wertvolle Informationen über die elektronische und nukleare Bewegung des Moleküls. Theoretisch können wir eine zeitabhängige Korrelationsfunktion verwenden, um die Spektren zu simulieren. Die Korrelationsfunktion für die Absorption ist beispielsweise eine Funktion der Zeit, deren Entwicklung Informationen über die elektronischen Energien und die nukleare Bewegung enthält. Um das Absorptionsspektrum in Form von Energie zu erhalten, wird ein mathematisches Verfahren, die so genannte Fourier-Transformation, auf die zeitabhängige Korrelationsfunktion angewendet, um ein energieabhängiges Spektrum zu erhalten. Diese Methode wird auf ausgewählte organische Moleküle, darunter einige Radikale und Kationen, angewandt, um deren elektronisches und optisches Verhalten unter dem Einfluss von einfallendem Licht zu untersuchen und Einblicke in das Design neuer optoelektronischer Bauelemente zu gewinnen. Bei einigen Molekülen/Systemen wird die vibronische Feinstruktur durch Faktoren wie molekulare Zusammensetzung und Umgebung wie Lösungsmittel beeinflusst, was darauf hindeutet, dass diese Systeme zur Feinabstimmung der gewünschten Eigenschaften verwendet werden können. Für andere Systeme gibt es fast keine sichtbare vibronische Feinstruktur, was bedeutet, dass sich die nukleare Bewegung solcher Systeme im Allgemeinen von derjenigen der vorherigen Kategorie unterscheidet. KW - vibrationally resolved electronic spectroscopy KW - photoelectron spectroscopy KW - resonance Raman spectroscopy KW - correlation function KW - ionization potential KW - time-dependent density functional theory KW - perylene KW - diamondoid KW - Schwingungsaufgelöste UV/VIS-Spektroskopie KW - Photoelektronenspektroskopie KW - Resonanz-Raman-Spektroskopie KW - Korrelationsfunktion KW - Ionisationspotential KW - Zeitabhängige Dichtefunktionaltheorie KW - Perylen KW - Diamondoide Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-418105 ER - TY - THES A1 - Xie, Dongjiu T1 - Nanostructured Iron-based compounds as sulfur host material for lithium-sulfur batteries T1 - Nanostrukturierte Eisenverbindungen als Schwefel-Wirtsmaterial für Lithium-Schwefel-Batterien N2 - The present thesis focuses on the synthesis of nanostructured iron-based compounds by using β-FeOOH nanospindles and poly(ionic liquid)s (PILs) vesicles as hard and soft templates, respectively, to suppress the shuttle effect of lithium polysulfides (LiPSs) in Li-S batteries. Three types of composites with different nanostructures (mesoporous nanospindle, yolk-shell nanospindle, and nanocapsule) have been synthesized and applied as sulfur host material for Li-S batteries. Their interactions with LiPSs and effects on the electrochemical performance of Li-S batteries have been systematically studied. In the first part of the thesis, carbon-coated mesoporous Fe3O4 (C@M-Fe3O4) nanospindles have been synthesized to suppress the shuttle effect of LiPSs. First, β-FeOOH nanospindles have been synthesized via the hydrolysis of iron (III) chloride in aqueous solution and after silica coating and subsequent calcination, mesoporous Fe2O3 (M-Fe2O3) have been obtained inside the confined silica layer through pyrolysis of β-FeOOH. After the removal of the silica layer, electron tomography (ET) has been applied to rebuild the 3D structure of the M-Fe2O3 nanospindles. After coating a thin layer of polydopamine (PDA) as carbon source, the PDA-coated M-Fe2O3 particles have been calcinated to synthesize C@M-Fe3O4 nanospindles. With the chemisorption of Fe3O4 and confinement of mesoporous structure to anchor LiPSs, the composite C@M-Fe3O4/S electrode delivers a remaining capacity of 507.7 mAh g-1 at 1 C after 600 cycles. In the second part of the thesis, a series of iron-based compounds (Fe3O4, FeS2, and FeS) with the same yolk-shell nanospindle morphology have been synthesized, which allows for the direct comparison of the effects of compositions on the electrochemical performance of Li-S batteries. The Fe3O4-carbon yolk-shell nanospindles have been synthesized by using the β-FeOOH nanospindles as hard template. Afterwards, Fe3O4-carbon yolk-shell nanospindles have been used as precursors to obtain iron sulfides (FeS and FeS2)-carbon yolk-shell nanospindles through sulfidation at different temperatures. Using the three types of yolk-shell nanospindles as sulfur host, the effects of compositions on interactions with LiPSs and electrochemical performance in Li-S batteries have been systematically investigated and compared. Benefiting from the chemisorption and catalytic effect of FeS2 particles and the physical confinement of the carbon shell, the FeS2-C/S electrode exhibits the best electrochemical performance with an initial specific discharge capacity of 877.6 mAh g-1 at 0.5 C and a retention ratio of 86.7% after 350 cycles. In the third part, PILs vesicles have been used as soft template to synthesize carbon nanocapsules embedded with iron nitride particles to immobilize and catalyze LiPSs in Li-S batteries. First, 3-n-decyl-1-vinylimidazolium bromide has been used as monomer to synthesize PILs nanovesicles by free radical polymerization. Assisted by PDA coating route and ion exchange, PIL nanovesicles have been successfully applied as soft template in morphology-maintaining carbonization to prepare carbon nanocapsules embedded with iron nitride nanoparticles (FexN@C). The well-dispersed iron nitride nanoparticles effectively catalyze the conversion of LiPSs to Li2S, owing to their high electrical conductivity and strong chemical binding to LiPSs. The constructed FexN@C/S cathode demonstrates a high initial discharge capacity of 1085.0 mAh g-1 at 0.5 C with a remaining value of 930.0 mAh g-1 after 200 cycles. The results in the present thesis demonstrate the facile synthetic routes of nanostructured iron-based compounds with controllable morphologies and compositions using soft and hard colloidal templates, which can be applied as sulfur host to suppress the shuttle behavior of LiPSs. The synthesis approaches developed in this thesis are also applicable to fabricating other transition metal-based compounds with porous nanostructures for other applications. N2 - Die vorliegende Arbeit beschreibt die Synthese von nanostrukturierten Verbindungen auf Eisenbasis unter Verwendung von β-FeOOH-Nanospindeln und Vesikeln aus Poly(ionischen Flüssigkeiten) (PILs) als harte bzw. weiche Vorlagen, um den Shuttle-Effekt von Lithiumpolysulfiden (LiPSs) in Li-S-Batterien zu unterdrücken. Drei Arten von Verbundstoffen mit unterschiedlichen Nanostrukturen (mesoporöse Nanospindel, Dotterschalen-Nanospindel und Nanokapsel) wurden synthetisiert und als Schwefel-Wirtsmaterial für Li-S-Batterien eingesetzt. Ihre Wechselwirkungen mit LiPS und ihre Auswirkungen auf die elektrochemische Leistung von Li-S-Batterien wurden systematisch untersucht. Im ersten Teil der Arbeit wurden kohlenstoffbeschichtete mesoporöse Fe3O4 (C@M-Fe3O4) Nanospindeln synthetisiert, um den Shuttle-Effekt von LiPSs zu unterdrücken. Zunächst wurden β-FeOOH-Nanospindeln durch Hydrolyse von Eisen(III)-chlorid in wässriger Lösung synthetisiert. Nach der Beschichtung mit Siliziumdioxid und anschließender Kalzinierung wurde mesoporöses Fe2O3 (M-Fe2O3) innerhalb der begrenzten Siliziumdioxidschicht durch Pyrolyse von β-FeOOH erhalten. Nach der Entfernung der Siliziumdioxidschicht wurde Elektronentomographie (ET) eingesetzt, um die 3D-Struktur der M-Fe2O3-Nanospindeln zu rekonstruieren. Nach der Beschichtung mit einer dünnen Schicht Polydopamin (PDA) als Kohlenstoffquelle wurden die PDA-beschichteten M-Fe2O3-Partikel kalziniert, um C@M-Fe3O4-Nanospindeln zu synthetisieren. Durch die Chemisorption von Fe3O4 und die Einschließung der mesoporösen Struktur zur Verankerung der LiPSs liefert die zusammengesetzte C@M-Fe3O4/S-Elektrode nach 600 Zyklen eine Restkapazität von 507,7 mAh g-1 bei 1 C. Im zweiten Teil der Arbeit wurde eine Reihe von eisenbasierten Verbindungen (Fe3O4, FeS2, und FeS) mit der gleichen Dotterschalen-Nanospindel-Morphologie synthetisiert, was einen direkten Vergleich der Auswirkungen der Zusammensetzungen auf die elektrochemische Leistung von Li S-Batterien ermöglicht. Die Fe3O4-Kohlenstoff-Dotterschalen-Nanospindeln wurden unter Verwendung der β-FeOOH-Nanospindeln als harte Vorlage synthetisiert. Anschließend wurden Fe3O4-Kohlenstoff-Dotterschalen-Nanospindeln als Vorläufer verwendet, um Eisensulfide (FeS und FeS2) - Kohlenstoff-Dotterschalen-Nanospindeln durch Sulfidierung bei verschiedenen Temperaturen zu erhalten. Durch Verwendung der drei Arten von Dotterschalen-Nanospindeln als Schwefelwirt wurden die Auswirkungen der Zusammensetzungen auf die Wechselwirkungen mit LiPS und die elektrochemische Leistung in Li-S-Batterien systematisch untersucht und verglichen. Die FeS2-C/S-Elektrode, die von der Chemisorption und der katalytischen Wirkung der FeS2-Teilchen und dem physikalischen Einschluss der Kohlenstoffschale profitiert, zeigt die beste elektrochemische Leistung mit einer anfänglichen spezifischen Entladekapazität von 877,6 mAh g-1 bei 0,5 C und einem Kapazitätserhalt von 86,7 % nach 350 Zyklen. Im dritten Teil wurden PILs-Vesikel als weiche Vorlage verwendet, um Kohlenstoff-Nanokapseln zu synthetisieren, die mit Eisennitridpartikeln durchsetzt sind, um LiPSs in Li-S-Batterien zu immobilisieren und deren Umwandlung zu katalysieren. Zunächst wurde 3-n-Decyl-1-Vinylimidazoliumbromid als Monomer für die Synthese von PIL-Nanovesikeln durch radikalische Polymerisation verwendet. Mit Hilfe der PDA-Beschichtung und des Ionenaustauschs wurden die PIL-Nanomoleküle erfolgreich als weiche Vorlage bei der morphologieerhaltenden Karbonisierung eingesetzt, um Kohlenstoff-Nanokapseln mit eingebetteten Eisennitrid-Nanopartikeln (FexN@C) herzustellen. Die gut dispergierten Eisennitrid-Nanopartikel katalysieren die Umwandlung von LiPS in Li2S aufgrund ihrer hohen elektrischen Leitfähigkeit und starken chemischen Bindung an LiPS effektiv. Die konstruierte FexN@C/S-Kathode zeigt eine hohe anfängliche Entladekapazität von 1085,0 mAh g-1 bei 0,5 C mit einer verbleibenden Kapazität von 930,0 mAh g-1 nach 200 Zyklen. Die Ergebnisse dieser Arbeit zeigen, dass sich nanostrukturierte eisenbasierte Verbindungen mit kontrollierbarer Morphologie und Zusammensetzung leicht synthetisieren lassen, indem weiche und harte kolloidale Template verwendet werden, die als Schwefelwirt eingesetzt werden können, um das Shuttle-Verhalten von LiPS zu unterdrücken. Die in dieser Arbeit entwickelten Syntheseansätze sind auch für die Herstellung anderer Verbindungen auf Übergangsmetallbasis mit porösen Nanostrukturen für andere Anwendungen einsetzbar. KW - sulfur host KW - Schwefelwirt KW - Li-S batteries KW - Li-S-Batterien KW - iron-based compounds KW - Verbindungen auf Eisenbasis KW - nanospindles KW - Nanospindeln KW - vesicles KW - Vesikel KW - nanocapsules KW - Nanokapseln KW - poly(ionic liquid)s KW - poly(ionische Flüssigkeiten) KW - electron tomography KW - Elektronentomographie KW - cryo-electron microscopy KW - Kryo-Elektronenmikroskopie Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-610369 ER - TY - THES A1 - Wülser, Marc T1 - Fehlbeanspruchungen bei personenbezogenen Dienstleistungstätigkeiten : eine Mehr-Stichprobenanalyse zur Entstehung von emotionaler Erschöpfung, Aversionsgefühlen und Distanzierung sowie eine vertiefte Betrachtung der Lehrkräftetätigkeit T1 - Strain in human service work : a multi-sample analysis on the development of emotional exhaustion, aversion to clients and disengagement and a deeper look into teachers' work N2 - Die vorliegende Arbeit setzt sich aus zwei Teilstudien zusammen. In Teilstudie 1 wird die Stabilität eines allgemeinen Modells zu den Zusammenhängen zwischen Über- und Unterforderungsmerkmalen, sozialen Belastungen, Anforderungen und organisationalen Ressourcen einerseits sowie den Fehlbeanspruchungen emotionale Erschöpfung und Klientenaversion bzw. Distanzierungstendenzen andererseits für personenbezogene Dienstleistungstätigkeiten untersucht. Einbezogen wurden Ärztinnen und Ärzte, Pflegende und Mitarbeitende aus dem paramedizinischen Bereich sowie Lehrkräfte. Die deutlichsten positiven Zusammenhänge zeigen sich zwischen den Belastungen und der emotionalen Erschöpfung, wobei für die quantitative Überforderung die stabilsten Ergebnisse resultieren. Die Belastungen weisen über die emotionale Erschöpfung hinaus signifikante Zusammenhänge mit aversiven Gefühlen gegen Klientinnen und Klienten auf. Hinsichtlich der modellimplizierten Annahmen zu den positiven Zusammenhängen zwischen den Belastungen und der Distanzierung können in dieser Untersuchung zwar signifikante Ergebnisse, aber keine über die Stichproben hinweg stabilen Zusammenhänge gefunden werden. Die Annahmen zu einem negativen Zusammenhang zwischen den Anforderungen/Ressourcen und der Distanzierung können nur für die Anforderungsmerkmale bestätigt werden. In Teilstudie 2 erfolgte auf der Basis des in Teilstudie 1 entwickelten Arbeitsmodells eine vertiefte Betrachtung der Lehrkräftetätigkeit. Dabei wurden sowohl verschiedene Schulsystemebenen einbezogen als auch verschiedene Aufgabentypen unterschieden. Die Ergebnisse zeigen, dass auf organisationaler Ebene Gratifikationskrisen und mangelnde kollektive Selbstwirksamkeitserwartungen fehlbeanspruchungsrelevant sein können. Besonders deutliche Zusammenhänge mit den Fehlbeanspruchungen und der Distanzierung zeigen sich für die primäraufgabenbezogenen Belastungen. Auch die Reziprozitätseinschätzungen in Bezug auf Schülerinnen und Eltern zeigen diesbezüglich ähnliche, wenn auch weniger deutliche, Zusammenhänge. Die Ergebnisse zu den Personmerkmalen lassen darauf schliessen, dass die Rolle der Person bei der Burnoutentwicklung nicht unterschätzt werde sollte. Als praktische Implikationen der Untersuchungsergebnisse werden u.a. Vorschläge für eine Stärkung der unterrichtsbezogenen und der klassenübergreifenden Kooperation, für eine Optimierung der Organisationsstruktur und eine „Professionalisierung“ der Organisation sowie für eine weiterführende Erarbeitung schulhausspezifischer Konzepte und Leitlinien gemacht. Es wird die Frage gestellt, ob die Lehrkräftetätigkeit sinnvollerweise als Lebensberuf verstanden werden sollte. Schliesslich wird auf die Bedeutung der Distanzierungsfähigkeit und der Selbstwirksamkeitserwartungen der Lehrkräfte hingewiesen. N2 - The present work comprises two parts to a study. In the first part, the stability of a model on the associations between workload (i.e. quantitative overload), task requirements (i.e. variety, completeness), organisational resources (i.e. decision possibilities) and strain as well as tendencies toward disengagement in human service work was investigated. This included four samples: assistant physicians, senior physicians, nursing and paramedic workers and teachers. The clearest positive associations are shown between stressors and emotional exhaustion, whereas the quantitative overload reached the most stable results. The stressors show beyond the emotional exhaustion significant associations with aversion to clients. Regarding the associations between workload and disengagement, there were some significantly positive coefficients, yet no stable associations over the four samples. The assumptions of a negative association betweend task requirements/resources and disengagement can only be confirmed for the task requirements. The second part to the study involved a deeper look into teachers' work based on the working model developed in part 1 of the study. Different school system levels were included and distinctions were made between different types of tasks. The results of this analysis showed that on an organizationl level, the effort-reward imbalance and the (lacking) of collective self-efficacy were associated with strain. Particularly clear associations have been demonstrated for primary task-related workload with strain and disengagement. Also, but not as clear, the reciprocity estimates relating to students and parents show similar associations. The results on the personal characteristics lead to the conclusion that the role of the person in the development of burnout should not be underestimated. Based on the results of the analyses, there are different implications for in practice. There was allusion to the possibilities for reinforcing teaching-related and inter-class cooperation. Further important implications are the "professionalisation" of the organisation school, combined with an optimisation of the school organisation and school management. The fundamental question arises, whether one would have to refrain from portraying teacher activities as a lifetime career. Finally the importance of the abilty to distance onself and the self-efficacy of teachers is pointed out. KW - Personenbezogene Dienstleistungstätigkeiten KW - Fehlbeanspruchungen KW - Emotionale Erschöpfung KW - Aversionsgefühle KW - Distanzierung KW - Human service work KW - strain KW - emotional exhaustion KW - aversion to clients KW - disengagement Y1 - 2006 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-11223 ER - TY - THES A1 - Wätzoldt, Sebastian T1 - Modeling collaborations in adaptive systems of systems T1 - Modellierung von Kollaborationen für adaptive Systeme von Systemen N2 - Recently, due to an increasing demand on functionality and flexibility, beforehand isolated systems have become interconnected to gain powerful adaptive Systems of Systems (SoS) solutions with an overall robust, flexible and emergent behavior. The adaptive SoS comprises a variety of different system types ranging from small embedded to adaptive cyber-physical systems. On the one hand, each system is independent, follows a local strategy and optimizes its behavior to reach its goals. On the other hand, systems must cooperate with each other to enrich the overall functionality to jointly perform on the SoS level reaching global goals, which cannot be satisfied by one system alone. Due to difficulties of local and global behavior optimizations conflicts may arise between systems that have to be solved by the adaptive SoS. This thesis proposes a modeling language that facilitates the description of an adaptive SoS by considering the adaptation capabilities in form of feedback loops as first class entities. Moreover, this thesis adopts the Models@runtime approach to integrate the available knowledge in the systems as runtime models into the modeled adaptation logic. Furthermore, the modeling language focuses on the description of system interactions within the adaptive SoS to reason about individual system functionality and how it emerges via collaborations to an overall joint SoS behavior. Therefore, the modeling language approach enables the specification of local adaptive system behavior, the integration of knowledge in form of runtime models and the joint interactions via collaboration to place the available adaptive behavior in an overall layered, adaptive SoS architecture. Beside the modeling language, this thesis proposes analysis rules to investigate the modeled adaptive SoS, which enables the detection of architectural patterns as well as design flaws and pinpoints to possible system threats. Moreover, a simulation framework is presented, which allows the direct execution of the modeled SoS architecture. Therefore, the analysis rules and the simulation framework can be used to verify the interplay between systems as well as the modeled adaptation effects within the SoS. This thesis realizes the proposed concepts of the modeling language by mapping them to a state of the art standard from the automotive domain and thus, showing their applicability to actual systems. Finally, the modeling language approach is evaluated by remodeling up to date research scenarios from different domains, which demonstrates that the modeling language concepts are powerful enough to cope with a broad range of existing research problems. N2 - Seit einiger Zeit führen ein ansteigender Bedarf nach erweiterter Systemfunktionalität und deren flexible Verwendung zu vernetzten Systemen, die sich zu einem übergeordneten adaptiven System von Systemen (SoS) zusammenschließen. Dieser SoS Zusammenschluss zeigt ein gewünschtes, robustes und flexibles Gesamtverhalten, welches sich aus der Funktionalität der einzelnen Systeme zusammensetzt. Das SoS beinhaltet eine Vielzahl von verschiedenen Systemarten, die sich von eingebetteten bis hin zu Cyber-Physical Systems erstrecken. Einerseits optimiert jedes einzelne System sein Verhalten bezüglich lokaler Ziele. Anderseits müssen die Systeme miteinander interagieren, um neue, zusammengesetzte Funktionalitäten bereitzustellen und damit vorgegebene SoS Ziele zu erreichen, welche durch ein einzelnes System nicht erfüllt werden können. Die Schwierigkeit besteht nun darin, Konflikte zwischen lokalen und globalen Verhaltensstrategien zwischen Systemen innerhalb des SoS zu beseitigen. Diese Doktorarbeit stellt eine Modellierungssprache vor, welche für die Beschreibung von adaptiven SoS geeignet ist. Dabei berücksichtigt die Modellierungssprache die Adaptionslogik des SoS in Form von periodischen Adaptationsschleifen als primäres Sprachkonstrukt. Außerdem übernimmt diese Arbeit den Models@runtime Ansatz, um verfügbares Systemwissen als Laufzeitmodelle in die Adaptationslogik des Systems zu integrieren. Weiterhin liegt der Fokus der Modellierungssprache auf der Beschreibung von Systeminteraktionen innerhalb des SoS. Dies ermöglicht Schlussfolgerungen von individuellem Systemverhalten sowie deren Aggregation zu kollaborativem Verhalten im Kontext von Systeminteraktionen im SoS. Damit unterstützt die entwickelte Modellierungssprache die Beschreibung von lokalem adaptivem Verhalten, die Integration von Wissen über die Modellierung von Laufzeitmodellen und Systeminteraktionen in Form von kollaborativem Verhalten. Alle drei Aspekte werden in die adaptive SoS Architektur integriert. Neben der entwickelten Modellierungssprache führt diese Doktorarbeit Analyseregeln zur Untersuchung des modellierten SoS ein. Diese Regeln ermöglichen die Erkennung von Architekturmustern und möglichen Schwächen im Systementwurf. Zusätzlich wird eine Simulationsumgebung für die Modellierungssprache präsentiert, welche die direkte Ausführung von einer modellierten SoS Architektur erlaubt. Die Analyseregeln und die Simulationsumgebung dienen demnach sowohl der Verifizierung von Systeminteraktionen als auch der spezifizierten Adaptationslogik innerhalb des SoS. Die vorliegende Arbeit implementiert die vorgestellten Konzepte der Modellierungssprache durch deren Abbildung auf einen aktuellen Standard im Automobilbereich und zeigt damit die Anwendbarkeit der Sprache auf gegenwärtige Systeme. Zum Schluss findet eine Evaluierung der Modellierungssprache statt, wobei aktuelle Forschungsszenarien aus unterschiedlichen Bereichen erneut mit der vorgestellten Sprache modelliert werden. Dies zeigt, dass die Modellierungskonzepte geeignet sind, um weite Bereiche existierender Forschungsprobleme zu bewältigen. KW - deurema modeling language KW - adaptive systems KW - systems of systems KW - runtime models KW - feedback loop modeling KW - collaborations KW - Deurema Modellierungssprache KW - Kollaborationen KW - adaptive Systeme KW - Systeme von Systemen KW - Laufzeitmodelle KW - Feedback Loop Modellierung Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-97494 ER - TY - THES A1 - Wundrak, Rixta T1 - Chinesen in Bukarest : Diskurse und Geschichten T1 - Chinese in Bucharest : discourses and stories N2 - In dieser ethnographisch-soziologischen Fallstudie wird die Geschichte der chinesischen Immigration in Bukarest nach 1990 in ihrer Besonderheit und ihren allgemeinen Strukturen nachvollzogen. Dies geschieht durch eine Doppelperspektive auf den Fall: Die Rekonstruktion der diskursiven (Re-)Präsentation des Falles als methodisch-analytische Vorstufe wurde einer anschließenden historischen Rekon-struktion der erlebten Geschichte der Migranten vorangestellt. Die anschließende Kontrastierung der Ergebnisse aus beiden Analyseschritten diente der Heraus-arbeitung vorher noch nicht sichtbarer Interdependenzen und Bezüge zwischen diesen beiden Ebenen. Mit anderen Worten: Die diskursive Ebene und die historische bzw. erlebte Ebene bilden gemeinsam und in Verschränkung miteinander die konstitutive/n Struktur/en des Falles: Erstens geht es um die Besonderheit der Post-1989-Migration von China nach Rumänien im Kontext von Transformationen. So ist für die Struktur und den Verlauf des Falles bestimmend, dass sich mehrere Wandlungsprozesse sowohl im Herkunfts- als auch im Einwanderungskontext zugleich ereigneten. Dazu gehören die Globalisierung allgemein sowie die als Transformationen bezeichneten Prozesse in China seit 1978 und in Rumänien seit 1989. Auf nationaler, lokaler Ebene sowie auf der Ebene der alltäglichen sozialen Wirklichkeit der Stadtbevölkerung und der Immigranten in Bukarest war zu beobachten, dass diese mit rapiden Veränderungen konfrontiert waren und sind. So kamen zu Beginn der 1990er Jahre einige Pioniere mit Koffern voll China-Ware in Bukarest an und verkauften ihre Ware auf den unzähligen kleinen Straßenmärkten der Stadt. Im Jahr 2007 befindet sich auf einem großen Areal am Stadtrand von Bukarest ein Baukomplex aus acht großen Shopping-Malls. Chinesische UnternehmerInnen investieren nun in Großprojekte wie etwa der Telekommunikation in Rumänien. Neu ist auch die Rekrutierung von chinesischen Textilarbeiterinnen durch rumänische Unternehmer. Diese Entwicklung hängt mit dem gegenwärtigen Mangel an rumänischen Arbeitskräften aufgrund der Auswanderungs-wellen aus Rumänien zusammen. Charakteristisch ist jedoch, dass diese ge-sellschaftlich tiefgreifenden Änderungen, die nicht nur die hier genannten öko-nomischen, sondern auch politische und soziale Konsequenzen haben, in einem starken Kontrast dazu stehen, dass ihre soziale Wirklichkeit in der Forschung, der Politik und Öffentlichkeit unbeachtet und unbekannt blieb. Als zweites Themenfeld ist das Spannungsverhältnis von lokalen und globalen Prozessen für die Geschichte der Migranten zu nennen. Dabei sind die Bedeutung der „Verortung“ einerseits und die der Transnationalität andererseits strukturbildend für die Fallgeschichte. Dabei spielte die Auseinandersetzung mit dem wissenschaftlichen Transnationalismuskonzept eine besondere Rolle: Dieses behandelte ich als theo-retischen Diskurs, der zunächst kritisch betrachtet wurde. Die Frage, ob und wie die chinesische Community in Bukarest transnational lebt und was transnationale Lebens-formen sein könnten, wurde empirisch beantwortet. Drittens habe ich unter Bezugnahme auf das Konzept des sozialen Deutungsmusters aufgezeigt, dass Informalität als soziales Konstrukt auf unterschiedlichen Ebenen fallbestimmend ist. Informalisierungsprozesse sowie damit verbundene Illegalisierung und Kriminalisierung der Migranten in Europa bilden also ein weiteres Themenfeld der Fallstruktur. Schließlich stellt die gesellschaftliche Konstruktion kultureller Deutungsmuster über chinesische Migranten ein viertes zentrales Thema der Fallstruktur dar. Die chinesischen Migranten in Bukarest leben im Fadenkreuz unterschiedlicher Zuschreibungen. Im Herkunftsland werden sie als patriotische Kapitalisten, die Moder-nität ins Land bringen, gefeiert. In Europa werden sie der internationalen Welle ‚illegaler Migration‘ zugeordnet und auf Kriminelle und/oder Opfer reduziert. In Bukarest leben sie mit und in Konkurrenz der Bewertungen bzw. Abwertungen von Minderheitengruppen, wie etwa der Roma-Minderheit. Diese Bewertungen und Zuschreibungen haben mehrere Konsequenzen. Eine davon ist, dass chinesische Immigranten in Bukarest es gelernt haben, mit diesen aktiv umzugehen. So wurde deutlich, dass sich kulturelle Deutungsmuster nicht nur habituell verankern oder als biographisches Kapital gelebt werden, sondern situationsangemessen genutzt oder sogar teilsweise inszeniert werden, mit dem Ziel, einen Weg in die Gesellschaft zu finden und in dieser als Minderheitengruppe in eine respektierte Position zu gelangen. N2 - Based on a case study on the new Chinese migrant network in Bucharest, this dissertation shed light onto this new migration pattern that has neither been investigated nor considered an important political matter in Europe. On the contrary, the issue of immigration has been consciously ignored by the Romanian public and was considered a ‘taboo’ for Romanian state agencies during the first half of the 1990s. Combining a variety of ethnographic methods, the following research-questions were addressed: Why and how are those immigrants ‘kept secret’? How are Chinese migrants regarded or represented in Europe and in the society of Bucharest? And what is the story behind these discourses? In this study, I reconstruct the historical development of the new Chinese migration wave to Eastern Europe, the immigration process during the early ‘wild’ years of transition in the 1990s and, finally, the rise and development of Chinese markets in Romania resulting in an urban project called ‘Chinatown of Bucharest.’ In particular, I intend to highlight with this the complexity of the immigrants’ network-building during this process, which implicates both their social embeddedness in the ‘transition-society’ as well as their transnational links to ‘homeland’. KW - Migration KW - Rumänien KW - Transformation KW - Chinesische Migration KW - Migration KW - Romania KW - Transformation KW - Chinese Migration Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-29175 ER - TY - THES A1 - Wunderling, Nico T1 - Nichtlineare Dynamiken und Interaktionen von Kippelementen im Erdsystem T1 - Nonlinear dynamics and interactions of tipping elements in the Earth system N2 - With ongoing anthropogenic global warming, some of the most vulnerable components of the Earth system might become unstable and undergo a critical transition. These subsystems are the so-called tipping elements. They are believed to exhibit threshold behaviour and would, if triggered, result in severe consequences for the biosphere and human societies. Furthermore, it has been shown that climate tipping elements are not isolated entities, but interact across the entire Earth system. Therefore, this thesis aims at mapping out the potential for tipping events and feedbacks in the Earth system mainly by the use of complex dynamical systems and network science approaches, but partially also by more detailed process-based models of the Earth system. In the first part of this thesis, the theoretical foundations are laid by the investigation of networks of interacting tipping elements. For this purpose, the conditions for the emergence of global cascades are analysed against the structure of paradigmatic network types such as Erdös-Rényi, Barabási-Albert, Watts-Strogatz and explicitly spatially embedded networks. Furthermore, micro-scale structures are detected that are decisive for the transition of local to global cascades. These so-called motifs link the micro- to the macro-scale in the network of tipping elements. Alongside a model description paper, all these results are entered into the Python software package PyCascades, which is publicly available on github. In the second part of this dissertation, the tipping element framework is first applied to components of the Earth system such as the cryosphere and to parts of the biosphere. Afterwards it is applied to a set of interacting climate tipping elements on a global scale. Using the Earth system Model of Intermediate Complexity (EMIC) CLIMBER-2, the temperature feedbacks are quantified, which would arise if some of the large cryosphere elements disintegrate over a long span of time. The cryosphere components that are investigated are the Arctic summer sea ice, the mountain glaciers, the Greenland and the West Antarctic Ice Sheets. The committed temperature increase, in case the ice masses disintegrate, is on the order of an additional half a degree on a global average (0.39-0.46 °C), while local to regional additional temperature increases can exceed 5 °C. This means that, once tipping has begun, additional reinforcing feedbacks are able to increase global warming and with that the risk of further tipping events. This is also the case in the Amazon rainforest, whose parts are dependent on each other via the so-called moisture-recycling feedback. In this thesis, the importance of drought-induced tipping events in the Amazon rainforest is investigated in detail. Despite the Amazon rainforest is assumed to be adapted to past environmental conditions, it is found that tipping events sharply increase if the drought conditions become too intense in a too short amount of time, outpacing the adaptive capacity of the Amazon rainforest. In these cases, the frequency of tipping cascades also increases to 50% (or above) of all tipping events. In the model that was developed in this study, the southeastern region of the Amazon basin is hit hardest by the simulated drought patterns. This is also the region that already nowadays suffers a lot from extensive human-induced changes due to large-scale deforestation, cattle ranching or infrastructure projects. Moreover, on the larger Earth system wide scale, a network of conceptualised climate tipping elements is constructed in this dissertation making use of a large literature review, expert knowledge and topological properties of the tipping elements. In global warming scenarios, tipping cascades are detected even under modest scenarios of climate change, limiting global warming to 2 °C above pre-industrial levels. In addition, the structural roles of the climate tipping elements in the network are revealed. While the large ice sheets on Greenland and Antarctica are the initiators of tipping cascades, the Atlantic Meridional Overturning Circulation (AMOC) acts as the transmitter of cascades. Furthermore, in our conceptual climate tipping element model, it is found that the ice sheets are of particular importance for the stability of the entire system of investigated climate tipping elements. In the last part of this thesis, the results from the temperature feedback study with the EMIC CLIMBER-2 are combined with the conceptual model of climate tipping elements. There, it is observed that the likelihood of further tipping events slightly increases due to the temperature feedbacks even if no further CO$_2$ would be added to the atmosphere. Although the developed network model is of conceptual nature, it is possible with this work for the first time to quantify the risk of tipping events between interacting components of the Earth system under global warming scenarios, by allowing for dynamic temperature feedbacks at the same time. N2 - Bei fortdauerndem anthropogenem Klimawandel, könnten einige der vulnerabelsten Komponenten des Erdsystem instabil werden und in einen anderen Zustand übergehen. Diese Komponenten des Erdsystems sind die sogenannten Kippelemente. Bei ihnen wird angenommen, dass sie einen Kipppunkt besitzen ab dem sie in einen qualitativ anderen Zustand übergehen können. Sollte das passieren, hätte das schwerwiegende Konsequenzen für die Biosphäre und menschliche Gesellschaften. Des Weiteren ist gezeigt worden, dass Kippelemente keine isolierte Reigionen oder Prozesse sind, sondern über das gesamte Erdsystem hinweg interagieren. Das Ziel dieser Arbeit ist es daher, die Wahrscheinlichkeit für Kippereignisse sowie deren Feedbacks im Erdsystem zu quantifizieren. Zu diesem Zweck kommen vor allem Frameworks aus der Wissenschaft komplexer Systeme und Netzwerke zum Einsatz. Für einige Teilaspekte dieser Arbeit wird aber auch ein detaillierteres und prozessbasierteres Erdsystemmodell verwendet. Im ersten Teil dieser Arbeit werden die theoretischen Grundlagen gelegt, indem komplexe Netzwerke bestehend aus interagierenden Kippelementen untersucht werden. Hier werden Voraussetzungen für das Auftreten globaler Kippkaskaden anhand der Struktur paradigmatischer Netzwerktypen analysiert. Diese Typen sind Netzwerke wie Erdös-Rényi, Barabási-Albert, Watts-Strogatz Netzwerke oder auch explizit räumlich eingebettete Netzwerke. Darüber hinaus sind bestimmte Mikrostrukturen in Netzwerken dafür entscheidend, ob sich eine lokale Kaskaden auf das globale Netzwerk ausbreiten kann. Diese Strukturen sind das Bindeglied zwischen der Mikro- und der Makroebene des Netzwerks und werden Motive genannt. Zusammen mit einer Publikation zur Modellbeschreibung, werden alle diese Ergebnisse im Python-Softwarepaket PyCascades veröffentlicht, das auf github öffentlich verfügbar ist. Im zweiten Teil dieser Dissertation wird das Kippelementframework zunächst auf Kompenenten des Erdsystems angewendet wie der Kryosphäre und Teilen der Biosphäre, und danach auf globaler Skala für interagierende Klimakippelemente. In einem ersten Schritt werden mit dem Erdsystemmodell mittlerer Komplexität CLIMBER-2 die Temperaturfeedbacks ermittelt, die entstehen würden, wenn große Gebiete der Kryosphäre auf lange Sicht eisfrei werden. In dieser Berechnung werden das arktische Sommermeereis, die Gebirgsgletscher, der grönländische und der westantarktische Eisschild berücksichtigt. Die quantifizierte Temperaturerhöhung liegt in der Größenordnung von einem halben Grad zusätzlicher globaler Erwärmung (0.39--0.46°C). Lokale bis regionale Temperaturerhöhungen können allerdings 5°C übersteigen. Wenn also das Kippen einiger Elemente begonnen hat, bedeutet dieses Ergebnis, dass Temperaturfeedbacks in der Lage sind, das Risiko weiterer Kippereignisse zu erhöhen. Dies ist auch der Fall im Amazonasregenwald, dessen Unterregionen über den sogenannten Feuchtig-keits-Recycling-Feedback miteinander in Beziehung stehen und voneinander abhängen. In dieser Dissertation wird die Bedeutung von Kippereignissen im Detail untersucht, die aufgrund von Dürreperioden zustande kommen. Obwohl man davon ausgehen kann, dass der Regenwald sich an zurückliegende und gegenwärtige Klimabedingungen angepasst hat, kann festgestellt werden, dass die Häu-figkeit von Kippereignissen stark zunimmt, wenn die jeweilige Trockenperiode eine gewisse Intensität übersteigt und damit die Anpassungsfähigkeit des Amazonasregenwalds überschritten wird. In solchen Fällen steigt auch die Häufigkeit von Kippkaskaden unter allen Kippereignissen auf 50% (und mehr) an. In dem Modell, das in dieser Studie entwickelt wurde, zeigt sich, dass der Südosten des Amazonasbeckens am stärksten von den simulierten Trockenheitsmustern betroffen ist. Das ist gleichzeitig die Region, die bereits heute stark unter anthropogener Veränderung leidet, unter anderem aufgrund von großflächiger Abholzung, Viehzucht oder Infrastrukturprojekten. Zudem wird in dieser Dissertation auf der größeren, erdsystemweiten Skala ein Netzwerk konzeptionalisierter Klimakippelemente aufgebaut. Zu diesem Zweck wird eine umfangreiche Literaturrecherche durchgeführt, die zusammen mit Expertenwissen und den topologischen Eigenschaften der Kippelemente in die Studien mit einfließt. In Klimawandelszenarien können dann Kippkaskaden beobachtet werden, selbst wenn die globale Erderwärmung auf 2°C über dem vorindustriellen Niveau begrenzt werden kann. Außerdem werden die strukturellen Rollen der Klimakippelemente im Netzwerk ermittelt. Während die großen Eisschilde auf Grönland und der Westantarktis viele Kippkaskaden initiieren, ist die Atlantische Umwälzzirkulation für die Weitergabe vieler dieser Kaskaden verantwortlich. In unserem konzeptionellen Modell für Klimakippelemente wird darüber hinaus festgestellt, dass die Eisschilde von besonderer Bedeutung für die Stabilität des Gesamtsystems sind. Im letzen Teil dieser Dissertation werden die Ergebnisse der Feedbackstudie (CLIMBER-2-Studie) zusammengebracht mit dem konzeptionellen Klimakippelementmodell. Dabei zeigt sich, dass die Wahrscheinlichkeit zusätzlicher Kippereignisse aufgrund der berücksichtigten Temperaturfeedbacks auch ohne das Zuführen eines zusätzlichen CO2-Eintrags in die Atmosphäre leicht ansteigt. Trotz der konzeptionellen Natur des entwickelten Netzwerkmodells, ist es mit dieser Arbeit erstmals möglich eine Risikoabschätzung über das Auftreten von Kippkaskaden im Erdsystem vorzunehmen. Darüber hinaus können, unter der Annahme globaler Erwärmungsszenarien, auch dynamische Temperaturfeedbacks berücksichtigt werden. KW - tipping element KW - nonlinear dynamics KW - tipping cascade KW - climate change KW - complex networks KW - Klimawandel KW - komplexe Netzwerke KW - nichtlineare Dynamiken KW - Kippkaskade KW - Kippelement Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-525140 ER - TY - THES A1 - Wunderlich, Kai T1 - Entwicklung einer parallelen Mehrkomponentenanalyse von Antigen-Antikörper-Reaktionen in der Dopinganalyse T1 - Development of a multiplex-assay for the analysis of antigen-antibody reactions in doping analysis N2 - Weltweit streben Anti-Doping Institute danach jene Sportler zu überführen, welche sich unerlaubter Mittel oder Methoden bedienen. Die hierfür notwendigen Testsysteme werden kontinuierlich weiterentwickelt und neue Methoden aufgrund neuer Wirkstoffe der Pharmaindustrie etabliert. Gegenstand dieser Arbeit war es, eine parallele Mehrkomponentenanalyse auf Basis von Antigen-Antikörper Reaktionen zu entwickeln, bei dem es primär um Verringerung des benötigten Probevolumens und der Versuchszeit im Vergleich zu einem Standard Nachweis-Verfahren ging. Neben der Verwendung eines Multiplex Ansatzes und der Mikroarraytechnologie stellten ebenfalls die Genauigkeit aller Messparameter, die Stabilität des Versuchsaufbaus sowie die Performance über einen Einfach-Blind-Ansatz Herausforderungen dar. Die Anforderung an den Multiplex Ansatz, keine falschen Signale trotz ähnlicher Strukturen zu messen, konnte durch die gezielte Kombination von spezifischen Antikörpern realisiert werden. Hierfür wurden neben Kreuzreaktivitätstests auf dem Mikroarray parallel erfolgreich Western Blot Versuche durchgeführt. Jene Antikörper, welche in diesen Versuchen die gesetzten Anforderungen erfüllten, wurden für das Ermitteln der kleinsten nachweisbaren Konzentration verwendet. Über das Optimieren der Versuchsbedingungen konnte unter Verwendung von Tween in der Waschlösung sowohl auf Glas als auch auf Kunststoff die Hintergrundfluoreszenz reduziert und somit eine Steigerung des Signal/Hintergrundverhältnisses erreicht werden. In den Versuchen zu Ermittlung der Bestimmungsgrenze wurde für das humane Choriongonadotropin (hCG-i) eine Konzentration von 10 mU/ml, für dessen beta-Untereinheit (hCG-beta) eine Konzentration von 3,6 mU/ml und für das luteinisierende Hormon (LH) eine Konzentration von 10 mU/ml bestimmt. Den ermittelten Wert im Serum für das hCG-i entspricht dem von der Welt-Anti-Dopin-Agentur (WADA) geforderten Wert in Urin von 5 mU/ml. Neben der Ermittlung von Bestimmungsgrenzen wurden diese hinsichtlich auftretender Matrixeffekte in Serum und Blut gemessen. Wie aus den Versuchen zur Ermittlung von Kreuzreaktivitäten auf dem Mikroarray zu entnehmen ist, lassen sich das LH, das hCG-i und hCG-β ebenfalls in Serum und Blut messen. Die Durchführung einer Performance-Analyse über einem Einfach-Blind-Ansatz mit 130 Serum Proben, wurde ebenfalls über dieses System realisiert. Die ausgewerteten Proben wurden anschließend über eine Grenzwertoptimierungskurve analysiert und die diagnostische Spezifität ermittelt. Für die Messungen des LH konnte eine Sensitivität und Spezifität von 100% erreicht werden. Demnach wurden alle negativen und positiven Proben eindeutig interpretiert. Für das hCG-β konnte ebenfalls eine Spezifität von 100% und eine Sensitivität von 97% erreicht werden. Die hCG-i Proben wurden mit einer Spezifität von 100% und eine Sensitivität von 97,5% gemessen. Um den Nachweis zu erbringen, dass dieser Versuchsaufbau über mehrere Wochen stabile Signale bei Vermessen von identischen Proben liefert, wurde ein über zwölf Wochen angesetzter Stabilitätstest für alle Parameter erfolgreich in Serum und Blut durchgeführt. Zusammenfassend konnte in dieser Arbeit erfolgreich eine Mehrkomponentenanalyse als Multiplex Ansatz auf einem Mikroarray entwickelt werden. Die Durchführung der Performance-Analyse und des Stabilitätstests zeigen bereits die mögliche Einsatzfähigkeit dieses Tests im Kontext einer Dopinganalyse. N2 - Worldwide it is the goal of anti-doping institutes to have a fair competition in sports free of doping and to prevent the misuse of therapeutics for doping purposes. Therefore there is a need to continuously develop new rapid test methods for the analysis and identification of pharmaceutical substances. Herein, the focus was to develop a multiplex assay on the basis of antigen antibody reactions in doping analysis. It was one goal to reduce the sample volume and the measurement time in comparison to standard methods (i.e. ELISA). Additional challenges were the application of a multiplex approach on the basis of microarray technology and to achieve a high sensitivity and precision. The major challenge for a multiplex analysis is the specific detection of all analytes without producing false positive signals, even of those analytes with similar molecular structure. This was solved using a special combination of specific monoclonal antibodies. Therefore cross-reaction-tests on the microarray platform and western blot analysis were performed simultaneously. Subsequently, the relevant antibodies were used for the analysis of the minimum detectable concentration. Optimization of experimental conditions on glass and polymer surfaces (i.e. COP) led to a reduction of the background fluorescence, resulting in an increase of signal-to-background ratio. The measured limit of detection (LOD) for the human choriongonadotropin (hCG-i) was a concentration of 10 mU/ml, for the beta-subunit (hCG-beta) 3,6 mU/ml and for the luteinizing hormone (LH) 10 mU/ml. The value of hCG-i in serum correlates to the claimed threshold limit from the world anti doping agency (WADA) of 5 mU/ml in urine. In parallel, matrix effects were analyzed in serum and whole blood. In a crossreactivity study it was shown, that it is possible to measure all three parameters in serum and whole blood independently. The performance analysis of a blinded experiment with 130 serum samples was analyzed with receiver operating characteristic (ROC) and showed the diagnostic specificity. For LH the specificity and sensitivity was 100%, for hCG-beta a specificity of 100% and a sensitivity of 97% was measured. The samples for hCG-i were measured with a specificity of 100% and a sensitivity of 97,5%. For the evidence of stability for several weeks of the experimental setup, a stability testing over a period of 12 weeks was performed. Identical samples gave stable signals over a period of 10 weeks in serum as well as in whole blood. In summary the development of a multiplex assay for the analysis of antigen-antibody reactions in doping analysis for LH and hCG was successful and represents a proof of concept. Due to the promising results in the performance analysis and the stability tests it might be possible to insert that kind of multiplex assay as a test method for the anti doping analysis. KW - Mehrkomponentenanalyse KW - Multiplex KW - Doping KW - Schnelltest KW - hCG KW - multiplex assay KW - microarray KW - dopingtest KW - point-of-care KW - in-vitro diagnostic Y1 - 2014 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-76869 ER - TY - THES A1 - Wulff, Alexander T1 - Essays in macroeconomics and financial market imperfections N2 - This dissertation consists of four self-contained papers that deal with the implications of financial market imperfections and heterogeneity. The analysis mainly relates to the class of incomplete-markets models but covers different research topics. The first paper deals with the distributional effects of financial integration for developing countries. Based on a simple heterogeneous-agent approach, it is shown that capital owners experience large welfare losses while only workers moderately gain due to higher wages. The large welfare losses for capital owners contrast with the small average welfare gains from representative-agent economies and indicate that a strong opposition against capital market opening has to be expected. The second paper considers the puzzling observation of capital flows from poor to rich countries and the accompanying changes in domestic economic development. Motivated by the mixed results from the literature, we employ an incomplete-markets model with different types of idiosyncratic risk and borrowing constraints. Based on different scenarios, we analyze under what conditions the presence of financial market imperfections contributes to explain the empirical findings and how the conditions may change with different model assumptions. The third paper deals with the interplay of incomplete information and financial market imperfections in an incomplete-markets economy. In particular, it analyzes the impact of incomplete information about idiosyncratic income shocks on aggregate saving. The results show that the effect of incomplete information is not only quantitatively substantial but also qualitatively ambiguous and varies with the influence of the income risk and the borrowing constraint. Finally, the fourth paper analyzes the influence of different types of fiscal rules on the response of key macroeconomic variables to a government spending shock. We find that a strong temporary increase in public debt contributes to stabilizing consumption and leisure in the first periods following the change in government spending, whereas a non-debt-intensive fiscal rule leads to a faster recovery of consumption, leisure, capital and output in later periods. Regarding optimal debt policy, we find that a debt-intensive fiscal rule leads to the largest aggregate welfare benefit and that the individual welfare gain is particularly high for wealth-poor agents. N2 - Die vorliegende Dissertation besteht aus vier eigenständigen Papieren, die sich mit den Auswirkungen von Finanzmarktunvollkommenheiten und Heterogenität beschäftigen. Die Analyse bezieht sich dabei vorwiegend auf die Klasse heterogener-Agenten Modelle mit Finanzmarktunvollkommenheiten, greift aber verschiedene Fragestellungen auf. Das erste Papier beschäftigt sich mit den Verteilungseffekten finanzieller Integration in sich entwickelnden Volkswirtschaften. Mit Hilfe eines einfachen heterogene-Agenten Ansatzes wird gezeigt, dass inländische Kapitalbesitzer massiv durch finanzielle Integration verlieren, während ausschließlich Arbeitnehmer moderat durch Lohnanstiege gewinnen. Die erheblichen Wohlfahrtsverluste für Kapitalbesitzer stehen dabei im Kontrast zu den geringen durchschnittlichen Wohlfahrtseffekten und zeigen, dass eine starke Opposition gegenüber der Öffnung von Kapitalmärkten in sich entwickelnde Länder zu erwarten ist. Der zweite Aufsatz beschäftigt sich mit dem neueren Phänomen von Kapitalflüssen von armen zu reichen Ländern sowie mit den einhergehenden inländischen Entwicklungen. Ausgehend von den stark divergierenden Ergebnissen der Literatur wird ein umfassendes heterogene-Agenten Modell mit nicht versicherbaren idiosynkratischen Risiken und Verschuldungsrestriktionen betrachtet. Anhand verschiedener Szenarien wird gezeigt, unter welchen Bedingungen Finanzmarktunvollkommenheiten zur Klärung der empirischen Befunde beitragen können und inwiefern sich die Parameterrestriktionen unter verschiedenen Modellannahmen ändern. Der dritte Aufsatz beschäftigt sich mit den Auswirkungen unvollständiger Informationen im Rahmen eines heterogene-Agenten Modells. Insbesondere werden die Auswirkungen unvollständiger Informationen bezüglich idiosynkratischer Einkommensschocks auf die aggregierte Ersparnisbildung untersucht. Die Ergebnisse zeigen, dass der Einfluss unvollständiger Information nicht nur quantitativ bedeutsam, sondern auch qualitativ verschieden ist und stark mit der konkreten Ausprägung der Finanzmarktunvollkommenheiten variiert. Der vierte Aufsatz beschäftigt sich mit der Ausgestaltung staatlicher Verschuldungspolitik. Insbesondere wird die Finanzierung einer vorübergehenden Erhöhung von Staatsausgaben unter verschiedenen Fiskalregeln analysiert. Die Ergebnisse zeigen, dass eine verschuldungsintensive Fiskalregel einen kurzfristig stabilisierenden Effekt auf Konsum und Freizeit aufweist, von dem insbesondere vermögensarme Haushalte profitieren, die besonders stark von den Verschuldungsrestriktionen betroffen sind. KW - incomplete markets KW - heterogeneous agents KW - financial integration KW - incomplete information KW - fiscal policy KW - unvollständige Märkte KW - heterogene Agenten KW - finanzielle Integration KW - unvollständige Information KW - Fiskalpolitik Y1 - 2018 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-429956 ER - TY - THES A1 - Wulf, Hendrik T1 - Seasonal precipitation, river discharge, and sediment flux in the western Himalaya T1 - Saisonaler Niederschlag, Wasserabfluss und Sedimentationsfluss im westlichen Himalaya N2 - Rainfall, snow-, and glacial melt throughout the Himalaya control river discharge, which is vital for maintaining agriculture, drinking water and hydropower generation. However, the spatiotemporal contribution of these discharge components to Himalayan rivers is not well understood, mainly because of the scarcity of ground-based observations. Consequently, there is also little known about the triggers and sources of peak sediment flux events, which account for extensive hydropower reservoir filling and turbine abrasion. We therefore lack basic information on the distribution of water resources and controls of erosion processes. In this thesis, I employ various methods to assess and quantify general characteristics of and links between precipitation, river discharge, and sediment flux in the Sutlej Valley. First, I analyze daily precipitation data (1998-2007) from 80 weather stations in the western Himalaya, to decipher the distribution of rain- and snowfall. Rainfall magnitude frequency analyses indicate that 40% of the summer rainfall budget is attributed to monsoonal rainstorms, which show higher variability in the orogenic interior than in frontal regions. Combined analysis of rainstorms and sediment flux data of a major Sutlej River tributary indicate that monsoonal rainfall has a first order control on erosion processes in the orogenic interior, despite the dominance of snowfall in this region. Second, I examine the contribution of rainfall, snow and glacial melt to river discharge in the Sutlej Valley (s55,000 km2), based on a distributed hydrological model, which covers the period 2000-2008. To achieve high spatial and daily resolution despite limited ground-based observations the hydrological model is forced by daily remote sensing data, which I adjusted and calibrated with ground station data. The calibration shows that the Tropical Rainfall Measuring Mission (TRMM) 3B42 rainfall product systematically overestimates rainfall in semi-arid and arid regions, increasing with aridity. The model results indicate that snowmelt-derived discharge (74%) is most important during the pre-monsoon season (April to June) whereas rainfall (56%) and glacial melt (17%) dominate the monsoon season (July-September). Therefore, climate change most likely causes a reduction in river discharge during the pre-monsoon season, which especially affects the orogenic interior. Third, I investigate the controls on suspended sediment flux in different parts of the Sutlej catchments, based on daily gauging data from the past decade. In conjunction with meteorological data, earthquake records, and rock strength measurements I find that rainstorms are the most frequent trigger of high-discharge events with peaks in suspended sediment concentrations (SSC) that account for the bulk of the suspended sediment flux. The suspended sediment flux increases downstream, mainly due to increases in runoff. Pronounced erosion along the Himalayan Front occurs throughout the monsoon season, whereas efficient erosion of the orogenic interior is confined to single extreme events. The results of this thesis highlight the importance of snow and glacially derived melt waters in the western Himalaya, where extensive regions receive only limited amounts of monsoonal rainfall. These regions are therefore particularly susceptible to global warming with major implications on the hydrological cycle. However, the sediment discharge data show that infrequent monsoonal rainstorms that pass the orographic barrier of the Higher Himalaya are still the primary trigger of the highest-impact erosion events, despite being subordinate to snow and glacially–derived discharge. These findings may help to predict peak sediment flux events and could underpin the strategic development of preventative measures for hydropower infrastructures. N2 - Regen, Schnee- und Gletscherschmelze speisen die Flüsse des Himalajas, die eine große Bedeutung für die Landwirtschaft, Trinkwasserversorgung und Wasserkraftnutzung in Südasien aufweisen. Welchen Anteil die einzelnen Abflusskomponenten am Gesamtabfluss in Raum und Zeit besitzen, ist jedoch kaum quantifiziert, da es in der entlegenen Region an Bodenmessstationen mangelt. Aus diesem Grund ist auch wenig über die Auslöser und Herkunftsgebiete von hohen Sedimentaustragsereignissen bekannt, die im erheblichen Maße dazu beitragen, dass die Kapazität vonWasserkraftreservoiren abnimmt undWasserkraftturbinen abradieren. Daher fehlen bisher grundlegende Informationen zur räumlichen Verteilung von Wasserressourcen und zu den Ursachen von Erosionsprozessen. In dieser Arbeit benutze ich verschiedene Methoden um die Eigenschaften von und die Beziehungen zwischen Niederschlag, Abflussmenge und Sedimentaustrag im Sutlej-Tal zu untersuchen. In einer ersten Studie analysiere ich Tagesniederschläge (1998-2007) von 80 Wetterstationen aus dem westlichen Himalaja, um die räumliche Verteilung von Regen- und Schneeniederschlägen zu charakterisieren. Die weitere Analyse der Magnituden-Häufigkeitsverteilung von Regenfällen zeigt, dass 40% der sommerlichen Niederschläge auf monsunale Starkregenereignisse zurückgehen, die eine höhere Variabilität im Gebirgsinneren aufweisen als an der Gebirgsfront. Die Kombination von Niederschlagsdaten mit Sedimentaustragsdaten für einen der größten Zuflüsse des Sutlejs zeigt, dass monsunaler Niederschlag der primäre Auslöser von Erosionsprozessen im Gebirgsinneren ist, ungeachtet größerer Abflussmengen durch Schnee- und Gletscherschmelze. In einer zweiten Studie untersuche ich den Beitrag von Regen, Schnee- und Gletscherschmelze zur Abflussmenge im Sutlej-Tal (s55.000 km2) mit Hilfe eines hydrologischen Modells für den Jahreszeitraum 2000-2008. Um trotz der begrenzten Bodenmessungen eine hohe räumliche und zeitliche Auflösung zu erzielen, basiert das Modell auf täglichen Fernerkundungsdaten, die ich mit allen verfügbaren Bodenstationsdaten kalibriert und an diese angepasst habe. Die Kalibrierung zeigt, dass das Regenniederschlagsprodukt 3B42 der „Tropical Rainfall Measuring Mission“ (TRMM) den Bodenniederschlag in den semi-ariden bis ariden Gebirgsregionen mit zunehmender Trockenheit systematisch überschätzt. Die Modellierungsergebnisse verdeutlichen, dass die Schneeschmelze den bedeutendsten Beitrag zur Abflussmenge (74 %) zwischen April und Juni aufbringt, während Regen (56%) und Gletscherschmelze (17%) die Monsunsaison (Juli-September) prägen. Daher ist anzunehmen, dass der Klimawandel zu einer Verringerung der Abflussmenge zwischen April und Juni führen wird, was sich besonders auf das Gebirgsinnere auswirkt. In einer dritten Studie untersuche ich mit Hilfe von täglichen Messdaten der letzten Dekade die Ursachen und Eigenschaften des Sedimentaustrags in verschiedenen Bereichen des Sutlej-Einzugsgebietes. Auf der Grundlage von meteorologischen Daten, Erdbebenaufzeichnungen und Gesteinsfestigkeitsmessungen identifiziere ich Starkregenereignisse als häufigste Ursache für extreme Erosionsereignisse, die einen Großteil des gesamten Sedimentaustrags ausmachen. Großräumig betrachtet nimmt der Sedimentaustrag flussabwärts zu, was hauptsächlich auf den Anstieg der Abflussmenge zurückzuführen ist. Zur Monsunzeit treten Erosionsprozesse entlang der Himalajafront besonders häufig auf, während im Gebirgsinneren die Erosion auf einzelne Extremereignisse beschränkt ist. Die Ergebnisse dieser Arbeit untersteichen die Bedeutung von Schnee- und Gletscherschmelze im westlichen Himalaja, in dem große Gebiete nur vereinzelt von monsunalen Niederschlägen erreicht werden. Diese Gebiete sind daher besonders anfällig für den Klimawandel mit weitreichenden Konsequenzen für den Wasserhaushalt in der Region. Die Analyse von Sedimentaustragsdaten zeigt jedoch, dass vereinzelte monsunale Regenstürme, welche die topographische Barriere des Himalaja überqueren, die primäre Ursache von extremen Erosionsereignissen sind, trotz der größeren Abflussmengen von Schnee- und Gletscherschmelze im Gebirgsinneren. Diese Ergebnisse können dazu beitragen, große Erosionsereignisse vorherzusagen und vorbeugende Maßnahmen zum Schutz von Wasserkraftanlagen zu entwickeln. KW - Klimawandel KW - Erosion KW - Monsun KW - Regensturm KW - Suspendsionsfracht KW - climate change KW - erosion KW - monsoon KW - rainstorm KW - suspended sediment Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-57905 ER - TY - THES A1 - Wu, Ye T1 - Nonlinear dynamics in complex networks and modeling human dynamics T1 - Nichtlineare Dynamik in komplexen Netzwerken und Modellierung menschlicher Dynamik N2 - Durch große Datenmengen können die Forscher die Eigenschaften komplexer Systeme untersuchen, z.B. komplexe Netzwerk und die Dynamik des menschlichen Verhaltens. Eine große Anzahl an Systemen werden als große und komplexe Netzwerke dargestellt, z.B. das Internet, Stromnetze, Wirtschaftssysteme. Immer mehr Forscher haben großes Interesse an der Dynamik des komplexen Netzwerks. Diese Arbeit besteht aus den folgenden drei Teilen. Der erste Teil ist ein einfacher dynamischer Optimierungs-Kopplungs-Mechanismus, aber sehr wirksam. Durch den Mechanismus kann synchronisation in komplexen Netzwerken mit und ohne Zeitverzögerung realisiert, und die Fähigkeit der Synchronisation von small-world und scale-free Netze verbessert werden. Im zweiten Teil geht um die Verstärkung der Robustheit der scale-free Netze im Zusammenhang mit der Gemeinden-Struktur. Einige Reaktionsmuster und topologische Gemeinden sind einheitlich. Die Ergebnisse zeigen einen neuen Aspekt der Beziehung zwischen den Funktionen und der Netzwerk-Topologie von komplexen Netzwerken. Im dritten Teil welche eine wichtige Rolle in komplexen Netzwerken spielt, wird die Verhaltens-Dynamik der menschliche Mitteilung durch Daten- und Modellanalysierung erforscht, dann entsteht ein neues Mitteilungsmodell. Mit Hilfe von einem Interaktion priority-Queue Model kann das neue Modell erklärt werden. Mit Hilfe des Models können viele praktische Interaktions-Systeme erklärt werden, z.B. E-Mail und Briefe (oder Post). Mit Hilfe meiner Untersuchung kann man menschliches Verhalten auf der Individuums- und Netzwerkebene neu kennenlernen. Im vierter Teil kann ich nachweisen, dass menschliches Kommentar-Verhalten in on-line Sozialsystemen, eine andere Art der Interaktionsdynamik von Mensch non-Poisson ist und dieses am Modell erklären. Mit Hilfe der non-Poisson Prozesse kann man das persönliche Anziehungskraft-Modell besser verstehen. Die Ergebnisse sind hilfreich zum Kennenlernen des Musters des menschlichen Verhaltens in on-line Gesellschaften und der Entwicklung von öffentlicher Meinung nicht nur in der virtuellen Gesellschaftn sondern auch in der Realgesellschaft. Am Ende geht es um eine Prognose von menschlicher Dynamik und komplexen Netzwerken. N2 - The availability of large data sets has allowed researchers to uncover complex properties in complex systems, such as complex networks and human dynamics. A vast number of systems, from the Internet to the brain, power grids, ecosystems, can be represented as large complex networks. Dynamics on and of complex networks has attracted more and more researchers’ interest. In this thesis, first, I introduced a simple but effective dynamical optimization coupling scheme which can realize complete synchronization in networks with undelayed and delayed couplings and enhance the small-world and scale-free networks’ synchronizability. Second, I showed that the robustness of scale-free networks with community structure was enhanced due to the existence of communities in the networks and some of the response patterns were found to coincide with topological communities. My results provide insights into the relationship between network topology and the functional organization in complex networks from another viewpoint. Third, as an important kind of nodes of complex networks, human detailed correspondence dynamics was studied by both data and the model. A new and general type of human correspondence pattern was found and an interacting priority-queues model was introduced to explain it. The model can also embrace a range of realistic social interacting systems such as email and letter communication. My findings provide insight into various human activities both at the individual and network level. Fourth, I present clearly new evidence that human comment behavior in on-line social systems, a different type of interacting human dynamics, is non-Poissonian and a model based on the personal attraction was introduced to explain it. These results are helpful for discovering regular patterns of human behavior in on-line society and the evolution of the public opinion on the virtual as well as real society. Finally, there are conclusion and outlook of human dynamics and complex networks. KW - komplexe Netzwerke KW - menschliche Dynamik KW - complex networks KW - human dynamics Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-47358 ER - TY - THES A1 - Wrzus, Cornelia T1 - Similarity in personal relationships : associations with relationship regulation between and within individuals T1 - Ähnlichkeit in Sozialen Beziehungen : intra- und interindividuelle Zusammenhänge mit Beziehungsregulation N2 - People engage in a multitude of different relationships. Relatives, spouses, and friends are modestly to moderately similar in various characteristics, e.g., personality characteristics, interests, appearance. The role of psychological (e.g., skills, global appraisal) and social (e.g., gender, familial status) similarities in personal relationships and the association with relationship quality (emotional closeness and reciprocity of support) were examined in four independent studies. Young adults (N = 456; M = 27 years) and middle-aged couples from four different family types (N = 171 couples, M = 38 years) gave answer to a computer-aided questionnaire regarding their ego-centered networks. A subsample of 175 middle-aged adults (77 couples and 21 individuals) participated in a one-year follow-up questioning. Two experimental studies (N = 470; N = 802), both including two assessments with an interval of five weeks, were conducted to examine causal relationships among similarity, closeness, and reciprocity expectations. Results underline the role of psychological and social similarities as covariates of emotional closeness and reciprocity of support on the between-relationship level, but indicate a relatively weak effect within established relationships. In specific relationships, such as parent-child relationships and friendships, psychological similarity partly alleviates the effects of missing genetic relatedness. Individual differences moderate these between-relationship effects. In all, results combine evolutionary and social psychological perspectives on similarity in personal relationships and extend previous findings by means of a network approach and an experimental manipulation of existing relationships. The findings further show that psychological and social similarity have different implications for the study of personal relationships depending on the phase in the developmental process of relationships. N2 - Verwandte, Partner und Freunde ähneln sich in einer Vielzahl von Merkmalen wie z.B. Persönlichkeitseigenschaften, Einstellungen oder Aussehen. Die Bedeutung von Ähnlichkeit in psychologischen und demografischen Eigenschaften von Beziehungspartnern und die Zusammenhänge mit der Qualität der Beziehung wurden in vier unabhängigen Studien untersucht. Junge Erwachsene (N = 456; M = 27 Jahre) und Paare aus vier verschiedenen Familienformen (N = 171 Paare, M = 38 Jahre) beurteilten in einem PC-gestützten Fragebogen die sozialen Beziehungen in ihrem ego-zentrierten Netzwerk hinsichtlich wahrgenommener Ähnlichkeit, emotionaler Nähe und Reziprozität der Unterstützung. Ein Teil der Paare (77 Paare und 21 Einzelpersonen) nahm an der Ein-Jahres-Längsschnittstudie teil. In zwei Experimenten (N = 470; N = 802) wurde die Wahrnehmung von Ähnlichkeit manipuliert, um die Kausalwirkung auf die emotionale Nähe und die Erwartung von reziprokem Verhalten in Beziehungen zu prüfen. Die Studien zeigten, dass innerhalb eines sozialen Netzwerkes ähnliche Beziehungspartner auch emotional näher beurteilt wurden, es jedoch kaum wechselseitige Beeinflussungen innerhalb bestehender Beziehungen gab. In spezifischen Beziehungen, wie Eltern-Kind- oder Freundschaftsbeziehungen, konnte psychologische Ähnlichkeit den Effekt der fehlenden genetischen Verwandtschaft teilweise aufheben. Merkmale der Person moderierten diese Zusammenhänge auf der Beziehungsebene. Die Ergebnisse verknüpfen die evolutionspsychologische und die sozialpsychologische Perspektive der Ähnlichkeitsforschung und ergänzen bisherige Befunde durch den Einsatz des Sozialen Netzwerkansatzes und der experimentellen Manipulation von bestehenden Beziehungen. Zudem zeigen die Befunde, dass psychologische und demografische Ähnlichkeit unterschiedliche Implikationen für die Beziehungsforschung haben, in Abhängigkeit von der Entwicklungsphase der Beziehung. KW - Ähnlichkeit KW - soziale Beziehungen KW - Mehrebenenanalyse KW - Evolutionspsychologie KW - Experiment KW - similarity KW - personal relationships KW - multilevel analysis KW - evolutionary psychology KW - experiment Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-20158 ER - TY - THES A1 - Wriedt, Gunter T1 - Modelling of nitrogen transport and turnover during soil and groundwater passage in a small lowland catchment of Northern Germany N2 - Stoffumsatzreaktionen und hydraulische Prozesse im Boden und Grundwasser können in Tieflandeinzugsgebieten zu einer Nitratretention führen. Die Untersuchung dieser Prozesse in Raum und Zeit kann mit Hilfe geeigneter Modelle erfolgen. Ziele dieser Arbeit sind: i) die Entwicklung eines geeigneten Modellansatzes durch Kombination von Teilmodellen zur Simulation des N-Transportes im Boden und Grundwasser von Tieflandeinzugsgebieten und ii) die Untersuchung von Wechselwirkungen zwischen Gebietseigenschaften und N-Transport unter besonderer Berücksichtigung der potentiellen N-Zufuhr in die Oberflächengewässer. Der Modellansatz basiert auf der Kombination verschiedener Teilmodelle: das Bodenwasser- und -stickstoffmodell mRISK-N, das Grundwassermodell MODFLOW und das Stofftransportmodell RT3D. Zur Untersuchung der Wechselwirkungen mit den Gebietseigenschaften muss die Verteilung und Verfügbarkeit von Reaktionspartnern berücksichtigt werden. Dazu wurde ein Reaktionsmodul entwickelt, welches chemische Prozesse im Grundwasser simuliert. Hierzu gehören die Mineralisation organischer Substanz durch Sauerstoff, Nitrat und Sulfat sowie die Pyritoxidation durch Sauerstoff und Nitrat. Der Modellansatz wurde in verschiedenen Einzelstudien angewandt, wobei jeweils bestimmte Teilmodelle im Vordergrund stehen. Alle Modellstudien basieren auf Daten aus dem Schaugrabeneinzugsgebiet (ca. 25 km²), in der Nähe von Osterburg(Altmark) im Norden Sachsen-Anhalts. Die folgenden Einzelstudien wurden durchgeführt: i) Evaluation des Bodenmodells anhand von Lysimeterdaten, ii) Modellierung eines Tracerexperimentes im Feldmaßstab als eine erste Anwendung des Reaktionsmoduls, iii) Untersuchung hydraulisch-chemischer Wechselwirkungen an einem 2D-Grundwassertransekt, iv) Flächenverteilte Modellierung von Grundwasserneubildung und Bodenstickstoffaustrag im Untersuchungsgebiet als Eingangsdaten für nachfolgende Grundwassersimulationen, und v) Untersuchung der Ausbreitung von Nitrat im Grundwasser und des Durchbruchs in die Oberflächengewässer im Untersuchungsgebiet auf Basis einer 3D-Modellierung von Grundwasserströmung und reaktivem Stofftransport. Die Modellstudien zeigen, dass der Modellansatz geeignet ist, die Wechselwirkungen zwischen Stofftransport und –umsatz und den hydraulisch-chemischen Gebietseigenschaften zu modellieren. Die Ausbreitung von Nitrat im Sediment wird wesentlich von der Verfügbarkeit reaktiver Substanzen sowie der Verweilzeit im Grundwasserleiter bestimmt. Bei der Simulation des Untersuchungsgebietes wurde erst nach 70 Jahren eine der gegebenen Eintragssitutation entsprechende Nitratkonzentration im Grundwasserzustrom zum Grabensystem erreicht (konservativer Transport). Die Berücksichtigung von reaktivem Stofftransport führt zu einer deutlichen Reduktion der Nitratkonzentrationen. Die Modellergebnisse zeigen, dass der Grundwasserzustrom die beobachtete Nitratbelastung im Grabensystem nicht erklären kann, da der Großteil des Nitrates durch Denitrifikation verloren geht. Andere Quellen, wie direkte Einträge oder Dränagenzuflüsse müssen ebenfalls in Betracht gezogen werden. Die Prognosefähigkeit des Modells für das Untersuchungsgebiet wird durch die Datenunsicherheiten und die Schätzung der Modellparameter eingeschränkt. Dennoch ist der Modellansatz eine wertvolle Hilfe bei der Identifizierung von belastungsrelevanten Teilflächen (Stoffquellen und -senken) sowie bei der Modellierung der Auswirkungen von Managementmaßnahmen oder Landnutzungsveränderungen auf Grundlage von Szenario-Simulationen. Der Modellansatz unterstützt auch die Interpretation von Beobachtungsdaten, da so die lokalen Informationen in einen räumlichen und zeitlichen Zusammenhang gestellt werden können. N2 - Chemical transformations and hydraulic processes in soil and groundwater often lead to an apparent retention of nitrate in lowland catchments. Models are needed to evaluate the interaction of these processes in space and time. The objectives of this study are i) to develop a specific modelling approach by combining selected modelling tools simulating N-transport and turnover in soils and groundwater of lowland catchments, ii) to study interactions between catchment properties and nitrogen transport. Special attention was paid to potential N-loads to surface waters. The modelling approach combines various submodels for water flow and solute transport in soil and groundwater: The soil-water- and nitrogen-model mRISK-N, the groundwater flow model MODFLOW and the solute transport model RT3D. In order to investigate interactions of N-transport and catchment characteristics, the distribution and availability of reaction partners have to be taken into account. Therefore, a special reaction-module is developed, which simulates various chemical processes in groundwater, such as the degradation of organic matter by oxygen, nitrate, sulphate or pyrite oxidation by oxygen and nitrate. The model approach is applied to different simulation, focussing on specific submodels. All simulation studies are based on field data from the Schaugraben catchment, a pleistocene catchment of approximately 25 km², close to Osterburg(Altmark) in the North of Saxony-Anhalt. The following modelling studies have been carried out: i) evaluation of the soil-water- and nitrogen-model based on lysimeter data, ii) modelling of a field scale tracer experiment on nitrate transport and turnover in the groundwater as a first application of the reaction module, iii) evaluation of interactions between hydraulic and chemical aquifer properties in a two-dimensional groundwater transect, iv) modelling of distributed groundwater recharge and soil nitrogen leaching in the study area, to be used as input data for subsequent groundwater simulations, v) study of groundwater nitrate distribution and nitrate breakthrough to the surface water system in the Schaugraben catchment area and a subcatchment, using three-dimensional modelling of reactive groundwater transport. The various model applications prove the model to be capable of simulating interactions between transport, turnover and hydraulic and chemical catchment properties. The distribution of nitrate in the sediment and the resulting loads to surface waters are strongly affected by the amount of reactive substances and by the residence time within the aquifer. In the Schaugraben catchment simulations, it is found that a period of 70 years is needed to raise the average seepage concentrations of nitrate to a level corresponding to the given input situation, if no reactions are considered. Under reactive transport conditions, nitrate concentrations are reduced effectively. Simulation results show that groundwater exfiltration does not contribute considerably to the nitrate pollution of surface waters, as most nitrate entering soils and groundwater is lost by denitrification. Additional sources, such as direct inputs or tile drains have to be taken into account to explain surface water loads. The prognostic value of the models for the study site is limited by uncertainties of input data and estimation of model parameters. Nevertheless, the modelling approach is a useful aid for the identification of source and sink areas of nitrate pollution as well as the investigation of system response to management measures or landuse changes with scenario simulations. The modelling approach assists in the interpretation of observed data, as it allows to integrate local observations into a spatial and temporal framework. KW - Stickstoff KW - Nitrat KW - Modellierung KW - Grundwasser KW - Einzugsgebiet KW - Reaktiver Stofftransport KW - Denitrifikation KW - Nitrogen KW - Nitrate KW - modelling KW - groundwater KW - catchment KW - reactive transport KW - denitrification Y1 - 2004 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0001307 ER - TY - THES A1 - Wozny, Florian T1 - Three empirical essays in health economics T1 - Drei empirische Essays in Gesundheitsökonomik N2 - Modern health care systems are characterized by pronounced prevention and cost-optimized treatments. This dissertation offers novel empirical evidence on how useful such measures can be. The first chapter analyzes how radiation, a main pollutant in health care, can negatively affect cognitive health. The second chapter focuses on the effect of Low Emission Zones on public heath, as air quality is the major external source of health problems. Both chapters point out potentials for preventive measures. Finally, chapter three studies how changes in treatment prices affect the reallocation of hospital resources. In the following, I briefly summarize each chapter and discuss implications for health care systems as well as other policy areas. Based on the National Educational Panel Study that is linked to data on radiation, chapter one shows that radiation can have negative long-term effects on cognitive skills, even at subclinical doses. Exploiting arguably exogenous variation in soil contamination in Germany due to the Chernobyl disaster in 1986, the findings show that people exposed to higher radiation perform significantly worse in cognitive tests 25 years later. Identification is ensured by abnormal rainfall within a critical period of ten days. The results show that the effect is stronger among older cohorts than younger cohorts, which is consistent with radiation accelerating cognitive decline as people get older. On average, a one-standarddeviation increase in the initial level of CS137 (around 30 chest x-rays) is associated with a decrease in the cognitive skills by 4.1 percent of a standard deviation (around 0.05 school years). Chapter one shows that sub-clinical levels of radiation can have negative consequences even after early childhood. This is of particular importance because most of the literature focuses on exposure very early in life, often during pregnancy. However, population exposed after birth is over 100 times larger. These results point to substantial external human capital costs of radiation which can be reduced by choices of medical procedures. There is a large potential for reductions because about one-third of all CT scans are assumed to be not medically justified (Brenner and Hall, 2007). If people receive unnecessary CT scans because of economic incentives, this chapter points to additional external costs of health care policies. Furthermore, the results can inform the cost-benefit trade-off for medically indicated procedures. Chapter two provides evidence about the effectiveness of Low Emission Zones. Low Emission Zones are typically justified by improvements in population health. However, there is little evidence about the potential health benefits from policy interventions aiming at improving air quality in inner-cities. The chapter ask how the coverage of Low Emission Zones air pollution and hospitalization, by exploiting variation in the roll out of Low Emission Zones in Germany. It combines information on the geographic coverage of Low Emission Zones with rich panel data on the universe of German hospitals over the period from 2006 to 2016 with precise information on hospital locations and the annual frequency of detailed diagnoses. In order to establish that our estimates of Low Emission Zones’ health impacts can indeed be attributed to improvements in local air quality, we use data from Germany’s official air pollution monitoring system and assign monitor locations to Low Emission Zones and test whether measures of air pollution are affected by the coverage of a Low Emission Zone. Results in chapter two confirm former results showing that the introduction of Low Emission Zones improved air quality significantly by reducing NO2 and PM10 concentrations. Furthermore, the chapter shows that hospitals which catchment areas are covered by a Low Emission Zone, diagnose significantly less air pollution related diseases, in particular by reducing the incidents of chronic diseases of the circulatory and the respiratory system. The effect is stronger before 2012, which is consistent with a general improvement in the vehicle fleet’s emission standards. Depending on the disease, a one-standard-deviation increase in the coverage of a hospitals catchment area covered by a Low Emission Zone reduces the yearly number of diagnoses up to 5 percent. These findings have strong implications for policy makers. In 2015, overall costs for health care in Germany were around 340 billion euros, of which 46 billion euros for diseases of the circulatory system, making it the most expensive type of disease caused by 2.9 million cases (Statistisches Bundesamt, 2017b). Hence, reductions in the incidence of diseases of the circulatory system may directly reduce society’s health care costs. Whereas chapter one and two study the demand-side in health care markets and thus preventive potential, chapter three analyzes the supply-side. By exploiting the same hospital panel data set as in chapter two, chapter three studies the effect of treatment price shocks on the reallocation of hospital resources in Germany. Starting in 2005, the implementation of the German-DRG-System led to general idiosyncratic treatment price shocks for individual hospitals. Thus far there is little evidence of the impact of general price shocks on the reallocation of hospital resources. Additionally, I add to the exiting literature by showing that price shocks can have persistent effects on hospital resources even when these shocks vanish. However, simple OLS regressions would underestimate the true effect, due to endogenous treatment price shocks. I implement a novel instrument variable strategy that exploits the exogenous variation in the number of days of snow in hospital catchment areas. A peculiarity of the reform allowed variation in days of snow to have a persistent impact on treatment prices. I find that treatment price increases lead to increases in input factors such as nursing staff, physicians and the range of treatments offered but to decreases in the treatment volume. This indicates supplier-induced demand. Furthermore, the probability of hospital mergers and privatization decreases. Structural differences in pre-treatment characteristics between hospitals enhance these effects. For instance, private and larger hospitals are more affected. IV estimates reveal that OLS results are biased towards zero in almost all dimensions because structural hospital differences are correlated with the reallocation of hospital resources. These results are important for several reasons. The G-DRG-Reform led to a persistent polarization of hospital resources, as some hospitals were exposed to treatment price increases, while others experienced reductions. If hospitals increase the treatment volume as a response to price reductions by offering unnecessary therapies, it has a negative impact on population wellbeing and public spending. However, results show a decrease in the range of treatments if prices decrease. Hospitals might specialize more, thus attracting more patients. From a policy perspective it is important to evaluate if such changes in the range of treatments jeopardize an adequate nationwide provision of treatments. Furthermore, the results show a decrease in the number of nurses and physicians if prices decrease. This could partly explain the nursing crisis in German hospitals. However, since hospitals specialize more they might be able to realize efficiency gains which justify reductions in input factors without loses in quality. Further research is necessary to provide evidence for the impact of the G-DRG-Reform on health care quality. Another important aspect are changes in the organizational structure. Many public hospitals have been privatized or merged. The findings show that this is at least partly driven by the G-DRG-Reform. This can again lead to a lack in services offered in some regions if merged hospitals specialize more or if hospitals are taken over by ecclesiastical organizations which do not provide all treatments due to moral conviction. Overall, this dissertation reveals large potential for preventive health care measures and helps to explain reallocation processes in the hospital sector if treatment prices change. Furthermore, its findings have potentially relevant implications for other areas of public policy. Chapter one identifies an effect of low dose radiation on cognitive health. As mankind is searching for new energy sources, nuclear power is becoming popular again. However, results of chapter one point to substantial costs of nuclear energy which have not been accounted yet. Chapter two finds strong evidence that air quality improvements by Low Emission Zones translate into health improvements, even at relatively low levels of air pollution. These findings may, for instance, be of relevance to design further policies targeted at air pollution such as diesel bans. As pointed out in chapter three, the implementation of DRG-Systems may have unintended side-effects on the reallocation of hospital resources. This may also apply to other providers in the health care sector such as resident doctors. N2 - Moderne Gesundheitssysteme zeichnen sich sowohl durch eine ausgeprägte Prävention als auch durch kostenoptimierte Behandlungen aus. Diese Dissertation bietet neue empirische Erkenntnisse darüber, wie nützlich solche Maßnahmen sein können. Das erste Kapitel analysiert, wie Strahlung, ein Hauptschadstoff im Gesundheitswesen, die kognitive Gesundheit negativ beeinflussen kann. Das zweite Kapitel konzentriert sich auf die Auswirkungen von Umweltzonen auf die öffentliche Gesundheit, da die Luftqualität die wichtigste externe Quelle für Gesundheitsprobleme ist. Beide Kapitel zeigen Potenziale für präventive Maßnahmen auf. Schließlich wird in Kapitel drei untersucht, wie sich Änderungen von Behandlungspreisen auf die Reallokation von Krankenhausressourcen auswirken. Im Folgenden fasse ich jedes Kapitel kurz zusammen und diskutiere die Relevanz für Gesundheitssysteme und andere Politikbereiche. Basierend auf dem Nationalen Bildungspanel, welches wir mit Strahlungsdaten verknüpfen, zeigt Kapitel eins, dass Strahlung, auch in geringen Dosen, negative Langzeitwirkungen auf die kognitiven Fähigkeiten haben kann. Dazu nutzen wir die exogene Variation der Bodenkontamination in Deutschland nach der Tschernobyl-Katastrophe von 1986. Die Ergebnisse zeigen, dass Menschen, die einer höheren Strahlung ausgesetzt waren, 25 Jahre später in kognitiven Tests deutlich schlechter abschneiden. Die Identifizierung wird durch anormale Niederschläge innerhalb eines kritischen Zeitraums von zehn Tagen nach dem Reaktorunfall gewährleistet. Die Ergebnisse zeigen, dass der Effekt bei älteren Kohorten stärker ist als bei jüngeren Kohorten, was mit der Theorie übereinstimmt, dass Strahlung den altersbedingten Rückgang der kognitiven Leistungsfähigkeit beschleunigt. Im Durchschnitt ist eine Erhöhung des Anfangsniveaus von CS137 um eine Standardabweichung (ca. 30 Thoraxröntgenaufnahmen) mit einer Abnahme der kognitiven Fähigkeiten um 4,1 Prozent einer Standardabweichung verbunden (ca. 0.05 Schuljahre). Die Ergebnisse in Kapitel eins zeigen, dass geringe Strahlungswerte auch nach der frühen Kindheit negative Folgen haben können. Dies ist von besonderer Bedeutung, da sich der Großteil der Literatur auf die Exposition in sehr frühen Lebensphasen konzentriert, oft während der Schwangerschaft. Die nach der Geburt exponierte Bevölkerung ist jedoch über 100-mal größer. Diese Ergebnisse deuten auf erhebliche externe Humankapitalkosten der Strahlung hin, die zum Beispiel durch die Wahl medizinischer Verfahren reduziert werden können. Es bestehen große Reduktionspotenziale, da beispielsweise etwa ein Drittel aller CT-Scans als medizinisch nicht gerechtfertigt angesehen werden (Brenner and Hall, 2007). Unter der Annahme, dass Menschen aufgrund wirtschaftlicher Anreize unnötige CT-Scans erhalten, weist dieses Kapitel auf zusätzliche externe Kosten von Gesundheitsmaßnahmen für die Gesundheit der Patienten hin. Außerdem erweitern die Ergebnisse die Informationsgrundlage für Risiko-Nutzen-Abwägungen medizinischer Behandlungen. Kapitel zwei liefert Belege für die Wirksamkeit von Umweltzonen. Umweltzonen sind in der Regel durch eine Verbesserung der Gesundheit der Bevölkerung gerechtfertigt. Es gibt jedoch wenig Belege für den gesundheitlichen Nutzen solcher politischen Maßnahmen zur Verbesserung der Luftqualität in Innenstädten. In dem Kapitel analysieren wir, wie sich die Ausdehnung der Umweltzonen auf die Luftverschmutzung und die Krankenhausaufenthalte auswirkt. Dazu nutzen wir zeitliche Unterschiede bei der Einführung der Umweltzonen in Deutschland. Hierfür kombinieren wir Informationen über die geografische Abdeckung der Umweltzonen mit umfangreichen Paneldaten von allen deutschen Krankenhäusern im Zeitraum von 2006 bis 2016. Die Krankenhausdaten enthalten präzise Informationen über Krankenhausstandorte und die jährliche Häufigkeit detaillierter Diagnosen. Um sicherzustellen, dass unsere Schätzungen der gesundheitlichen Auswirkungen der Umweltzonen auf eine Verbesserung der lokalen Luftqualität zurückzuführen sind, verwenden wir Daten aus dem offiziellen deutschen Luftmessnetz und ordnen den Umweltzonen Monitorstandorte zu. Hierdurch prüfen wir, ob Messungen der Luftverschmutzung durch die Abdeckung einer Umweltzone beeinflusst werden. Die Ergebnisse in Kapitel zwei bestätigen frühere Ergebnisse, die zeigen, dass die Einführung von Umweltzonen die Luftqualität durch die Reduzierung der NO2- und PM10-Konzentrationen deutlich verbessert. Darüber hinaus zeigt das Kapitel, dass Krankenhäuser, deren Einzugsgebiete in eine Umweltzone fallen, deutlich weniger durch Luftverschmutzung bedingte Krankheiten diagnostizieren, insbesondere durch die Verringerung von chronischen Krankheiten des Kreislaufs und der Atemwege. Der Effekt ist vor 2012 stärker, was sich durch eine allgemeine Verbesserung der Abgasnormen für Fahrzeuge erklären lässt. Wird der Anteil eines Krankenhauseinzugsgebiets mit Umweltzone um eine Standardabweichung erhöht, reduziert sich die jährliche Anzahl der entsprechenden Diagnosen um bis zu 5 Prozent. Diese Ergebnisse sind für politische Entscheidungsträger von Bedeutung. Im Jahr 2015 gab Deutschland 46 Milliarden Euro für Herz-Kreislauf-Erkrankungen aus, die teuerste Krankheitsform mit 2,9 Millionen Fällen. Die Reduktion von Herz-Kreislauf-Erkrankungen würde die Gesundheitskosten der Gesellschaft unmittelbar senken. Während Kapitel eins und zwei die Nachfrageseite in Gesundheitsmärkten und damit das Präventionspotenzial untersuchen, analysiert Kapitel drei die Angebotsseite. Unter Verwendung desselben Krankenhauspaneldatensatzes wie in Kapitel zwei untersuche ich die Auswirkungen von veränderten Behandlungspreisen auf Krankenhausressourcen in Deutschland. Ab 2005 wurden die Behandlungspreise für Patienten durch das G-DRG- System umgewandelt, was bis 2010 zu allgemeinen idiosynkratischen Preisschocks für einzelne Krankenhäuser führte. Die vorhandene Literatur bildet den Effekt von allgemeinen Preisschocks auf Krankenhausressourcen jedoch nur unzureichend ab. Außerdem erweitere ich die vorhandene Literatur indem ich zeige, dass Preisänderungen auch dann langfristige Auswirkungen auf Krankenhausressourcen haben können, wenn die Preisschocks verschwinden. Einfache OLS-Regressionen würden den wahren Effekt aufgrund von endogenen Preisschocks unterschätzen. Unter Zuhilfenahme von hochauflösenden Satellitendaten nutze ich eine Instrumentenvariablenstrategie, welche exogene Schwankungen der Wetterbedingungen im Einzugsbereich von Krankenhäusern nutzt. Eine Besonderheit der Reform führt dazu, dass Abweichungen der Wetterbedingungen zum Zeitpunkt der Reformeinführung einen nachhaltigen Einfluss auf die Behandlungspreise hatten. Die Ergebnisse zeigen, dass Preiserhöhungen im Laufe der Zeit zu einem Anstieg des Pflegepersonals, von Ärzten und der Vielfalt der angebotenen Behandlungen führen, aber zu einem Rückgang des Behandlungsvolumens. Bei privaten und größeren Krankenhäusern sind die Auswirkungen stärker. Darüber hinaus sinkt die Wahrscheinlichkeit von Krankenhausfusionen und Privatisierungen. IV-Ergebnisse zeigen gegen Null verzerrte OLS-Schätzungen in fast allen Dimensionen, da strukturelle Krankenhausunterschiede mit der Reallokation von Ressourcen korreliert sind. Diese Ergebnisse sind aus mehreren Gründen wichtig. Die G-DRG-Reform führte zu einer anhaltenden Polarisation von Krankenhausressourcen, da Krankenhäuser sowohl Preisanstiege als auch Preissenkungen erfuhren. Wenn Krankenhäuser das Behandlungsvolumen durch unnötige Therapien erhöhen, hat das negative Auswirkungen auf die öffentliche Gesundheit der Bevölkerung und die öffentlichen Ausgaben. Andererseits zeigen die Ergebnisse einen Rückgang der Bandbreite der angebotenen Behandlungen bei sinkenden Preisen. Krankenhäuser könnten sich stärker spezialisieren und so mehr Patienten anziehen. Aus politischer Sicht ist es wichtig zu beurteilen, ob solche Veränderungen in der Vielfalt der angebotenen Behandlungen eine angemessene flächendeckende Versorgung gefährden. Des Weiteren zeigen die Ergebnisse einen Rückgang der Zahl der Krankenschwestern und Ärzte, wenn die Preise sinken. Dies könnte die Pflegekrise, welche die Bundesregierung in Deutschland beschreibt, teilweise erklären. Da sich die Krankenhäuser jedoch stärker spezialisieren, können sie möglicherweise Effizienzsteigerungen erzielen, die eine Verringerung der Inputfaktoren rechtfertigen, ohne an Qualität zu verlieren. Weitere Untersuchungen sind notwendig, um die Auswirkungen auf die Qualität der Gesundheitsversorgung nachzuweisen. Ein weiterer wichtiger Aspekt sind Veränderungen in der Organisationsstruktur. Viele öffentliche Krankenhäuser werden privatisiert oder mit anderen Krankenhäusern fusioniert. Meine Ergebnisse zeigen, dass dies zumindest teilweise auf die G-DRG-Reform zurückzuführen ist. Dies kann zu einem Mangel an angebotenen Behandlungen in einigen Regionen führen, wenn sich fusionierte Krankenhäuser spezialisieren oder wenn Krankenhäuser von kirchlichen Organisationen übernommen werden, die aus moralischen Gründen nicht alle Behandlungen anbieten. Insgesamt unterstreicht diese Dissertation das große Potenzial von Gesundheitsvorsorgemaßnahmen und hilft, Reallokationsprozesse im Krankenhaussektor zu erklären. Darüber hinaus haben die Ergebnisse potenziell relevante Auswirkungen auf andere Bereiche der Politik. Kapitel Eins identifiziert einen Einfluss von geringer Radioaktivität auf die kognitive Gesundheit. Auf der Suche nach neuen Energiequellen wird die Kernenergie wieder populär. Die Ergebnisse von Kapitel Eins deuten jedoch auf erhebliche Kosten von Kernenergie hin, die in der aktuellen Debatte noch nicht berücksichtigt wurden. Kapitel Zwei findet starke Hinweise darauf, dass die Verbesserung der Luftqualität durch Umweltzonen, selbst bei relativ geringer Luftverschmutzung, zu einer Verbesserung der Gesundheit führt. Diese Ergebnisse können für die Einführung weiterer Maßnahmen zur Bekämpfung der Luftverschmutzung von Bedeutung sein, wie beispielsweise Fahrverbote für Dieselfahrzeuge. Wie in Kapitel Drei dargelegt, kann die Einführung von DRG-Systemen unbeabsichtigte Effekte bei der Reallokation von Krankenhausressourcen haben. Dies kann auch für andere Anbieter im Gesundheitswesen wie niedergelassene Ärzte gelten. KW - health economics KW - managment KW - hospital KW - Gesundheitsökonomik KW - Management KW - Krankenhaus Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-469910 ER - TY - THES A1 - Wotschack, Christiane T1 - Eye movements in reading strategies : how reading strategies modulate effects of distributed processing and oculomotor control T1 - Lesestrategien und Blickbewegungen : wie Lesestrategien Effekte der verteilten Verarbeitung und der okulomotorischen Kontrolle modulieren N2 - Throughout its empirical research history eye movement research has always been aware of the differences in reading behavior induced by individual differences and task demands. This work introduces a novel comprehensive concept of reading strategy, comprising individual differences in reading style and reading skill as well as reader goals. In a series of sentence reading experiments recording eye movements, the influence of reading strategies on reader- and word-level effects assuming distributed processing has been investigated. Results provide evidence for strategic, top-down influences on eye movement control that extend our understanding of eye guidance in reading. N2 - Seit Beginn der Blickbewegungsforschung beim Lesen ist man sich über Unterschiede im Blickverhalten bewusst, die im Zusammenhang mit individuellen Unterschieden oder Aufgabenanforderungen stehen. Unter dem Begriff ‚Lesestrategie’ wurden diese Unterschiede hauptsächlich für diagnostische Zwecke verwendet. Diese Studie verwendet eine neue, umfassende Definition von Lesestrategie und berücksichtigt sowohl individuelle Unterschiede in Lesestil und Lesevermögen als auch Ziel und Intention des Lesers. In einer Reihe von Satzleseexperimenten, bei denen die Blickbewegungen aufgezeichnet wurden, wurde der Einfluss von Lesestrategien auf Effekte der Leser-und Wortebene untersucht, wobei eine verteilte Verarbeitung beim Lesen angenommen wird. Die Ergebnisse liefern Evidenzen für strategische, top-down Einflüsse auf die Blickbewegungen und leisten einen wichtigen Beitrag für das bessere Verständnis der Blickbewegungskontrolle beim Lesen. T3 - Spektrum Patholinguistik - Schriften - 1 KW - Blickbewegungen KW - Satzlesen KW - Lesestrategie KW - verteilte Verarbeitung KW - individuelle Unterschiede KW - eye movements KW - sentence reading KW - reading strategy KW - distributed processing KW - individual differences Y1 - 2009 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-36846 SN - 978-3-86956-021-2 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wortmann, Hanna Rosalie T1 - Food Neophilie T1 - Food neophilia BT - Erfassung des Konstrukts, prospektive Zusammenhänge zur Ernährungsqualität und partnerschaftliche Aspekte im höheren Erwachsenenalter BT - assessing the construct, prospective associations with dietary quality, and intra-couple dynamics in older adults N2 - Trotz der eindeutigen Vorteile einer ausgewogenen Ernährung halten sich viele Menschen weltweit nicht an entsprechende Ernährungsrichtlinien. Um angemessene Strategien zur Unterstützung einer gesundheitsfördernden Ernährung zu entwickeln, ist ein Verständnis der zugrunde liegenden Faktoren unerlässlich. Insbesondere die Gruppe der älteren Erwachsenen stellt dabei eine wichtige Zielgruppe für ernährungsbezogene Präventions- und Interventionsansätze dar. Einer der vielen Faktoren, die als Determinanten einer gesundheitsfördernden Ernährung diskutiert werden, ist die Food Neophilie, also die Bereitschaft, neue und unbekannte Lebensmittel auszuprobieren. Aktuelle Forschungsergebnisse legen nahe, dass die Food Neophilie positiv mit einer gesundheitsfördernden Ernährung in Verbindung steht, allerdings ist die bisherige Forschung in diesem Bereich äußerst begrenzt. Das Ziel der Dissertation war es, das Konstrukt der Food Neophilie sowie seine Beziehung zu gesundheitsförderndem Ernährungsverhalten im höheren Erwachsenenalter grundlegend zu erforschen, um das Potenzial der Food Neophilie für die Gesundheitsförderung älterer Erwachsener besser zu verstehen. Dabei wurde im Rahmen der ersten Publikation zunächst untersucht, wie sich das Konstrukt der Food Neophilie reliabel und valide erfassen lässt, um weiterführende Untersuchungen der Food Neophilie zu ermöglichen. Die psychometrische Validierung der deutschen Version der Variety Seeking Tendency Scale (VARSEEK) basierte auf zwei unabhängigen Stichproben mit insgesamt N = 1000 Teilnehmenden und bestätigte, dass es sich bei der Skala um ein reliables und valides Messinstrument zur Erfassung der Food Neophilie handelt. Darauf aufbauend wurde im Rahmen der zweiten Publikation die Beziehung der Food Neophilie und der Ernährungsqualität über die Zeit hinweg analysiert. Die prospektive Untersuchung von N = 960 Teilnehmenden des höheren Erwachsenenalters (M = 63.4 Jahre) anhand einer Cross-Lagged-Panel-Analyse ergab hohe zeitliche Stabilitäten der Food Neophilie und der Ernährungsqualität über einen Zeitraum von drei Jahren. Es zeigte sich zudem ein positiver querschnittlicher Zusammenhang zwischen der Food Neophilie und der Ernährungsqualität, jedoch wurde die Food Neophilie nicht als signifikante Determinante der Ernährungsqualität über die Zeit hinweg identifiziert. In der dritten Publikation wurden schließlich nicht nur die individuellen Auswirkungen der Food Neophilie auf die Ernährungsqualität betrachtet, sondern auch potenzielle dynamische Wechselwirkungen innerhalb von Partnerschaften einbezogen. Hierzu erfolgte mittels eines Actor-Partner-Interdependence-Modells eine Differenzierung potenzieller intra- und interpersoneller Einflüsse der Food Neophilie auf die Ernährungsqualität. Im Rahmen der dyadischen Analyse zeigte sich bei N = 390 heterosexuellen Paaren im höheren Erwachsenenalter (M = 64.0 Jahre) ein Dominanzmuster: Während die Food Neophilie der Frauen positiv mit ihrer eigenen Ernährungsqualität und der ihrer Partner zusammenhing, war die Food Neophilie der Männer nicht mit der Ernährungsqualität des Paares assoziiert. Insgesamt leistet die vorliegende Dissertation einen wertvollen Beitrag zum umfassenden Verständnis der Food Neophilie sowie ihrer Rolle im Kontext der Ernährungsgesundheit älterer Erwachsener. Trotz fehlender Vorhersagekraft über die Zeit hinweg deutet der positive Zusammenhang zwischen Food Neophilie und Ernährungsqualität darauf hin, dass die Fokussierung auf eine positive und neugierige Einstellung gegenüber Lebensmitteln eine innovative Perspektive für Präventions- und Interventionsansätze zur Unterstützung einer gesundheitsfördernden Ernährung älterer Erwachsener bieten könnte. N2 - Despite the clear benefits of a balanced diet, many people worldwide do not adhere to the recommendations of dietary guidelines. Understanding the underlying factors of a healthy diet is essential to develop appropriate prevention and intervention strategies. Especially older adults are a critical target group for promoting healthy eating. One of the many factors discussed as determinants of healthy eating is the willingness to try unfamiliar foods, referred to as food neophilia. Current research suggests a positive association between food neophilia and healthy eating. However, existing research in this area is extremely limited. This dissertation aimed to explore the construct of food neophilia and its relationship to dietary quality in older adults to better understand its potential for promoting a health-beneficial diet in older age. The first publication focused on examining how to measure the construct of food neophilia reliably and validly to enable further investigations. The psychometric validation of the German version of the Variety Seeking Tendency Scale (VARSEEK) was based on two independent samples with a total of N = 1000 participants, confirming the scale's reliability and validity as an instrument for assessing food neophilia. Building upon this, the second publication focused on the relationship between food neophilia and dietary quality over time. The prospective study of N = 960 participants of older age (M = 63.4 years) using a cross-lagged panel analysis revealed high temporal stabilities of both food neophilia and dietary quality over a three-year period. Analyses also showed a positive cross-sectional correlation between food neophilia and dietary quality. However, food neophilia was not identified as a significant determinant of dietary quality over time. The third publication focused on examining both individual effects of food neophilia on dietary quality as well as intra-couple dynamics. An Actor-Partner Interdependence Model was applied to examine both intrapersonal and interpersonal associations between food neophilia and dietary quality. The results of the dyadic analyses of 390 heterosexual couples of older age (M = 64.0 years) revealed a domination pattern, in that women’s food neophilia was positively associated with both their own and their partner’s dietary quality, while men’s food neophilia showed no association with the dietary quality of both partners. Overall, this dissertation makes a valuable contribution to a comprehensive understanding of food neophilia and its role in the context of the nutritional health of older adults. Despite the lack of predictive power over time, the positive association between food neophilia and dietary quality suggests that focusing on a positive and curious attitude towards food could offer an innovative perspective for prevention and intervention approaches to support healthy eating in older adults. KW - Food Neophilie KW - Ernährungsqualität KW - NutriAct Familienstudie KW - gesunde Ernährung KW - food neophilia KW - dietary quality KW - NutriAct family study KW - healthy eating Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-628572 ER - TY - THES A1 - Worseck, Gábor T1 - The transverse proximity effect in quasar spectra T1 - Der Transversale Proximity-Effekt in Quasarspektren N2 - The intergalactic medium is kept highly photoionised by the intergalactic UV background radiation field generated by the overall population of quasars and galaxies. In the vicinity of sources of UV photons, such as luminous high-redshift quasars, the UV radiation field is enhanced due to the local source contribution. The higher degree of ionisation is visible as a reduced line density or generally as a decreased level of absorption in the Lyman alpha forest of neutral hydrogen. This so-called proximity effect has been detected with high statistical significance towards luminous quasars. If quasars radiate rather isotropically, background quasar sightlines located near foreground quasars should show a region of decreased Lyman alpha absorption close to the foreground quasar. Despite considerable effort, such a transverse proximity effect has only been detected in a few cases. So far, studies of the transverse proximity effect were mostly limited by the small number of suitable projected pairs or groups of high-redshift quasars. With the aim to substantially increase the number of quasar groups in the vicinity of bright quasars we conduct a targeted survey for faint quasars around 18 well-studied quasars at employing slitless spectroscopy. Among the reduced and calibrated slitless spectra of 29000 objects on a total area of 4.39 square degrees we discover in total 169 previously unknown quasar candidates based on their prominent emission lines. 81 potential z>1.7 quasars are selected for confirmation by slit spectroscopy at the Very Large Telescope (VLT). We are able to confirm 80 of these. 64 of the newly discovered quasars reside at z>1.7. The high success rate of the follow-up observations implies that the majority of the remaining candidates are quasars as well. In 16 of these groups we search for a transverse proximity effect as a systematic underdensity in the HI Lyman alpha absorption. We employ a novel technique to characterise the random absorption fluctuations in the forest in order to estimate the significance of the transverse proximity effect. Neither low-resolution spectra nor high-resolution spectra of background quasars of our groups present evidence for a transverse proximity effect. However, via Monte Carlo simulations the effect should be detectable only at the 1-2sigma level near three of the foreground quasars. Thus, we cannot distinguish between the presence or absence of a weak signature of the transverse proximity effect. The systematic effects of quasar variability, quasar anisotopy and intrinsic overdensities near quasars likely explain the apparent lack of the transverse proximity effect. Even in absence of the systematic effects, we show that a statistically significant detection of the transverse proximity effect requires at least 5 medium-resolution quasar spectra of background quasars near foreground quasars whose UV flux exceeds the UV background by a factor 3. Therefore, statistical studies of the transverse proximity effect require large numbers of suitable pairs. Two sightlines towards the central quasars of our survey fields show intergalactic HeII Lyman alpha absorption. A comparison of the HeII absorption to the corresponding HI absorption yields an estimate of the spectral shape of the intergalactic UV radiation field, typically parameterised by the HeII/HI column density ratio eta. We analyse the fluctuating UV spectral shape on both lines of sight and correlate it with seven foreground quasars. On the line of sight towards Q0302-003 we find a harder radiation field near 4 foreground quasars. In the direct vicinity of the quasars eta is consistent with values of 25-100, whereas at large distances from the quasars eta>200 is required. The second line of sight towards HE2347-4342 probes lower redshifts where eta is directly measurable in the resolved HeII forest. Again we find that the radiation field near the 3 foreground quasars is significantly harder than in general. While eta still shows large fluctuations near the quasars, probably due to radiative transfer, the radiation field is on average harder near the quasars than far away from them. We interpret these discoveries as the first detections of the transverse proximity effect as a local hardness fluctuation in the UV spectral shape. No significant HI proximity effect is predicted for the 7 foreground quasars. In fact, the HI absorption near the quasars is close to or slightly above the average, suggesting that the weak signature of the transverse proximity effect is masked by intrinsic overdensities. However, we show that the UV spectral shape traces the transverse proximity effect even in overdense regions or at large distances. Therefore, the spectral hardness is a sensitive physical measure of the transverse proximity effect that is able to break the density degeneracy affecting the traditional searches. N2 - Das intergalaktische Medium wird durch das intergalaktische UV-Hintergrundsstrahlungsfeld in einem hochgradig photoionisierten Zustand gehalten. Der UV-Hintergrund stammt von der gesamten Population von Quasaren und Galaxien. In der Nähe von leuchtkräftigen Quasaren, ist das UV-Strahlungsfeld lokal erhöht durch den Anteil der Quelle. Der höhere Ionisationsgrad ist beobachtbar als eine reduzierte Liniendichte oder allgemein als ein vermindertes Maß an Absorption im Lyman-alpha Wald des neutralen Wasserstoffs. Dieser sogenannte Proximity-Effekt ist bei leuchtkräftigen Quasaren mit hoher statistischer Signifikanz nachgewiesen worden. Falls Quasare fast isotrop strahlen, dann sollten Sichtlinien zu Hintergrundquasaren in der Nähe von Vordergrundquasaren eine Region mit verminderter Absorption zeigen. Trotz beträchtlichen Aufwands wurde solch ein transversaler Proximity-Effekt nur in wenigen Fällen entdeckt. Bisher waren Studien des transversalen Proximity-Effekts meist begrenzt durch die kleine Anzahl von geeigneten projizierten Paaren oder Gruppen von hochrotverschobenen Quasaren. Mit dem Ziel die Zahl der Quasargruppen in der Nähe von hellen Quasaren beträchtlich zu erhöhen, führen wir eine gezielte Suche nach schwachen Quasaren um 18 oft studierte Quasare durch. Unter den reduzierten und kalibrierten spaltlosen Spektren von 29000 Objekten auf einer Gesamtfläche von 4.39 Quadratgrad entdecken wir insgesamt 169 vorher unbekannte Quasarkandidaten anhand ihrer Emissionslinien. 81 potentielle z>1.7 Quasare werden ausgesucht zur Bestätigung mittels Spaltspektroskopie am Very Large Telescope (VLT). Wir können 80 von diesen als Quasare bestätigen. 64 der neu entdeckten Quasare liegen bei z>1.7. Die hohe Erfolgsrate der Nachfolgebeobachtungen deutet an, dass die Mehrzahl der verbleibenden Kandidaten ebenfalls Quasare sind. In 16 dieser Gruppen suchen wir nach dem transversalen Proximity-Effekt als eine systematische Unterdichte in der HI Lyman-alpha-Absorption. Wir nutzen eine neuartige Methode die zufälligen Absorptionsfluktuationen zu charakterisieren, um die Signifikanz des transversalen Proximity-Effekts abschätzen zu können. Weder schwach aufgelöste noch hoch aufgelöste Spektren von Hintergrundquasaren unserer Gruppen zeigen Anzeichen für einen transversalen Proximity-Effekt. Aufgrund von Monte Carlo Simulationen sollte der Effekt jedoch nur schwach in der Nähe von 3 Vordergrundquasaren detektierbar sein. Deshalb können wir nicht zwischen An- oder Abwesenheit des Effekts unterscheiden. Selbst in Abwesenheit von systematischen Effekten zeigen wir, dass eine statistisch signifikante Detektion des transversalen Proximity-Effekts mindestens 5 Hintergrundquasarspektren bei mittlerer Auflösung nahe Vordergrundquasaren erfordert, deren UV-Fluss den UV-Hintergrund um einen Faktor 3 übersteigt. Deshalb erfordern statistische Studien des transversalen Proximity-Effekts große Zahlen von geeigneten Quasaren. Zwei Sichtlinien zeigen HeII-Absorption. Ein Vergleich der HeII-Absorption mit der entsprechenden HI-Absorption liefert eine Abschätzung der Spektralform des UV-Strahlungsfelds, das typischerweise durch das HeII/HI Säulendichteverhältnis eta parameterisiert wird. Wir analysieren die fluktuierende spektrale Form des UV-Strahlungsfelds auf beiden Sichtlinien und korrelieren sie mit 7 Vordergrundquasaren. Auf der Sichtlinie zu Q0302-003 finden wir ein härteres Strahlungsfeld nahe 4 Vordergrundquasaren. In der direkten Umgebung der Quasare ist eta konsistent mit Werten von 25-100, wogegen bei großen Entfernungen zu den Quasaren eta>200 erforderlich ist. Die zweite Sichtlinie zu HE2347-4342 sondiert kleinere Rotverschiebungen. Wieder finden wir, dass das Strahlungsfeld nahe der 3 Vordergrundquasaren signifikant härter ist als im allgemeinen. Während eta trotzdem große Fluktuationen nahe den Quasaren aufweist, die wahrscheinlich von Strahlungstransport herrühren, ist das Strahlungsfeld in der Nähe der Quasare im Mittel härter als in großer Entfernung. Wir interpretieren diese Entdeckungen als die ersten Detektionen des transversalen Proximity-Effekts als eine lokale Fluktuation im spektralen Härtegrad. Kein signifikanter HI Proximity-Effekt ist für die 7 Vordergrundquasare vorhergesagt. Tatsächlich ist die HI-Absorption nahe den Quasaren nahe am oder etwas über dem Mittelwert, was darauf hindeutet, dass die schwache Signatur des transversalen Proximity-Effekts maskiert wird durch intrinsische Überdichten. Jedoch zeigen wir, dass der Härtegrad den transversalen Proximity-Effekt selbst in überdichten Regionen oder auf großen Distanzen sichtbar werden läßt. Deshalb ist der spektrale Härtegrad ein empfindliches physikalisches Maß für den transversalen Proximity-Effekt, der in der Lage ist, die Dichteentartung zu brechen, die die traditionelle Suche behindert. KW - Quasar KW - Proximity-Effekt KW - intergalaktisches Medium KW - quasar KW - proximity effect KW - intergalactic medium Y1 - 2007 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-18738 ER - TY - THES A1 - Won, Jooyoung T1 - Dynamic and equilibrium adsorption behaviour of ß-lactoglobulin at the solution/tetradecane interface: Effect of solution concentration, pH and ionic strength T1 - Dynamik und Gleichgewicht der Adsorption von ß-Lactoglobulin an der Grenzfläche Lösung / Tetradecan (W/TD) N2 - Proteins are amphiphilic and adsorb at liquid interfaces. Therefore, they can be efficient stabilizers of foams and emulsions. β-lactoglobulin (BLG) is one of the most widely studied proteins due to its major industrial applications, in particular in food technology. In the present work, the influence of different bulk concentration, solution pH and ionic strength on the dynamic and equilibrium pressures of BLG adsorbed layers at the solution/tetradecane (W/TD) interface has been investigated. Dynamic interfacial pressure (Π) and interfacial dilational elastic modulus (E’) of BLG solutions for various concentrations at three different pH values of 3, 5 and 7 at a fixed ionic strength of 10 mM and for a selected fixed concentration at three different ionic strengths of 1 mM, 10 mM and 100 mM are measured by Profile Analysis Tensiometer PAT-1 (SINTERFACE Technologies, Germany). A quantitative data analysis requires additional consideration of depletion due to BLG adsorption at the interface at low protein bulk concentrations. This fact makes experiments more efficient when oil drops are studied in the aqueous protein solutions rather than solution drops formed in oil. On the basis of obtained experimental data, concentration dependencies and the effect of solution pH on the protein surface activity was qualitatively analysed. In the presence of 10 mM buffer, we observed that generally the adsorbed amount is increasing with increasing BLG bulk concentration for all three pH values. The adsorption kinetics at pH 5 result in the highest Π values at any time of adsorption while it exhibits a less active behaviour at pH 3. Since the experimental data have not been in a good agreement with the classical diffusion controlled model due to the conformational changes which occur when the protein molecules get in contact with the hydrophobic oil phase in order to adapt to the interfacial environment, a new theoretical model is proposed here. The adsorption kinetics data were analysed with the newly proposed model, which is the classical diffusion model but modified by assuming an additional change in the surface activity of BLG molecules when adsorbing at the interface. This effect can be expressed through the adsorption activity constant in the corresponding equation of state. The dilational visco-elasticity of the BLG adsorbed interfacial layers is determined from measured dynamic interfacial tensions during sinusoidal drop area variations. The interfacial tension responses to these harmonic drop oscillations are interpreted with the same thermodynamic model which is used for the corresponding adsorption isotherm. At a selected BLG concentration of 2×10-6 mol/l, the influence of the ionic strength using different buffer concentration of 1, 10 and 100 mM on the interfacial pressure was studied. It is affected weakly at pH 5, whereas it has a strong impact by increasing buffer concentration at pH 3 and 7. In conclusion, the structure formation of BLG adsorbed layer in the early stage of adsorption at the W/TD interface is similar to those of the solution/air (W/A) surface. However, the equation of state at the W/TD interface provides an adsorption activity constant which is almost two orders of magnitude higher than that for the solution/air surface. At the end of this work, a new experimental tool called Drop and Bubble Micro Manipulator DBMM (SINTERFACE Technologies, Germany) has been introduced to study the stability of protein covered bubbles against coalescence. Among the available protocols the lifetime between the moment of contact and coalescence of two contacting bubble is determined for different BLG concentrations. The adsorbed amount of BLG is determined as a function of time and concentration and correlates with the observed coalescence behaviour of the contacting bubbles. N2 - Die vorliegende Arbeit ist ein Beitrag zum Verständnis des Überganges von der qualitativen zur quantitativen Beschreibung der Adsorption von Proteinen an der Wasser/Öl- Grenzfläche. Dabei wird die Adsorption des Molkeproteins ß-Lactoglobulin (BLG) an der Wasser/Tetradekan (W/TD) Grenzfläche untersucht. Die Proteinadsorption an Grenzflächen zwischen zwei nicht mischbaren Flüssigkeiten ist ein Zeitprozess. Die Tropfenprofil-Analysen-Tensiometrie (PAT) hat sich als optimale Methode erwiesen, um den Prozess der Bildung von Proteinadsorptionsschichten an Flüssig-/flüssig-Grenzflächen quantitativ zu untersuchen. Die gemessenen dynamischen Grenzflächenspannungen können genutzt werden, um die adsorbierte Menge von Protein an Grenzflächen zu bestimmen. Zusätzlich erlaubt die Methode, durch periodische Tropfenoszillationen, die Messung der Dilatations-Viskoelastizität. Die experimentellen Ergebnisse zeigen deutlich, dass die Adsorption von Proteinen mit der Konzentration ansteigt. Der Adsorptionsprozess von Proteinen ist ähnlich dem von Tensiden, allerdings wird seine Beschreibung wesentlich komplizierter, durch die zusätzliche Möglichkeit der Konformationsänderungen der Proteinmoleküle an der Grenzfläche. Ein kürzlich im Rahmen dieser Dissertation entwickeltes Modell zur Adsorptionskinetik von Proteinen wurde genutzt, um experimentelle Daten für BLG zu interpretieren. Dieses kinetische Modell erlaubt es, den Mechanismus der Proteinadsorption an der Wasser/Öl-Grenzfläche zu beschreiben, was durch ältere Modelle bisher nicht möglich war. Im neu entwickelten Modell wurde die klassische Diffusionstheorie so modifiziert, dass eine Änderung der Adsorptionsaktivität der adsorbierenden Proteinmoleküle berücksichtigt wird. Die Änderung der Adsorptionsaktivität geschieht durch den Kontakt adsorbierter BLG-Moleküle an der Wasser/Öl-Grenzfläche. Es wird nach diesem neuen Modell angenommen, dass die Adsorptionsaktivität eine Funktion der Adsorptionszeit ist. Die ansteigende Adsorptionaktivität ist erforderlich, um den Adsorptionsprozess von BLG über den gesamten Zeitbereich quantitativ zu beschrieben. Mit diesem neuen Modell wurde es möglich, die experimentellen Daten zur Adsorptionskinetik sowie zur Dilatationsrheologie von Adsorptionsschichten bei unterschiedlichen BLG-Konzentrationen, pH-Werten und Ionenstärken an der Grenzfläche Lösung/Tetradekan quantitativ zu beschreiben. Die Ergebnisse dienen als Ausgangspunkt für weitere Entwicklungen zur Verbesserung des Verständnisses der Stabilität von Schäumen und Emulsionen, die durch die Dynamik der Adsorption von Molekülen wie BLG signifikant beeinflusst wird. KW - beta-lactoglobulin KW - water/tetradecane interface KW - drop profile analysis tensiometry KW - dynamic interfacial tensions KW - protein adsorption KW - pH effect KW - ionic strength effect KW - protein stabilized foams KW - drop and bubble coalescence KW - interfacial dynamics KW - capillary pressure tensiometry KW - drop-drop interaction KW - bubble-bubble interaction KW - ß-Lactoglobulin KW - Flüssig-/flüssig-Grenzflächen KW - Wasser/Öl-Grenzfläche KW - Grenzfläche Lösung/Tetradecan KW - Dynamik der Adsorption KW - Gleichgewicht der Adsorption KW - Proteinadsorption KW - Tropfenprofil-Analysen-Tensiometrie KW - Tropfenoszillationen KW - Dilatations-Viskoelastizität KW - klassische Diffusionstheorie KW - Konformationsänderungen KW - Adsorptionsaktivität KW - Wirkung des pH-Werten KW - Wirkung des Ionenstärken KW - Stabilität von Schäumen KW - Stabilität von Emulsionen Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-99167 ER - TY - THES A1 - Wolff, Markus T1 - Geovisual methods and techniques for the development of three-dimensional tactical intelligence assessments T1 - Methoden und Techniken zur Entwicklung dreidimensionaler Lagebilder für Belange der zivilen Sicherheit N2 - This thesis presents methods, techniques and tools for developing three-dimensional representations of tactical intelligence assessments. Techniques from GIScience are combined with crime mapping methods. The range of methods applied in this study provides spatio-temporal GIS analysis as well as 3D geovisualisation and GIS programming. The work presents methods to enhance digital three-dimensional city models with application specific thematic information. This information facilitates further geovisual analysis, for instance, estimations of urban risks exposure. Specific methods and workflows are developed to facilitate the integration of spatio-temporal crime scene analysis results into 3D tactical intelligence assessments. Analysis comprises hotspot identification with kernel-density-estimation techniques (KDE), LISA-based verification of KDE hotspots as well as geospatial hotspot area characterisation and repeat victimisation analysis. To visualise the findings of such extensive geospatial analysis, three-dimensional geovirtual environments are created. Workflows are developed to integrate analysis results into these environments and to combine them with additional geospatial data. The resulting 3D visualisations allow for an efficient communication of complex findings of geospatial crime scene analysis. N2 - Diese Arbeit präsentiert Methoden, Techniken und Werkzeuge für die Entwicklung dreidi-mensionaler Lagebilder. Zu diesem Zweck werden Verfahren der Geoinformatik mit solchen der raumbezogenen Straftatenanalyse kombiniert. Das Spektrum der angewandten Methoden und Techniken umfasst raumzeitliche GIS-Analysen ebenso wie 3D Geovisualisierungen und GIS-Anwendungsprogrammierung. Um komplexe geovisuelle Analysen auf Basis virtueller 3D-Stadtmodelle zu ermöglichen, werden Datenbanken digitaler Stadtmodelle um anwendungsspezifische Fachinformationen ergänzt. Dies ermöglicht weiterführende Analysen, zum Beispiel zur räumlichen Verteilung urbaner Risiken. Weiterhin präsentiert die Arbeit Methoden und Verfahren zur Integration der Ergebnisse komplexer raumzeitlicher Straftatenanalysen in dreidimensionale Lagebilder. Die durchgeführten Analysen umfassen die Identifikation von Brennpunkten spezifischer Delikte mittels Techniken der Kerndichteschätzung, die Verifikation dieser Hotspots durch LISA-Statistiken, GIS-basierte räumliche Charakterisierungen von Brennpunkten sowie Analysen zur wiederholten Viktimisierung. Zur Visualisierung der Ergebnisse komplexer raumzeitlicher Analysen werden dreidimensionale geovirtuelle Umgebungen erzeugt. Um weitere raumbezogene Daten ergänzt, werden sämtliche Analyseergebnisse in diese Umgebungen integriert. Die resultierenden 3D-Visualisierungen erlauben eine effiziente Kommunikation der Ergebnisse komplexer raumbezogener Straftatenanalysen. KW - raumbezogene Straftatenanalyse KW - GIS KW - geovirtuelle Umgebungen KW - 3D-Geovisualisierung KW - 3D-Stadtmodelle KW - Crime mapping KW - GIS KW - geovirtual environments KW - 3D geovisualisation KW - 3D city models Y1 - 2010 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-50446 ER - TY - THES A1 - Wolff, Christian Michael T1 - East African monsoon variability since the last glacial T1 - Ostafrikanische Monsunvariabilität seit dem letztem Glazial N2 - The impact of global warming on human water resources is attracting increasing attention. No other region in this world is so strongly affected by changes in water supply than the tropics. Especially in Africa, the availability and access to water is more crucial to existence (basic livelihoods and economic growth) than anywhere else on Earth. In East Africa, rainfall is mainly influenced by the migration of the Inter-Tropical Convergence Zone (ITCZ) and by the El Niño Southern Oscillation (ENSO) with more rain and floods during El Niño and severe droughts during La Niña. The forecasting of East African rainfall in a warming world requires a better understanding of the response of ENSO-driven variability to mean climate. Unfortunately, existing meteorological data sets are too short or incomplete to establish a precise evaluation of future climate. From Lake Challa near Mount Kilimanjaro, we report records from a laminated lake sediment core spanning the last 25,000 years. Analyzing a monthly cleared sediment trap confirms the annual origin of the laminations and demonstrates that the varve-thicknesses are strongly linked to the duration and strength of the windy season. Given the modern control of seasonal ITCZ location on wind and rain in this region and the inverse relation between the two, thicker varves represent windier and thus drier years. El Niño (La Niña) events are associated with wetter (drier) conditions in east Africa and decreased (increased) surface wind speeds. Based on this fact, the thickness of the varves can be used as a tool to reconstruct a) annual rainfall b) wind season strength, and c) ENSO variability. Within this thesis, I found evidence for centennialscale changes in ENSO-related rainfall variability during the last three millennia, abrupt changes in variability during the Medieval Climate Anomaly and the Little Ice Age, and an overall reduction in East African rainfall and its variability during the Last Glacial period. Climate model simulations support forward extrapolation from these lake-sediment data, indicating that a future Indian Ocean warming will enhance East Africa’s hydrological cycle and its interannual variability in rainfall. Furthermore, I compared geochemical analyses from the sediment trap samples with a broad range of limnological, meteorological, and geological parameters to characterize the impact of sedimentation processes from the in-situ rocks to the deposited sediments. As a result an excellent calibration for existing μXRF data from Lake Challa over the entire 25,000 year long profile was provided. The climate development during the last 25,000 years as reconstructed from the Lake Challa sediments is in good agreement with other studies and highlights the complex interactions between long-term orbital forcing, atmosphere, ocean and land surface conditions. My findings help to understand how abrupt climate changes occur and how these changes correlate with climate changes elsewhere on Earth. N2 - Änderungen des Klimas in einer sich erwärmenden Erde haben große Auswirkungen auf den globalen und lokalen Wasserhaushalt und rücken anhand starker Extremereignisse immer häufiger in den Fokus der Öffentlichkeit. Besonders die Regionen der Tropen sind von derartigen Einschnitten stark gefährdet. Der jährliche Niederschlag in Ostafrika ist stark mit der saisonalen Wanderung der ITCZ (Innertropischen Konvergenzzone) sowie mit dem El Niño/Southern Oscillation (ENSO) Phänomen verbunden. Extreme Regenfälle und Überschwemmungen während El Niño Jahren stehen Trockenheit und Dürren in La Niña Jahren gegenüber. Prognosen über zukünftige Veränderungen der ostafrikanischen Niederschläge erfordern ein verbessertes Verständnis der ENSO antreibenden Faktoren. Unglücklicherweise sind die vorhandenen meteorologischen Datenreihen nicht lang genug oder besitzen nicht die benötigte Homogenität. Einen hilfreichen Beitrag können jährlich geschichtete Seesedimente des am Fuße des Kilimandscharo gelegenen Lake Challa leisten. Anhand einer monatlich aufgelösten Sedimentfalle konnte ich nachweisen, dass die rund 25.000 Jahre zurückreichenden Sedimente eine jährliche Struktur besitzen sowie die Dicke dieser jährlichen Schichtung (Warve) stark mit der Dauer und Intensität der saisonal windreichen/trockenen Jahreszeit verbunden ist. Dickere Warven repräsentieren windige/trockene Jahre, wohingegen dünnere Warven für windschwache und feuchte Jahre stehen. Stärkere Winde und kaum Niederschläge treten oft im Zusammenhang mit einem La Niña Ereignis in Ostafrika auf, wohingegen während eines El Niño Ereignisses häufig extreme Niederschläge mit wenig Wind zu beobachten sind. Anhand der Vermessung der Warven kann man verschiedene Klimaparameter rekonstruieren: a) den jährlichen Niederschlag b) jährliche Windgeschwindigkeiten und ihre Intensitäten sowie c) ENSO Variabilitäten. Die in meiner Arbeit gewonnenen klimatischen Informationen zeigen starke Änderungen der ENSO Variabilität innerhalb der letzten 3.000 Jahre mit starken Unterschieden während der Kleinen Eiszeit und während der Mittelalterlichen Warmzeit sowie deutlich trockene und windige Bedingungen mit sehr geringen ENSO Aktivitäten im glazialem Zeitraum (18.500 und 21.000 Jahren). Modellberechnungen unterstützen diese Ergebnisse einer Zunahme von Extremereignissen und feuchteren Bedingungen im Zuge einer Erwärmung des Indischen Ozeans. Mittels geochemischer Analysen der Sedimentfallenproben sowie die daraus resultierende Verknüpfung mit limnologischen und meteorologischen Parametern, konnte ich einen entscheidenden Beitrag zur erfolgreichen Interpretation der existierenden 25.000 Jahre langen μXRF Datensätze leisten. Der Anteil an allochthonem und autochthonem Eintrag kann so genau klassifiziert werden. Das dadurch gewonnene Bild der Klimaentwicklung der letzten 25.000 Jahre deckt sich hervorragend mit anderen Studien und ermöglicht Einblicke in das komplexe Zusammenspiel zwischen Ozean-Atmosphäre und Umwelt auf dem afrikanischen Kontinent. Besonders die für die Ostafrikaforschung extrem hohe Auflösung der Daten wird helfen, die abrupten Klimawechsel und Interaktionen besser verstehen zu können. KW - Lake Challa KW - Sedimentfalle KW - Warve KW - ENSO KW - Monsun KW - Lake Challa KW - sediment trap KW - varve KW - ENSO KW - monsoon Y1 - 2011 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-58079 ER - TY - THES A1 - Wolff, Christian Michael T1 - Identification and reduction of losses in perovskite solar cells N2 - Perovskite solar cells have become one of the most studied systems in the quest for new, cheap and efficient solar cell materials. Within a decade device efficiencies have risen to >25% in single-junction and >29% in tandem devices on top of silicon. This rapid improvement was in many ways fortunate, as e. g. the energy levels of commonly used halide perovskites are compatible with already existing materials from other photovoltaic technologies such as dye-sensitized or organic solar cells. Despite this rapid success, fundamental working principles must be understood to allow concerted further improvements. This thesis focuses on a comprehensive understanding of recombination processes in functioning devices. First the impact the energy level alignment between the perovskite and the electron transport layer based on fullerenes is investigated. This controversial topic is comprehensively addressed and recombination is mitigated through reducing the energy difference between the perovskite conduction band minimum and the LUMO of the fullerene. Additionally, an insulating blocking layer is introduced, which is even more effective in reducing this recombination, without compromising carrier collection and thus efficiency. With the rapid efficiency development (certified efficiencies have broken through the 20% ceiling) and thousands of researchers working on perovskite-based optoelectronic devices, reliable protocols on how to reach these efficiencies are lacking. Having established robust methods for >20% devices, while keeping track of possible pitfalls, a detailed description of the fabrication of perovskite solar cells at the highest efficiency level (>20%) is provided. The fabrication of low-temperature p-i-n structured devices is described, commenting on important factors such as practical experience, processing atmosphere & temperature, material purity and solution age. Analogous to reliable fabrication methods, a method to identify recombination losses is needed to further improve efficiencies. Thus, absolute photoluminescence is identified as a direct way to quantify the Quasi-Fermi level splitting of the perovskite absorber (1.21eV) and interfacial recombination losses the transport layers impose, reducing the latter to ~1.1eV. Implementing very thin interlayers at both the p- and n-interface (PFN-P2 and LiF, respectively), these losses are suppressed, enabling a VOC of up to 1.17eV. Optimizing the device dimensions and the bandgap, 20% devices with 1cm2 active area are demonstrated. Another important consideration is the solar cells’ stability if subjected to field-relevant stressors during operation. In particular these are heat, light, bias or a combination thereof. Perovskite layers – especially those incorporating organic cations – have been shown to degrade if subjected to these stressors. Keeping in mind that several interlayers have been successfully used to mitigate recombination losses, a family of perfluorinated self-assembled monolayers (X-PFCn, where X denotes I/Br and n = 7-12) are introduced as interlayers at the n-interface. Indeed, they reduce interfacial recombination losses enabling device efficiencies up to 21.3%. Even more importantly they improve the stability of the devices. The solar cells with IPFC10 are stable over 3000h stored in the ambient and withstand a harsh 250h of MPP at 85◦C without appreciable efficiency losses. To advance further and improve device efficiencies, a sound understanding of the photophysics of a device is imperative. Many experimental observations in recent years have however drawn an inconclusive picture, often suffering from technical of physical impediments, disguising e. g. capacitive discharge as recombination dynamics. To circumvent these obstacles, fully operational, highly efficient perovskites solar cells are investigated by a combination of multiple optical and optoelectronic probes, allowing to draw a conclusive picture of the recombination dynamics in operation. Supported by drift-diffusion simulations, the device recombination dynamics can be fully described by a combination of first-, second- and third-order recombination and JV curves as well as luminescence efficiencies over multiple illumination intensities are well described within the model. On this basis steady state carrier densities, effective recombination constants, densities-of-states and effective masses are calculated, putting the devices at the brink of the radiative regime. Moreover, a comprehensive review of recombination in state-of-the-art devices is given, highlighting the importance of interfaces in nonradiative recombination. Different strategies to assess these are discussed, before emphasizing successful strategies to reduce interfacial recombination and pointing towards the necessary steps to further improve device efficiency and stability. Overall, the main findings represent an advancement in understanding loss mechanisms in highly efficient solar cells. Different reliable optoelectronic techniques are used and interfacial losses are found to be of grave importance for both efficiency and stability. Addressing the interfaces, several interlayers are introduced, which mitigate recombination losses and degradation. N2 - Auf der Suche nach neuen, kostengünstigen und effizienten Systemen zur photovoltaischen Energiegewinnung, sind Perowskit Solarzellen zu einem der am meistuntersuchtesten Systeme avanciert. Innerhalb einer Dekade konnten unabhängig zertifizierte Umwandlungseffizienzen von >25% in Einzelschicht- und >29% in Mehrschichtzellen basierend auf Siliziumzellen realisiert werden. Die schnelle Entwicklung war in vielerlei Hinsicht glücklich, da beispielsweise die Energielevel typischer Perowskitschichten mit bereits existierenden Kontaktschichtsystemen anderer Photovoltaiksysteme, wie etwa Farbstoffsolarzellen oder Organische Solarzellen, kompatibel sind. Trotz dieses schnellen Erfolges, müssen zur weiteren Effizienzsteigerung grundlegende Wirkprinzipien der Solarzellen verstanden werden. Diese Arbeit beschäftigt sich mit dem umfassenden Verständnis von Rekombinationsprozessen in voll funktionstüchtigen Bauteilen. Zunächst wird der Einfluss unterschiedlicher Energielevel einer Transportschicht, basierend auf Fullerenen untersucht. Dieses kontrovers diskutierte Thema wurde umfassend untersucht und Rekombinationsverluste aufgrund ungünstiger Energielevel reduziert indem - durch die Wahl unterschiedlicher Fulleren-Derivate - der energetische Abstand zwischen Leitungsband des Perowskit und dem niedrigsten unbesetzten Zustand des Fullerenes reduziert wird. Zusätzlich wurde eine ultradünne elektrisch isolierende Zwischenschicht eingebracht, die noch effektiver Rekombinationsverluste unterdrückt, ohne die Fähigkeit zur Ladungsextraktion - und damit Effizienz einzuschränken. Das breite Interesse tausender Forschenden weltweit hat zur schnellen Entwicklung besagter hoher Effizienzen geführt, obgleich verlässliche, leicht nachzuvollziehende Herstellungsprotokolle nicht existierten. Auf Basis der hier entwickelten Protokolle, werden Methoden dargestellt, mit denen verlässlich >20% effiziente Solarzellen produziert werden können. Hierbei wird insbesondere auf sogenannte invertierte (p-i-n) Zellen eingegangen, wobei ein Fokus auf der Beschreibung essentieller Faktoren wie Atmosphärenkontrolle, Temperaturkontrolle, Materialreinheit oder praktischer Erfahrung liegt. Analog zu verlässlichen Herstellungsmethoden bedarf es robuster Techniken um Rekombinationsverluste zu identifizieren und zu lokalisieren. Zu diesem Zweck wird die Messung der absoluten Photolumineszenzeffizienz eingeführt, die erlaubt die Aufspaltung der Quasi-Fermi Level des Perowskiten zu quantifizieren (1.22eV). Ebenso ist es mit dieser Methode möglich Rekombinationsverluste an Grenzflächen zu lokalisieren, die die Leerlaufspannung auf 1.1V limitieren. Zur Vermeidung dieser Verluste werden erneut ultradünne Zwischenschichten an sowohl der p- als auch n- Grenzschicht eingebracht (PFN-P2 und LiF), die Leerlaufspannungen von bis zu 1.17V ermöglichen. Mithilfe eines optimierten Designs und einer Reduzierung der Bandlücke können Bauteile mit 20% Effizienz bei einer Größe von 1cm2 realisiert werden. Nebst hoher Effizienz ist die Stabilität der Bauteile unter einsatzrelevanten Umweltbedingungen ein wichtiger Faktor auf dem Weg zu einer Kommerzialisierung. Dies gilt insbesondere für Hitze, Beleuchtung, elektrische Ladung oder eine Kombination letzterer. Perowskitschichten -- insbesondere diejenigen, die organische Kationen beinhalten -- sind wohlbekannt dafür unter genannten Bedingungen zu degradieren. Das Konzept der ultradünnen Zwischenschichten wird daher um eine Familie fluornierter selbstorganisierender molekularer Monoschichten erweitert X-PFC_n, wobei X ein Halogen I/Br darstellt und n = 7-12 die Länge der fluorinerten Alkylkette angibt), die an der n-Grenzfläche zum Einsatz kommen. Diese Zwischenschicht reduziert Rekombinationsverluste resultierend in 21.3% effizienten Bauteilen und ermöglicht zusätzlich eine drastische erhöhte Stabilität. Bauteile mit dem Molekül IPFC10 sind über 3000h stabil unter Lagerungsbedingungen im Dunkeln und überstehen 250h unter voller Last bei 85°C ohne nennenswerte Verluste. Weitere Fortschritte in der Steigerung der Effizienz sind nur zu erwarten, wenn eine vollständige Beschreibung der Wirkprinzipien und Schwachstellen vorliegt. Eine Vielzahl experimenteller Studien haben bisher jedoch ein lückenhaftes Bild gemalt. Häufig sind physikalische Beschränkungen, etwa die hohe Kapazität aufgrund der sehr dünnen Schichten dafür verantwortlich, dass Rekombinationsdynamiken durch kapazitive Entladungsprozesse verdeckt werden. Um diese Probleme zu umgehen, werden hocheffiziente Solarzellen mit einer Kombination mehrerer optischer und optoelektronischer Messmethoden untersucht. Dies ermöglicht die Rekombinationsdynamik mit einer Superposition aus Rekombination erster, zweiter und dritter Ordnung der Ladungsträgerdichte vollumfänglich zu beschreiben. Drift-Diffusions Simulationen unterstützen die experimentellen Ergebnisse, selbst unter Einbeziehung mobiler Ionen. Weiterhin wird in einem Übersichtsartikel ein Ausblick auf den gegenwärtigen Stand des Wissens im Bezug auf Rekombinationsverluste in besagten Solarzellen gegeben. Unterschiedliche Messmethoden werden vorgestellt und erfolgreiche Methoden zur Minderung genannter Verluste diskutiert. Insgesamt stellt diese Arbeit einen Fortschritt im Verständnis und der Verminderung unterschiedlicher Verlustprozesse dar. Mithilfe unterschiedlicher verlässlicher optoelektronischer Messmethoden, wird gezeigt, dass der Ursprung von Rekombinations- und Stabilitätsverlusten häufig an den Grenzflächen liegt. Mithilfe gezielt eingesetzter ultradünner Zwischenschichten werden diese Verluste reduziert und die Stabilität erhöht. T2 - Identifizierung und Reduzierung von Verlusten in Perowskit Solarzellen KW - perovskite solar cells KW - interfacial recombination KW - nonradiative losses KW - Perowskit Solarzellen KW - Grenzflächenrekombination KW - nichtstrahlende Verluste Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-479301 ER - TY - THES A1 - Wolf, Michael D. C. T1 - Amplituden der Kernphasen im Bereich der Kaustik B und Untersuchung der Struktur der Übergangszone zum inneren Erdkern mit spektralen Amplituden der diffraktierten Phase PKP(BC) N2 - Das Ziel dieser Arbeit ist es, die Strukturen im äußeren Erdkern zu untersuchen und Rückschlüsse auf die sich daraus ergebenden Konsequenzen für geodynamische Modellvorstellungen zu ziehen. Die Untersuchung der Kernphasenkaustik B mit Hilfe einer kumulierten Amplituden-Entfernungskurve ist Gegenstand des ersten Teils. Dazu werden die absoluten Amplituden der PKP-Phasen im Entfernungsbereich von 142 ° bis 147 ° bestimmt und mit den Amplituden synthetischer Seismogramme verglichen. Als Datenmaterial dienen die Breitbandregistrierungen des Deutschen Seismologischen Re-gionalnetzes (GRSN 1 ) und des Arrays Gräfenberg (GRF). Die verwendeten Wellen-formen werden im WWSSN-SP-Frequenzbereich gefiltert. Als Datenbasis dienen vier Tiefherdbeben der Subduktionszone der Neuen Hebriden (Vanuatu Island) und vier Nuklearexplosionen, die auf dem Mururoa und Fangataufa Atoll im Südpazifik stattgefunden haben. Beide Regionen befinden sich vom Regionalnetz aus gesehen in einer Epizentraldistanz von ungefähr 145 °. Die Verwendung eines homogen instrumentierten Netzes von Detektoren und die Anwendung von Stations- und Magnitudenkorrekturen verringern den Hauptteil der Streuung bei den Amplitudenwerten. Dies gilt auch im Vergleich zu Untersuchungen von langperiodischen Amplituden im Bereich der Kernphasenkaustik (Häge, 1981). Ein weiterer Grund für die geringe Streuung ist die ausschließliche Verwendung von Ereignissen mit kurzer impulsiver Herdzeitfunktion. Erst die geringe Streuung der Amplitudenwerte ermöglicht eine Interpretation der Daten. Die theoretischen Amplitudenkurven der untersuchten Erdmodelle zeigen im Bereich der Kaustik B einen gleichartigen Kurvenverlauf. Bei allen Berechnungen wird ein einheitliches Modell für die Güte der P- und S-Wellen verwendet, das sich aus den Q-Werten der Modelle CIT112 und PREM 2 zusammensetzt. Die mit diesem Q-Modell berechneten Amplituden liegen in geringem Maße oberhalb der gemessenen Amplituden. Dies braucht nicht berücksichtigt zu werden, da die kumulierte Amplituden-Entfernungskurve anhand der Lage des Maximums auf der Entfernungsachse ausgewertet wird. Folglich wird darauf verzichtet, ein alternatives Q-Modell zu entwickeln. Hinsichtlich der Lage des Kaustikmaximums lassen sich die untersuchten Erdmodelle in zwei Kategorien einteilen. Eine Gruppe besteht aus den Modellen IASP91 und 1066B, deren Maxima bei 144.6 ° und 144.7 ° liegen. Zur zweiten Gruppe von Modellen zählen AK135, PREM und SP6 mit den Maxima bei 145.1 ° und 145.2 ° (SP6). Die gemessene Amplitudenkurve hat ihr Maximum bei 145 °. Alle Entfernungsangaben beziehen sich auf eine Herdtiefe von 200 km. Die Kaustikentfernung für einen Oberflächenherd ist jeweils um 0.454 ° größer als die angegeben Werte. Damit liegen die Maxima der Modelle AK135 und PREM nur 0.1 ° neben dem der gemessenen kumulierten Amplitudenkurve. Daher wird auf die Erstellung eines eigenen Modells verzichtet, da dieses eine unwesentlich verbesserte Amplitudenkurve aufweisen würde. Das Ergebnis der Untersuchung ist die Erstellung einer gemessenen kumulierten Amplituden-Entfernungskurve für die Kaustik B. Die Kurve legt die Position der Kaustik B für kurzperiodische Daten auf ± 0.15 ° fest und bestimmt damit, welche Erdmodelle für die Beschreibung der Amplituden im Entfernungsbereich der Kaustik B besonders geeignet sind. Die Erdmodelle AK135 und PREM, ergänzt durch ein einheitliches Q-Modell, geben den Verlauf der Amplituden am besten wieder. Da die Amplitudenkurven beider Modelle nahe beieinander liegen, sind sie als gleichwertig zu bezeichnen. Im zweiten Teil der Arbeit wird die Struktur der Übergangszone in den inneren Erdkern anhand des spektralen Abklingens der Phase PKP(BC)diff am Punkt C der Laufzeitkurve untersucht. Der physikalische Prozeß der Beugung ist für die starke Abnahme der Amplituden dieser Phase verantwortlich. Die Diffraktion beeinflußt das Abklingverhalten verschiedener Frequenzanteile des seismischen Signals auf unterschiedliche Weise. Eine Deutung des Verhaltens erfordert die Berechnung von Abklingspektren. Dabei wird die Abschwächung des PKP(BC)diff Signals für acht Frequenzen zwischen 6.4 s und 1.25 Hz ermittelt und als Spektrum dargestellt. Die Form des Abklingspektrums ist charakteristisch für die Beschaffenheit der Geschwindigkeitsstruktur direkt oberhalb der Grenze zum inneren Erdkern (GIK). Die Beben, deren Kernphasen im Regionalnetz als diffraktierte Kernphasen BCdiff registriert werden, liegen in einem Entfernungsbereich jenseits von 150 °. In dieser Distanz befinden sich die Erdbebenherde der Tonga-Fidschi-Subduktionszone, deren Breitbandaufzeichnungen verwendet werden. Die Auswertung unkorrigierter Wellenformen ergibt Abklingspektren, die mit plausiblen Erdmodellen nicht in Einklang zu bringen sind. Aus diesem Grund werden die Daten einer spektralen Stationskorrektur unterzogen, die eigens zu diesem Zweck ermittelt wird. Am Beginn der Auswertung steht eine Prüfung bekannter Erdmodelle mit unterschiedlichen Geschwindigkeitsstrukturen oberhalb der GIK. Zu den untersuchten Modellen zählen PREM, IASP91, AK135Q, PREM2, SP6, OICM2 und eine Variante des PREM. Die Untersuchung ergibt, daß Modelle, die einen verringerten Gradienten oberhalb der GIK aufweisen, eine bessere Übereinstimmung mit den gemessenen Daten zeigen als Modelle ohne diese Übergangszone. Zur Verifikation dieser These wird ein Erdmodell, das keinen verringerten Gradienten oberhalb der GIK besitzt (PREM), durch eine Reihe unterschiedlicher Geschwindigkeitsverläufe in diesem Bereich ergänzt und deren synthetische Seismogramme berechnet. Das Resultat der Untersuchung sind zwei Varianten des PREM, deren Frequenzanalyse eine gute Übereinstimmung mit den Daten zeigt. Das Abklingspektrum des Erdmodells PD47, das in einer 380 km mächtigen Schicht einen negativen Gradienten besitzt, zeigt eine große Ähnlichkeit mit den gemessenen Spektren. Dennoch kann es nicht als realistisches Modell angesehen werden, da der Punkt C in einer zu großen Entfernung liegt. Darüber hinaus müßte die zu kurze Differenzlaufzeit zwischen PKP(AB) und PKP(DF) beziehungsweise PKIKP durch eine größere Änderung der Geschwindigkeitsstruktur im inneren Kern kompensiert werden. Es wird deshalb das Modell PD27a favorisiert, das diese Nachteile nicht aufweist. PD27a besitzt eine Schicht konstanter Geschwindigkeit oberhalb der GIK mit einer Mächtigkeit von 150 km. Die Art des Geschwindigkeitsverlaufs steht im Einklang mit der geodynamischen Modellvorstellung, nach der eine Anreicherung leichter Elemente oberhalb der GIK vorliegt, die als Ursache für die Konvektion im äußeren Erdkern anzusehen ist. N2 - In this thesis the structure of the outer core is investigated with PKP core phases. The knowledge of the physical properties of the earth′s deep interior in this region is important for the understanding of geodynamical processes like the convective flow in the liquid outer core and the differential rotation of the earth′s inner core. The first part of this thesis describes the investigation of the PKP caustic point B near 145 °. For this purpose a cumulative amplitude distance curve is determined and compared with theoretical amplitude distance curves of different standard earth models. The data are broadband seismograms of the German Regional Seismic Network (GRSN) and the Gräfenberg Array (GRF). In order to measure the absolute amplitudes of the PKP phases, a WWSSN-SP filter is applied to the seismograms. The source regions are located in the South Pacific near Vanuatu Island (4 earthquakes) and on the French atolls Mururoa and Fangataufa (4 explosions). The advantage of a standardized network of seismic stations and the usage of station and magnitude corrections is a reduction of the scatter of the amplitude data. There is even less scatter than in studies with long period amplitude data (Häge, 1981). Another reason for the reduced scattering is the use of events with an impulsive source time function. Only the low scattering of the amplitude values makes it possible to interpret the data. More scattering of the data would have prevented an interpretation. The theoretical amplitude curves are similar in the caustic B distance range. The Q depth distribution for P and S waves used for calculating the synthetic seismograms is a combination of the values of the models CIT112 and PREM. The amplitudes determined with the help of this kind of model are slightly higher than the actually measured amplitudes. However, this needs not be taken into account because the interpretation is based on the position of the caustic peak. Therefore I rejected the computation of an improved Q model. Regarding the position of the caustic point there are two categories of earth models. The first group consists of the models IASP91 and 1066B with their maxima at 144.6 ° and 144.7 ° respectively. AK135, PREM and SP6 belong to a second group of models with caustic peaks at 145.1 ° and 145.2 ° (SP6). The measured curve has its maximum at 145 °. All distances refer to a source depth of 200 km. For a surface focus the increase in distance is 0.454 °. Therefore the peaks of the models AK135 and PREM are only 0.1 ° beside the maximum of the measured amplitude curve. The main result of this investigation is the amplitude distance curve in the vicinity of the cusp B. The curve determines the position of this point with an accuracy of ± 0.15 ° and points to earth models which would be good for modeling the amplitudes in the distance range of the PKP caustic B. The synthetic seismograms calculated for AK135 and PREM together with a standardized Q model fit the measured amplitude curve equally well. In the second part of this study the structure of the transition zone to the earth′s inner core is investigated by using the spectral decay of the diffracted wave PKP(BC)diff at point C of the travel time curve. The physical process of diffraction is responsible for the strong reduction in amplitude of this wave. The influence of the diffraction on the seismic signal strongly depends on frequency. The interpretation of this phenomenon requires a calculation of decay spectra. In practice the attenuation of the PKP(BC)diff signal for eight frequencies between 6.4 s and 1.25 Hz are measured and visualized as a decay spectrum. The shape of a spectrum is characteristic of the velocity gradient above the inner core boundary (ICB). Those earthquakes whose core phases are recorded as diffracted core phases BCdiff lie beyond 150 °. In this distance range there are the epicenters of the Tonga-Fiji slab. The broadband waveform data of the earthquakes in this region is used in this study. Decay spectra of waveform data which are not corrected for station site effects are incompatible with standard earth models. Therefore a spectral station correction is applied, which was especially determined for this purpose. The investigation starts with a review of a number of well-known earth models like PREM, IASP91, AK135Q, PREM2, SP6, OICM2 and a version of PREM. All these models have different velocity structures at the ICB. It is shown that models with a reduced velocity gradient above the ICB agree with the data rather than models without such a transition zone. For verification purposes a model without such a reduced gradient (PREM) is completed with different kinds of gradient zones to calculate synthetic seismograms. Two variants of the PREM correspond with the measured decay constants. The decay constants of model PD47 are very close to the measured ones. This model has a 380 km thick negative gradient above the ICB. Nevertheless it is not a realistic model because point C lies in a unrealistic great distance. As a result of the low velocity zone above the inner core there is a differential travel time between the PKP(AB) and the PKP(DF) phase (also PKIKP) which is too short. This would have to be compensated by a correction of the velocities in the inner core. Thus PD27a is the most suitable model which does not have the above mentioned disadvantages. PD27a has a 150 km thick layer of constant velocity above the ICB. This kind of velocity model is compatible with geodynamical theories according to which an enrichment of light elements above the ICB is present and powers the convection in the outer earth core by its buoyancy. KW - seismology ; PKP caustic point B ; diffraction of PKP core phases ; decay spectra of waveform data ; transition zone to the earth's inner core ; Germa Y1 - 2002 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-0000408 ER - TY - THES A1 - Wolf, Mathias Johannes T1 - The role of partial melting on trace element and isotope systematics of granitic melts T1 - Die Bedeutung partieller Schmelzbildung für die Spurenelement- und Isotopensystematik granitischer Schmelzen N2 - Partial melting is a first order process for the chemical differentiation of the crust (Vielzeuf et al., 1990). Redistribution of chemical elements during melt generation crucially influences the composition of the lower and upper crust and provides a mechanism to concentrate and transport chemical elements that may also be of economic interest. Understanding of the diverse processes and their controlling factors is therefore not only of scientific interest but also of high economic importance to cover the demand for rare metals. The redistribution of major and trace elements during partial melting represents a central step for the understanding how granite-bound mineralization develops (Hedenquist and Lowenstern, 1994). The partial melt generation and mobilization of ore elements (e.g. Sn, W, Nb, Ta) into the melt depends on the composition of the sedimentary source and melting conditions. Distinct source rocks have different compositions reflecting their deposition and alteration histories. This specific chemical “memory” results in different mineral assemblages and melting reactions for different protolith compositions during prograde metamorphism (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). These factors do not only exert an important influence on the distribution of chemical elements during melt generation, they also influence the volume of melt that is produced, extraction of the melt from its source, and its ascent through the crust (Le Breton and Thompson, 1988). On a larger scale, protolith distribution and chemical alteration (weathering), prograde metamorphism with partial melting, melt extraction, and granite emplacement are ultimately depending on a (plate-)tectonic control (Romer and Kroner, 2016). Comprehension of the individual stages and their interaction is crucial in understanding how granite-related mineralization forms, thereby allowing estimation of the mineralization potential of certain areas. Partial melting also influences the isotope systematics of melt and restite. Radiogenic and stable isotopes of magmatic rocks are commonly used to trace back the source of intrusions or to quantify mixing of magmas from different sources with distinct isotopic signatures (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). These applications are based on the fundamental requirement that the isotopic signature in the melt reflects that of the bulk source from which it is derived. Different minerals in a protolith may have isotopic compositions of radiogenic isotopes that deviate from their whole rock signature (Ayres and Harris, 1997; Knesel and Davidson, 2002). In particular, old minerals with a distinct parent-to-daughter (P/D) ratio are expected to have a specific radiogenic isotope signature. As the partial melting reaction only involves selective phases in a protolith, the isotopic signature of the melt reflects that of the minerals involved in the melting reaction and, therefore, should be different from the bulk source signature. Similar considerations hold true for stable isotopes. N2 - Partielle Schmelzbildung ist ein zentraler Prozess für die geochemische Differentiation der Erdkruste (Vielzeuf et al., 1990). Die Umverteilung chemischer Elemente während der Schmelzbildung beeinflusst die Zusammensetzung der oberen und unteren Erdkruste entscheidend und stellt einen Mechanismus zur Konzentration und zum Transport chemischer Elemente dar. Das Verständnis der diversen Prozesse und der kontrollierenden Faktoren ist deshalb nicht nur von wissenschaftlichem Interesse sondern auch von ökonomischer Bedeutung um die Nachfrage für seltene Metalle zu decken. Die Umverteilung von Haupt- und Spurenelementen während des partiellen Aufschmelzens ist ein entscheidender Schritt für das Verständnis wie sich granitgebundene Lagerstätten bilden (Hedenquist and Lowenstern, 1994). Die Schmelzbildung und die Mobilisierung von Erz-Elementen (z. B. Sn, W, Nb, Ta) in die Schmelze hängt von der Zusammensetzung der sedimentären Ausgangsgesteine und den Schmelzbedingungen ab. Verschiedene Ausgangsgesteine haben aufgrund ihrer Ablagerungs- und Verwitterungsgeschichte unterschiedliche Zusammensetzungen. Dieses spezifische geochemische „Gedächtnis“ resultiert in unterschiedlichen Mineralparagenesen und Schmelzreaktionen in verschiedenen Ausgangsgesteinen während der prograden Metamorphose. (Brown and Fyfe, 1970; Thompson, 1982; Vielzeuf and Holloway, 1988). Diese Faktoren haben nicht nur einen wichtigen Einfluss auf die Verteilung chemischer Elemente während der Schmelzbildung, sie beeinflussen auch das Volumen an Schmelze, die Extraktion der Schmelze aus dem Ausgangsgestein und deren Aufstieg durch die Erdkruste (Le Breton and Thompson, 1988). Auf einer grösseren Skala unterliegen die Verteilung der Ausgangsgesteine und deren chemische Alteration (Verwitterung), die prograde Metamorphose mit partieller Schmelzbildung, Schmelzextraktion und die Platznahme granitischer Intrusionen einer plattentektonischen Kontrolle. Das Verständnis der einzelnen Schritte und deren Wechselwirkungen ist entscheidend um zu verstehen wie granitgebunden Lagerstätten entstehen und erlaubt es, das Mineralisierungspotential bestimmter Gebiete abzuschätzen. Partielles Aufschmelzen beeinflusst auch die Isotopensystematik der Schmelze und des Restites. Die Zusammensetzungen radiogener und stabiler Isotopen von magmatischen Gesteinen werden im Allgemeinen dazu verwendet um deren Ursprungsgesteine zu identifizieren oder um Mischungsprozesses von Magmen unterschiedlichen Ursprunges zu quantifizieren (DePaolo and Wasserburg, 1979; Lesher, 1990; Chappell, 1996). Diese Anwendungen basieren auf der fundamentalen Annahme, dass die Isotopenzusammensetzung der Schmelze derjenigen des Ausgangsgesteines entspricht. Unterschiedliche Minerale in einem Gestein können unterschiedliche, vom Gesamtgestein abweichende, Isotopenzusammensetzungen haben (Ayres and Harris, 1997; Knesel and Davidson, 2002). Insbesondere für alte Minerale, mit einem unterschiedlichen Mutter-Tochter Nuklidverhältnis, ist eine spezifische Isotopenzusammensetzung zu erwarten. Da im partiellen Schmelzprozess nur bestimmte Minerale eines Gesteines involviert sind, entspricht die Isotopenzusammensetzung der Schmelze derjenigen der Minerale welche an der Schmelzreaktion teilnehmen. Daher sollte die Isotopenzusammensetzung der Schmelze von derjenigen des Ursprungsgesteines abweichen. Ähnliche Überlegungen treffen auch für stabile Isotopen zu. KW - geochemistry KW - trace elements KW - radiogenic isotopes KW - stable isotopes KW - resources KW - Sn Y1 - 2019 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-423702 ER - TY - THES A1 - Wolf, Kristine T1 - Produktentwicklung eines luteinhaltigen, kolloidalen Nahrungsergänzungsmittels: physikochemische und ernährungsphysiologische Aspekte N2 - Sekundäre Pflanzenstoffe und ihre gesundheitsfördernden Eigenschaften sind in den letzten zwei Jahrzehnten vielfach ernährungsphysiologisch untersucht und spezifische positive Effekte im humanen Organismus zum Teil sehr genau beschrieben worden. Zu den Carotinoiden zählend ist der sekundäre Pflanzenstoff Lutein insbesondere in der Prävention von ophthalmologischen Erkrankungen in den Mittelpunkt der Forschung gerückt. Das ausschließlich von Pflanzen und einigen Algen synthetisierte Xanthophyll wird über die pflanzliche Nahrung insbesondere grünes Blattgemüse in den humanen Organismus aufgenommen. Dort akkumuliert es bevorzugt im Makulapigment der Retina des menschlichen Auges und ist bedeutend im Prozess der Aufrechterhaltung der Funktionsfähigkeit der Photorezeptorzellen. Im Laufe des Alterns kann die Abnahme der Dichte des Makulapigments und der Abbau von Lutein beobachtet werden. Die dadurch eintretende Destabilisierung der Photorezeptorzellen im Zusammenhang mit einer veränderten Stoffwechsellage im alternden Organismus kann zur Ausprägung der altersbedingten Makuladegeneration (AMD) führen. Die pathologische Symptomatik der Augenerkrankung reicht vom Verlust der Sehschärfe bis hin zum irreversiblen Erblinden. Da therapeutische Mittel ausschließlich ein Fortschreiten verhindern, bestehen hier Forschungsansätze präventive Maßnahmen zu finden. Die Supplementierung von luteinhaltigen Präparaten bietet dabei einen Ansatzpunkt. Auf dem Markt finden sich bereits Nahrungsergänzungsmittel (NEM) mit Lutein in verschiedenen Applikationen. Limitierend ist dabei die Stabilität und Bioverfügbarkeit von Lutein, welches teilweise kostenintensiv und mit unbekannter Reinheit zu erwerben ist. Aus diesem Grund wäre die Verwendung von Luteinestern als die pflanzliche Speicherform des Luteins im Rahmen eines NEMs vorteilhaft. Neben ihrer natürlichen, höheren Stabilität sind Luteinester nachhaltig und kostengünstig einsetzbar. In dieser Arbeit wurden physikochemische und ernährungsphysiologisch relevante Aspekte in dem Produktentwicklungsprozess eines NEMs mit Luteinestern in einer kolloidalen Formulierung untersucht. Die bisher einzigartige Anwendung von Luteinestern in einem Mundspray sollte die Aufnahme des Wirkstoffes insbesondere für ältere Menschen erleichtern und verbessern. Unter Beachtung der Ergebnisse und der ernährungsphysiologischen Bewertung sollten u.a. Empfehlungen für die Rezepturzusammensetzungen einer Miniemulsion (Emulsion mit Partikelgrößen <1,0 µm) gegeben werden. Eine Einschätzung der Bioverfügbarkeit der Luteinester aus den entwickelten, kolloidalen Formulierungen konnte anhand von Studien zur Resorption- und Absorptionsverfügbarkeit in vitro ermöglicht werden. In physikalischen Untersuchungen wurden zunächst Basisbestandteile für die Formulierungen präzisiert. In ersten wirkstofffreien Musteremulsionen konnten ausgewählte Öle als Trägerphase sowie Emulgatoren und Löslichkeitsvermittler (Peptisatoren) hinsichtlich ihrer Eignung zur Bereitstellung einer Miniemulsion physikalisch geprüft werden. Die beste Stabilität und optimale Eigenschaften einer Miniemulsion zeigten sich bei der Verwendung von MCT-Öl (engl. medium chain triglyceride) bzw. Rapsöl in der Trägerphase sowie des Emulgators Tween® 80 (Tween 80) allein oder in Kombination mit dem Molkenproteinhydrolysat Biozate® 1 (Biozate 1). Aus den physikalischen Untersuchungen der Musteremulsionen gingen die Präemulsionen als Prototypen hervor. Diese enthielten den Wirkstoff Lutein in verschiedenen Formen. So wurden Präemulsionen mit Lutein, mit Luteinestern sowie mit Lutein und Luteinestern konzipiert, welche den Emulgator Tween 80 oder die Kombination mit Biozate 1 enthielten. Bei der Herstellung der Präemulsionen führte die Anwendung der Emulgiertechniken Ultraschall mit anschließender Hochdruckhomogenisation zu den gewünschten Miniemulsionen. Beide eingesetzten Emulgatoren boten optimale Stabilisierungseffekte. Anschließend erfolgte die physikochemische Charakterisierung der Wirkstoffe. Insbesondere Luteinester aus Oleoresin erwiesen sich hier als stabil gegenüber verschiedenen Lagerungsbedingungen. Ebenso konnte bei einer kurzzeitigen Behandlung der Wirkstoffe unter spezifischen mechanischen, thermischen, sauren und basischen Bedingungen eine Stabilität von Lutein und Luteinestern gezeigt werden. Die Zugabe von Biozate 1 bot dabei nur für Lutein einen zusätzlichen Schutz. Bei längerer physikochemischer Behandlung unterlagen die in den Miniemulsionen eingebrachten Wirkstoffe moderaten Abbauvorgängen. Markant war deren Sensitivität gegenüber dem basischen Milieu. Im Rahmen der Rezepturentwicklung des NEMs war hier die Empfehlung, eine Miniemulsion mit einem leicht saurem pH-Milieu zum Schutz des Wirkstoffes durch kontrollierte Zugabe weiterer Inhaltstoffe zu gestalten. Im weiteren Entwicklungsprozess des NEMs wurden Fertigrezepturen mit dem Wirkstoff Luteinester aufgestellt. Die alleinige Anwendung des Emulgators Biozate 1 zeigte sich dabei als ungeeignet. Die weiterhin zur Verfügung stehenden Fertigrezepturen enthielten in der Öl-phase neben dem Wirkstoff das MCT-ÖL oder Rapsöl sowie a-Tocopherol zur Stabilisierung. Die Wasserphase bestand aus dem Emulgator Tween 80 oder einer Kombination aus Tween 80 und Biozate 1. Zusatzstoffe waren zudem als mikrobiologischer Schutz Ascorbinsäure und Kaliumsorbat sowie für sensorische Effekte Xylitol und Orangenaroma. Die Anordnung der Basisrezeptur und das angewendete Emulgierverfahren lieferten stabile Miniemulsionen. Weiterhin zeigten langfristige Lagerungsversuche mit den Fertigrezepturen bei 4°C, dass eine Aufrechterhaltung der geforderten Luteinestermenge im Produkt gewährleistet war. Analoge Untersuchungen an einem luteinhaltigen, marktgängigen Präparat bestätigten dagegen eine bereits bei kurzfristiger Lagerung auftretende Instabilität von Lutein. Abschließend wurde durch Resorptions- und Absorptionsstudien in vitro mit den Präemulsionen und Fertigrezepturen die Bioverfügbarkeit von Luteinestern geprüft. Nach Behandlung in einem etablierten in vitro Verdaumodell konnte eine geringfügige Resorptionsverfügbarkeit der Luteinester definiert werden. Limitiert war eine Micellarisierung des Wirkstoffes aus den konzipierten Formulierungen zu beobachten. Eine enzymatische Spaltung der Luteinester zu freiem Lutein wurde nur begrenzt festgestellt. Spezifität und Aktivität von entsprechenden hydrolytischen Lipasen sind als äußerst gering gegenüber Luteinestern zu bewerten. In sich anschließenden Zellkulturversuchen mit der Zelllinie Caco-2 wurden keine zytotoxischen Effekte durch die relevanten Inhaltsstoffe in den Präemulsionen gezeigt. Dagegen konnten eine Sensibilität gegenüber den Fertigrezepturen beobachtet werden. Diese sollte im Zusammenhang mit Irritationen der Schleimhäute des Magen-Darm-Traktes bedacht werden. Eine weniger komplexe Rezeptur könnte die beobachteten Einschränkungen möglicherweise minimieren. Abschließende Absorptionsstudien zeigten, dass grundsätzlich eine geringfügige Aufnahme von vorrangig Lutein, aber auch Luteinmonoestern in den Enterocyten aus Miniemulsionen erfolgen kann. Dabei hatte weder Tween 80 noch Biozate 1 einen förderlichen Einfluss auf die Absorptionsrate von Lutein oder Luteinestern. Die Metabolisierung der Wirkstoffe durch vorherigen in vitro-Verdau steigerte die zelluläre Aufnahme von Wirkstoffen aus Formulierungen mit Lutein und Luteinestern gleichermaßen. Die beobachtete Aufnahme von Lutein und Luteinmonoestern in den Enterocyten scheint über passive Diffusion zu erfolgen, wobei auch der aktive Transport nicht ausgeschlossen werden kann. Dagegen können Luteindiester aufgrund ihrer Molekülgröße nicht über den Weg der Micellarisierung und einfachen Diffusion in die Enterocyten gelangen. Ihre Aufnahme in die Dünndarmepithelzellen bedarf einer vorherigen hydrolytischen Spaltung durch spezifische Lipasen. Dieser Schritt limitiert wiederum die effektive Aufnahme der Luteinester in die Zellen bzw. stellt eine Einschränkung in ihrer Bioverfügbarkeit im Vergleich zu freiem Lutein dar. Zusammenfassend konnte für die physikochemisch stabilen Luteinester eine geringe Bioverfügbarkeit aus kolloidalen Formulierungen gezeigt werden. Dennoch ist die Verwendung als Wirkstoffquelle für den sekundären Pflanzenstoff Lutein in einem NEM zu empfehlen. Im Zusammenhang mit der Aufnahme von luteinreichen, pflanzlichen Lebensmitteln kann trotz der zu erwartenden geringen Bioverfügbarkeit der Luteinester aus dem NEM ein Beitrag zur Verbesserung des Luteinstatus erreicht werden. Entsprechende Publikationen zeigten eindeutige Korrelationen zwischen der Aufnahme von luteinesterhaltigen Präparaten und einem Anstieg der Luteinkonzentration im Serum bzw. der Makulapigmentdichte in vivo. Die geringfügig bessere Bioverfügbarkeit von freiem Lutein steht im kritischen Zusammenhang mit seiner Instabilität und Kostenintensität. Bilanzierend wurde im Rahmen dieser Arbeit das marktgängige Produkt Vita Culus® konzipiert. Im Ausblick sollten humane Interventionsstudien mit dem NEM die abschließende Bewertung der Bioverfügbarkeit von Luteinestern aus dem Präparat möglich machen. N2 - Secondary plant metabolites and their health-promoting properties have been studied and pub-lished over the past two decades. Their specificity with regard to positive properties and effects in the human organism has been described precisely. Among the carotenoids, the secondary plant metabolite lutein has become the focus of research, particularly in the prevention of ophthalmic diseases. The xanthophyll, which is synthesized exclusively by plants (incl. some algae), is absorbed into the human organism through plant food especially green leafy vegetables. There it accumulates preferentially in the macular pigment of the retina of the human eye and is important in the process of maintaining the functionality of the photoreceptors. As the aging progresses, the decrease in the density of the macular pigment and the depletion of lutein can be observed. The resulting destabilization of the photoreceptors in connection with a changed metabolism in the aging organism can lead to the development of age-related macular degeneration (AMD). The pathological symptoms of AMD range from loss of visual acuity to irreversible blindness. Since therapeutic agents only enable the disease to be decelerated or come to a standstill, research approaches exist to find preventive measures. The supplementation of preparations containing lutein offers a starting point to have a targeted positive effect on the stability of the macular pigment density and thus to maintain the quality of vision even in old age. Dietary supplements (DS) with lutein in various applications are available on the market. Limiting is the stability and bioavailability of lutein, which can be expensive and acquired with unknown purity. For this reason, the use of the storage form of lutein in plants, the lutein esters within the framework of a DS would be advantageous. In addition to their natural, higher stability, lutein esters can be used sustainably and inexpensively. In this thesis, physicochemical and nutritionally relevant aspects in the product development process of a DS with lutein esters in a colloidal formulation were investigated. The hitherto unique use of lutein esters in oral spray applications should facilitate and improve the absorption of the active ingredient especially for older people. Taking into account the results and the nutritional assessment, recommendations for the recipe compositions of a miniemulsions (emulsion with particle sizes <1.0 µm) are given. An assessment of the bioavailability of the lutein esters from the developed colloidal formulations was realized by means of studies on the absorption accessibility and availability in vitro. In physical investigations, the basic components for the colloidal formulations to be developed were first specified. In the first active ingredient-free sample emulsions selected oils as carrier phase as well as emulsifiers and solubilizers (peptizers) could be physically tested with regard to their suitability for providing a miniemulsion. The best stability and optimal properties of a miniemulsion were found when using MCT oil (medium chain triglyceride) or rapeseed oil in the carrier phase and the emulsifier Tween® 80 (Tween 80) alone or in combination with the whey protein hydrolyzate Biozate® 1 (Biozate 1) in the aqueous phase. The pre-emulsions were developed as prototypes from the physical examinations of the basic recipes. These contained the active ingredient lutein in various forms. Pre-emulsions with lutein, with lutein esters or with lutein and lutein esters were prepared. They contained the emulsifier Tween 80 or the combination with Biozate 1. In the preparation of the pre-emulsions the use of ultrasound emulsification techniques with subsequent high-pressure homogenization led to the postulated miniemulsions. Both emulsifiers used offered optimal stabilization effects. This was followed by the physicochemical characterization of the active substances in the pre-emulsions. In particular, lutein esters from oleoresin were found to be stable against various storage conditions. A short-term treatment of the active ingredients under specific mechanical, thermal, acidic and basic conditions also demonstrated the stability of lutein and lutein esters. The addition of Biozate 1 offered further protection for lutein. In the case of prolonged physico-chemical treatment, the active substances incorporated in the miniemulsions were subject to moderate degradation processes. The sensitivity of the active ingredients in the formulations to a basic environment was striking. As part of the formulation development of the DS, the recommendation was given to design a miniemulsion with a slightly acidic environment by the controlled addition of further ingredients to protect the active ingredient. In the further development process of the DS, refined formulations with the active ingredient lutein ester and modifications of the emulsifiers were then set up. The sole use of the emulsifier Biozate 1 turned out to be unsuitable and these formulations were rejected. The refined formulations that were still available contained the carriers MCT oil or rapeseed oil as well as a-tocopherol for stabilization. The water phase consisted of the emulsifier Tween 80 or a combination of Tween 80 and Biozate 1. Additives were ascorbic acid and potassium sorbate for microbial protection such as xylitol and orange aroma for sensory effects. The arrangement of the basic recipe and the emulsifying process used provided stable miniemulsions. Long-term storage tests with the ready formulations at 4°C showed that the required amount of lutein ester is maintained in the product. Analogous tests on a preparation containing lutein confirmed the instability of lutein, which occurs even in the case of short-term storage. Finally, the bioavailability of the lutein esters was investigated using the pre-emulsions and refined formulations in studies of absorption accessibility and availability in vitro. For these studies an in vitro digestion model was confirmed. After treatment of the formulations in this model a slight absorption accessibility of the lutein esters could be classified. Micellarization process and enzymatic cleavage of the lutein esters to free lutein has only been found to a limited extent. The specificity and activity of corresponding hydrolytic lipases to lutein esters can be rated as extremely low. In subsequent cell culture experiments with the Caco-2 cell line, no cytotoxic effects were shown by the relevant ingredients in the pre-emulsions. In contrast, sensitivity to the refined formulations could be observed. This should be considered in connection with irritation of the mucous membranes of the gastrointestinal tract. A less complex formulation could possibly prevent the observed restrictions. In studies of absorption availability in vitro a low uptake of primarily free lutein, but also lutein monoesters in the enterocytes from miniemulsions could be observed. Neither Tween 80 nor Biozate 1 have a beneficial influence on the absorption rate of lutein or lutein esters. But micellarization of the active ingredients through previous in vitro digestion increased the cellular uptake of lutein and lutein esters from the formulations. This gives an evidence of the relevance of micellarization in absorption of lipophilic substances. The uptake of lutein and lutein monoesters in the enterocytes seems to be possible via passive diffusion, although active transport cannot be ruled out either. On the other hand, due to their molecular size, lutein diesters cannot enter into the enterocytes via micellarization or simple diffusion. Their absorption in the small intestine epithelial cells requires prior hydrolytic cleavage by specific lipases. This step in turn limits the effective absorption of the lutein esters into the cells or represents a restriction in their bioavailability in comparison to free lutein. In summary, a low bioavailability for the physicochemically stable lutein esters from colloidal formulations was shown. Nevertheless, the use as a source of active ingredients for the xanthophyll lutein in a DS is recommended. In connection with the intake of plant foods rich in lutein, a contribution to improving the lutein status can be achieved despite the expected low bioavailability of the lutein esters from the DS. Corresponding publications showed clear correlations between the intake of preparations containing lutein ester and an increase in serum lutein concentrations or the macular pigment density in vivo. The slightly better bioavailability of free lutein is critically linked to its instability and cost intensity. On the basis of this work, the product Vita Culus® was designed and is available on the market. As a prospect of future research, human intervention studies with the DS should be conducted to assess the total bio-availability of lutein esters from miniemulsions in detail. T2 - Product development of a lutein-containing, colloidal dietary supplement: physicochemical and nutritional aspects KW - Luteinester KW - Emulsion KW - Nahrunsgergänzungsmittel KW - Bioverfügbarkeit KW - lutein esters KW - emulsion KW - dietary supplements KW - bioavailability Y1 - 2020 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-487743 ER - TY - THES A1 - Wolf, Julia T1 - Schadenserkennung in Beton durch Überwachung mit eingebetteten Ultraschallprüfköpfen T1 - Monitoring with embedded ultrasound sensors to detect damage in concrete N2 - Die zerstörungsfreien Prüfungen von Bauwerken mit Hilfe von Ultraschallmessverfahren haben in den letzten Jahren an Bedeutung gewonnen. Durch Ultraschallmessungen können die Geometrien von Bauteilen bestimmt sowie von außen nicht sichtbare Fehler wie Delaminationen und Kiesnester erkannt werden. Mit neuartigen, in das Betonbauteil eingebetteten Ultraschallprüfköpfen sollen nun Bauwerke dauerhaft auf Veränderungen überprüft werden. Dazu werden Ultraschallsignale direkt im Inneren eines Bauteils erzeugt, was die Möglichkeiten der herkömmlichen Methoden der Bauwerksüberwachung wesentlich erweitert. Ein Ultraschallverfahren könnte mit eingebetteten Prüfköpfen ein Betonbauteil kontinuierlich integral überwachen und damit auch stetig fortschreitende Gefügeänderungen, wie beispielsweise Mikrorisse, registrieren. Sicherheitsrelevante Bauteile, die nach dem Einbau für Messungen unzugänglich oder mittels Ultraschall, beispielsweise durch zusätzliche Beschichtungen der Oberfläche, nicht prüfbar sind, lassen sich mit eingebetteten Prüfköpfen überwachen. An bereits vorhandenen Bauwerken können die Ultraschallprüfköpfe mithilfe von Bohrlöchern und speziellem Verpressmörtel auch nachträglich in das Bauteil integriert werden. Für Fertigbauteile bieten sich eingebettete Prüfköpfe zur Herstellungskontrolle sowie zur Überwachung der Baudurchführung als Werkzeug der Qualitätssicherung an. Auch die schnelle Schadensanalyse eines Bauwerks nach Naturkatastrophen, wie beispielsweise einem Erdbeben oder einer Flut, ist denkbar. Durch die gute Ankopplung ermöglichen diese neuartigen Prüfköpfe den Einsatz von empfindlichen Auswertungsmethoden, wie die Kreuzkorrelation, die Coda-Wellen-Interferometrie oder die Amplitudenauswertung, für die Signalanalyse. Bei regelmäßigen Messungen können somit sich anbahnende Schäden eines Bauwerks frühzeitig erkannt werden. Da die Schädigung eines Bauwerks keine direkt messbare Größe darstellt, erfordert eine eindeutige Schadenserkennung in der Regel die Messung mehrerer physikalischer Größen die geeignet verknüpft werden. Physikalische Größen können sein: Ultraschalllaufzeit, Amplitude des Ultraschallsignals und Umgebungstemperatur. Dazu müssen Korrelationen zwischen dem Zustand des Bauwerks, den Umgebungsbedingungen und den Parametern des gemessenen Ultraschallsignals untersucht werden. In dieser Arbeit werden die neuartigen Prüfköpfe vorgestellt. Es wird beschrieben, dass sie sich, sowohl in bereits errichtete Betonbauwerke als auch in der Konstruktion befindliche, einbauen lassen. Experimentell wird gezeigt, dass die Prüfköpfe in mehreren Ebenen eingebettet sein können da ihre Abstrahlcharakteristik im Beton nahezu ungerichtet ist. Die Mittenfrequenz von rund 62 kHz ermöglicht Abstände, je nach Betonart und SRV, von mindestens 3 m zwischen Prüfköpfen die als Sender und Empfänger arbeiten. Die Empfindlichkeit der eingebetteten Prüfköpfe gegenüber Veränderungen im Beton wird an Hand von zwei Laborexperimenten gezeigt, einem Drei-Punkt-Biegeversuch und einem Versuch zur Erzeugung von Frost-Tau-Wechsel Schäden. Die Ergebnisse werden mit anderen zerstörungsfreien Prüfverfahren verglichen. Es zeigt sich, dass die Prüfköpfe durch die Anwendung empfindlicher Auswertemethoden, auftretende Risse im Beton detektieren, bevor diese eine Gefahr für das Bauwerk darstellen. Abschließend werden Beispiele von Installation der neuartigen Ultraschallprüfköpfe in realen Bauteilen, zwei Brücken und einem Fundament, gezeigt und basierend auf dort gewonnenen ersten Erfahrungen ein Konzept für die Umsetzung einer Langzeitüberwachung aufgestellt. N2 - The non-destructive testing of concrete structures with the ultrasound method has become increasingly important in recent years. With the ultrasound technique the geometry of concrete elements can be determined and defects can be detected which are not visible on the surface, such as delaminations and honeycombs. New ultrasound sensors were developed to monitor changes in concrete structures continuously and permanently. Those ultrasound sensors will be embedded into the concrete to transmit and receive ultrasound waves within the structure. This allows a new interpretation of the condition of a structure. The use of the embedded sensors expands the options of the traditional monitoring methods. The ultrasonic technique could monitor a voluminous part of a concrete structure continuously and integral with just a few strategically placed embedded ultrasound sensors and thus register small changes in the concretes texture. Vital parts of concrete structures which are inaccessible for the ultrasonic method after construction can be monitored with embedded sensors. Inaccessibility could be caused by a surface layered with a medium reflecting or absorbing the ultrasonic wave or by to much steel obstruct"-ing the waves path. The sensors can be embedded into existing structures using boreholes and grouting mortar or installed during construction and can thus serve as a tool for quality control. The quick damage evaluation of a construction after a natural disaster such as an earthquake or a flood, is conceivable as well. As the contact between the embedded sensors and the surrounding concrete is assumed as constant over a long time, highly sensitive signal evaluation tools, such as the cross correlation between signals, the Coda Wave Interferometry and the amplitude evaluation, can be used. Therefore, with regular measurements, damage in a construction can be detected at an early stage. But, the damage of a structure can not be measured directly. A distinct damage detection needs a quantity of measured parameters, such as time of flight and amplitude of the ultrasonic wave as well as temperature, which need to be linked to each other. To achieve this, correlations between the state of the concrete construction and those parameters of the measured ultrasonic signal must be investigated. In this work the newly developed ultrasound sensors are introduced. Their installation into a concrete structure is described. The sensors sensitivity to small changes in the concrete is investigated and compared to other Non Destructive Testing (NDT) methods. The highly sensitive signal evaluation tools proof to be particularly advantageous when using embedded sensors. Installations of embedded ultrasound sensors for long time monitoring of real constructions are presented. Based on the gained experience with those installations a concept is presented for the set up of a long time monitoring system. KW - Ultraschall KW - Beton KW - Überwachung KW - Prüfköpfe KW - Temperatur KW - Frost-Tau-Wechsel KW - Schaden KW - Riss KW - ultrasound KW - concrete KW - monitoring KW - sensors KW - temperature KW - Freeze-Thaw-Cycles KW - damage KW - crack Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-397363 ER - TY - THES A1 - Wolf, Johannes T1 - Analysis and visualization of transport infrastructure based on large-scale geospatial mobile mapping data T1 - Analyse und Visualisierung von Verkehrsinfrastruktur basierend auf großen Mobile-Mapping-Datensätzen N2 - 3D point clouds are a universal and discrete digital representation of three-dimensional objects and environments. For geospatial applications, 3D point clouds have become a fundamental type of raw data acquired and generated using various methods and techniques. In particular, 3D point clouds serve as raw data for creating digital twins of the built environment. This thesis concentrates on the research and development of concepts, methods, and techniques for preprocessing, semantically enriching, analyzing, and visualizing 3D point clouds for applications around transport infrastructure. It introduces a collection of preprocessing techniques that aim to harmonize raw 3D point cloud data, such as point density reduction and scan profile detection. Metrics such as, e.g., local density, verticality, and planarity are calculated for later use. One of the key contributions tackles the problem of analyzing and deriving semantic information in 3D point clouds. Three different approaches are investigated: a geometric analysis, a machine learning approach operating on synthetically generated 2D images, and a machine learning approach operating on 3D point clouds without intermediate representation. In the first application case, 2D image classification is applied and evaluated for mobile mapping data focusing on road networks to derive road marking vector data. The second application case investigates how 3D point clouds can be merged with ground-penetrating radar data for a combined visualization and to automatically identify atypical areas in the data. For example, the approach detects pavement regions with developing potholes. The third application case explores the combination of a 3D environment based on 3D point clouds with panoramic imagery to improve visual representation and the detection of 3D objects such as traffic signs. The presented methods were implemented and tested based on software frameworks for 3D point clouds and 3D visualization. In particular, modules for metric computation, classification procedures, and visualization techniques were integrated into a modular pipeline-based C++ research framework for geospatial data processing, extended by Python machine learning scripts. All visualization and analysis techniques scale to large real-world datasets such as road networks of entire cities or railroad networks. The thesis shows that some use cases allow taking advantage of established image vision methods to analyze images rendered from mobile mapping data efficiently. The two presented semantic classification methods working directly on 3D point clouds are use case independent and show similar overall accuracy when compared to each other. While the geometry-based method requires less computation time, the machine learning-based method supports arbitrary semantic classes but requires training the network with ground truth data. Both methods can be used in combination to gradually build this ground truth with manual corrections via a respective annotation tool. This thesis contributes results for IT system engineering of applications, systems, and services that require spatial digital twins of transport infrastructure such as road networks and railroad networks based on 3D point clouds as raw data. It demonstrates the feasibility of fully automated data flows that map captured 3D point clouds to semantically classified models. This provides a key component for seamlessly integrated spatial digital twins in IT solutions that require up-to-date, object-based, and semantically enriched information about the built environment. N2 - 3D-Punktwolken sind eine universelle und diskrete digitale Darstellung von dreidimensionalen Objekten und Umgebungen. Für raumbezogene Anwendungen sind 3D-Punktwolken zu einer grundlegenden Form von Rohdaten geworden, die mit verschiedenen Methoden und Techniken erfasst und erzeugt werden. Insbesondere dienen 3D-Punktwolken als Rohdaten für die Erstellung digitaler Zwillinge der bebauten Umwelt. Diese Arbeit konzentriert sich auf die Erforschung und Entwicklung von Konzepten, Methoden und Techniken zur Vorverarbeitung, semantischen Anreicherung, Analyse und Visualisierung von 3D-Punktwolken für Anwendungen im Bereich der Verkehrsinfrastruktur. Es wird eine Sammlung von Vorverarbeitungstechniken vorgestellt, die auf die Harmonisierung von 3D-Punktwolken-Rohdaten abzielen, so z.B. die Reduzierung der Punktdichte und die Erkennung von Scanprofilen. Metriken wie bspw. die lokale Dichte, Vertikalität und Planarität werden zur späteren Verwendung berechnet. Einer der Hauptbeiträge befasst sich mit dem Problem der Analyse und Ableitung semantischer Informationen in 3D-Punktwolken. Es werden drei verschiedene Ansätze untersucht: Eine geometrische Analyse sowie zwei maschinelle Lernansätze, die auf synthetisch erzeugten 2D-Bildern, bzw. auf 3D-Punktwolken ohne Zwischenrepräsentation arbeiten. Im ersten Anwendungsfall wird die 2D-Bildklassifikation für Mobile-Mapping-Daten mit Fokus auf Straßennetze angewendet und evaluiert, um Vektordaten für Straßenmarkierungen abzuleiten. Im zweiten Anwendungsfall wird untersucht, wie 3D-Punktwolken mit Bodenradardaten für eine kombinierte Visualisierung und automatische Identifikation atypischer Bereiche in den Daten zusammengeführt werden können. Der Ansatz erkennt zum Beispiel Fahrbahnbereiche mit entstehenden Schlaglöchern. Der dritte Anwendungsfall untersucht die Kombination einer 3D-Umgebung auf Basis von 3D-Punktwolken mit Panoramabildern, um die visuelle Darstellung und die Erkennung von 3D-Objekten wie Verkehrszeichen zu verbessern. Die vorgestellten Methoden wurden auf Basis von Software-Frameworks für 3D-Punktwolken und 3D-Visualisierung implementiert und getestet. Insbesondere wurden Module für Metrikberechnungen, Klassifikationsverfahren und Visualisierungstechniken in ein modulares, pipelinebasiertes C++-Forschungsframework für die Geodatenverarbeitung integriert, das durch Python-Skripte für maschinelles Lernen erweitert wurde. Alle Visualisierungs- und Analysetechniken skalieren auf große reale Datensätze wie Straßennetze ganzer Städte oder Eisenbahnnetze. Die Arbeit zeigt, dass es in einigen Anwendungsfällen möglich ist, die Vorteile etablierter Bildverarbeitungsmethoden zu nutzen, um aus Mobile-Mapping-Daten gerenderte Bilder effizient zu analysieren. Die beiden vorgestellten semantischen Klassifikationsverfahren, die direkt auf 3D-Punktwolken arbeiten, sind anwendungsfallunabhängig und zeigen im Vergleich zueinander eine ähnliche Gesamtgenauigkeit. Während die geometriebasierte Methode weniger Rechenzeit benötigt, unterstützt die auf maschinellem Lernen basierende Methode beliebige semantische Klassen, erfordert aber das Trainieren des Netzwerks mit Ground-Truth-Daten. Beide Methoden können in Kombination verwendet werden, um diese Ground Truth mit manuellen Korrekturen über ein entsprechendes Annotationstool schrittweise aufzubauen. Diese Arbeit liefert Ergebnisse für das IT-System-Engineering von Anwendungen, Systemen und Diensten, die räumliche digitale Zwillinge von Verkehrsinfrastruktur wie Straßen- und Schienennetzen auf der Basis von 3D-Punktwolken als Rohdaten benötigen. Sie demonstriert die Machbarkeit von vollautomatisierten Datenflüssen, die erfasste 3D-Punktwolken auf semantisch klassifizierte Modelle abbilden. Dies stellt eine Schlüsselkomponente für nahtlos integrierte räumliche digitale Zwillinge in IT-Lösungen dar, die aktuelle, objektbasierte und semantisch angereicherte Informationen über die bebaute Umwelt benötigen. KW - 3D point cloud KW - geospatial data KW - mobile mapping KW - semantic classification KW - 3D visualization KW - 3D-Punktwolke KW - räumliche Geodaten KW - Mobile Mapping KW - semantische Klassifizierung KW - 3D-Visualisierung Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-536129 ER - TY - THES A1 - Wolf, Gunter T1 - Diffusionsuntersuchungen an (polymer-modifizierten) Mikroemulsionen mittels Feldgradientenimpuls-NMR-Spektroskopie T1 - Diffusion studies in (polymer-modified) microemulsions using pulsed field gradient NMR spectroscopy N2 - Aufgrund des großen Verhältnisses von Oberfläche zu Volumen zeigen Nanopartikel interessante, größenabhängige Eigenschaften, die man im ausgedehnten Festkörper nicht beobachtet. Sie sind daher von großem wissenschaftlichem und technologischem Interesse. Die Herstellung kleinster Partikel ist aus diesem Grund überaus wünschenswert. Dieses Ziel kann mit Hilfe von Mikroemulsionen als Templatphasen bei der Herstellung von Nanopartikeln erreicht werden. Mikroemulsionen sind thermodynamisch stabile, transparente und isotrope Mischungen von Wasser und Öl, die durch einen Emulgator stabilisiert sind. Sie können eine Vielzahl verschiedener Mikrostrukturen bilden. Die Kenntnis der einer Mikroemulsion zugrunde liegenden Struktur und Dynamik ist daher von außerordentlicher Bedeutung, um ein gewähltes System potentiell als Templatphase zur Nanopartikelherstellung einsetzen zu können. In der vorliegenden Arbeit wurden komplexe Mehrkomponentensysteme auf der Basis einer natürlich vorkommenden Sojabohnenlecithin-Mischung, eines gereinigten Lecithins und eines Sulfobetains als Emulgatoren mit Hilfe der diffusionsgewichteten 1H-NMR-Spektroskopie unter Verwendung gepulster Feldgradienten (PFG) in Abhängigkeit des Zusatzes des Polykations Poly-(diallyl-dimethyl-ammoniumchlorid) (PDADMAC) untersucht. Der zentrale Gegenstand dieser Untersuchungen war die strukturelle und dynamische Charakterisierung der verwendeten Mikroemulsionen hinsichtlich ihrer potentiellen Anwendbarkeit als Templatphasen für die Herstellung möglichst kleiner Nanopartikel. Die konzentrations- und zeit-abhängige NMR-Diffusionsmessung stellte sich dabei als hervorragend geeignete und genaue Methode zur Untersuchung der Mikrostruktur und Dynamik in den vorliegenden Systemen heraus. Die beobachtete geschlossene Wasser-in-Öl- (W/O-) Mikrostruktur der Mikroemulsionen zeigt deutlich deren potentielle Anwendbarkeit in der Nanopartikelsynthese. Das Gesamtdiffusionsverhalten des Tensides wird durch variierende Anteile aus der Verschiebung gesamter Aggregate, der Monomerdiffusion im Medium bzw. der medium-vermittelten Oberflächendiffusion bestimmt. Dies resultierte in einigen Fällen in einer anormalen Diffusionscharakteristik. In allen Systemen liegen hydrodynamische und direkte Wechselwirkungen zwischen den Tensidaggregaten vor. Der Zusatz von PDADMAC zu den Mikroemulsionen resultiert in einer Stabilisierung der flüssigen Grenzfläche der Tensidaggregate aufgrund der Adsorption des Polykations auf den entgegengesetzt geladenen Tensidfilm und kann potentiell zu Nanopartikeln mit kleineren Dimensionen und schmaleren Größenverteilungen führen. N2 - Owing to their large surface-to-volume ratio nanoparticles show interesting size-dependent properties that are not observable in bulk materials. Thus, they are of great scientific and technological interest. Thereby, the highly desirable preparation of as small particles as possible might be easily achieved using microemulsions as template phases. Microemulsions are thermodynamically stable, transparent and isotropic mixtures of water and oil stabilized by an emulsifying agent. However, microemulsions may form a great variety of different microstructures. Thus, it is of utmost importance to know the underlying microstructure and microdynamics of a chosen microemulsion system in order to use it as a template phase for nanoparticle formation. In the present study complex multi-component microemulsion systems based on a naturally occurring soybean lecithin mixture, purified lecithin and sulfobetaine as emulsifiers were investigated by diffusion-weighted pulsed field gradient (PFG) 1H NMR spectroscopy in the presence and absence of the polycation poly-(diallyldimethylammonium chloride) (PDADMAC). The central topic of this study was to structurally and dynamically characterize the present microemulsions with respect to their potential use in nanoparticle formation. The concentration- and time-dependent NMR diffusion measurements turned out to be a suitable and accurate tool to investigate the microstructure and microdynamics of the systems under investigation. They reveal closed water-in-oil (W/O) microemulsion microstructures which prove the potential suitability of the respective systems as template phases for the preparation of nano-sized particles. The overall diffusion behavior of surfactants were found to be governed by varying contributions from displacements of entire aggregates, monomer diffusion in the medium and bulk-mediated surface diffusion, respectively. In some cases this led to a marked anomalous diffusion characteristics. In all systems interactions between aggregates are dominated by hydrodynamic and direct forces. The addition of PDADMAC to the microemulsion systems results in a stabilization of the liquid interface of surfactant aggregates due to the adsorption of the polycation at the oppositely charged surfactant film and may potentially lead to nanoparticles of smaller dimensions and narrower size distributions. KW - Mikroemulsion KW - Mikrostruktur KW - Magnetische Kernresonanz KW - PFG-NMR-Spektroskopie KW - Selbstdiffusion KW - Anomale Diffusion KW - Polykation KW - Inverse Micelle KW - Wasser-in-Öl-Mikroemulsion KW - Tensiddynamik KW - medium-vermittelte Oberflächendiffusion KW - Levy-Bewegung KW - water-in-oil microemulsion KW - surfactant dynamics KW - bulk-mediated surface diffusion KW - Levy walk Y1 - 2005 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-6259 ER - TY - THES A1 - Wohlgemuth, Stephanie-Angelika T1 - Functional nanostructured hydrothermal carbons for sustainable technologies : heteroatom doping and superheated vapor T1 - Funktionelle, Nanostrukturierte Hydrothermal-Kohlenstoffe für Nachhaltige Technnologien: Heteroatom-Dotierung und Überkritischer Dampf N2 - The underlying motivation for the work carried out for this thesis was the growing need for more sustainable technologies. The aim was to synthesize a “palette” of functional nanomaterials using the established technique of hydrothermal carbonization (HTC). The incredible diversity of HTC was demonstrated together with small but steady advances in how HTC can be manipulated to tailor material properties for specific applications. Two main strategies were used to modify the materials obtained by HTC of glucose, a model precursor representing biomass. The first approach was the introduction of heteroatoms, or “doping” of the carbon framework. Sulfur was for the first time introduced as a dopant in hydrothermal carbon. The synthesis of sulfur and sulfur/nitrogen doped microspheres was presented whereby it was shown that the binding state of sulfur could be influenced by varying the type of sulfur source. Pyrolysis may additionally be used to tune the heteroatom binding states which move to more stable motifs with increasing pyrolysis temperature. Importantly, the presence of aromatic binding states in the as synthesized hydrothermal carbon allows for higher heteroatom retention levels after pyrolysis and hence more efficient use of dopant sources. In this regard, HTC may be considered as an “intermediate” step in the formation of conductive heteroatom doped carbon. To assess the novel hydrothermal carbons in terms of their potential for electrochemical applications, materials with defined nano-architectures and high surface areas were synthesized via templated, as well as template-free routes. Sulfur and/or nitrogen doped carbon hollow spheres (CHS) were synthesized using a polystyrene hard templating approach and doped carbon aerogels (CA) were synthesized using either the albumin directed or borax-mediated hydrothermal carbonization of glucose. Electrochemical testing showed that S/N dual doped CHS and aerogels derived via the albumin approach exhibited superior catalytic performance compared to solely nitrogen or sulfur doped counterparts in the oxygen reduction reaction (ORR) relevant to fuel cells. Using the borax mediated aerogel formation, nitrogen content and surface area could be tuned and a carbon aerogel was engineered to maximize electrochemical performance. The obtained sample exhibited drastically improved current densities compared to a platinum catalyst (but lower onset potential), as well as excellent long term stability. In the second approach HTC was carried out at elevated temperatures (550 °C) and pressure (50 bar), corresponding to the superheated vapor regime (htHTC). It was demonstrated that the carbon materials obtained via htHTC are distinct from those obtained via ltHTC and subsequent pyrolysis at 550 °C. No difference in htHTC-derived material properties could be observed between pentoses and hexoses. The material obtained from a polysaccharide exhibited a slightly lower degree of carbonization but was otherwise similar to the monosaccharide derived samples. It was shown that in addition to thermally induced carbonization at 550 °C, the SHV environment exhibits a catalytic effect on the carbonization process. The resulting materials are chemically inert (i.e. they contain a negligible amount of reactive functional groups) and possess low surface area and electronic conductivity which distinguishes them from carbon obtained from pyrolysis. Compared to the materials presented in the previous chapters on chemical modifications of hydrothermal carbon, this makes them ill-suited candidates for electronic applications like lithium ion batteries or electrocatalysts. However, htHTC derived materials could be interesting for applications that require chemical inertness but do not require specific electronic properties. The final section of this thesis therefore revisited the latex hard templating approach to synthesize carbon hollow spheres using htHTC. However, by using htHTC it was possible to carry out template removal in situ because the second heating step at 550 °C was above the polystyrene latex decomposition temperature. Preliminary tests showed that the CHS could be dispersed in an aqueous polystyrene latex without monomer penetrating into the hollow sphere voids. This leaves the stagnant air inside the CHS intact which in turn is promising for their application in heat and sound insulating coatings. Overall the work carried out in this thesis represents a noteworthy development in demonstrating the great potential of sustainable carbon materials. N2 - Das Ziel der vorgelegten Arbeit war es, mit Hilfe der Hydrothermalen Carbonisierung (HTC) eine Palette an verschiedenen Materialien herzustellen, deren physikalische und chemische Eigenschaften auf spezifische Anwendungen zugeschnitten werden können. Die Motivation hierfür stellt die Notwendigkeit, Alternativen zu Materialien zu finden, die auf fossilen Brennstoffen basieren. Dabei stellen vor allem nachhaltige Energien eine der größten Herausforderungen der Zukunft dar. HTC ist ein mildes, nachhaltiges Syntheseverfahren welches prinzipiell die Nutzung von biologischen Rohstoffen (z. B. landwirtschaftlichen Abfallprodukten) für die Herstellung von wertvollen, Kohlenstoff-basierten Materialien erlaubt. Es wurden zwei verschiedene Ansätze verwendet, um hydrothermalen Kohlenstoff zu modifizieren. Zum einen wurde HTC unter „normalen“ Bedingungen ausgeführt, d. h. bei 180 °C und einem Druck von etwa 10 bar. Der Zucker Glukose diente in allen Fällen als Kohlenstoff Vorläufer. Durch Zugabe von stickstoff und /oder schwefelhaltigen Additiven konnte dotierte Hydrothermalkohle hergestellt werden. Dotierte Kohlenstoffe sind bereits für ihre positiven Eigenschaften, wie verbesserte Leitfähigkeit oder erhöhte Stabilität, bekannt. Zusätzlich zu Stickstoff dotierter Hydrothermalkohle, die bereits von anderen Gruppen hergestellt werden konnte, wurde in dieser Arbeit zum ersten Mal Schwefel in Hydrothermalkohle eingebaut. Außerdem wurden verschiedene Ansätze verwendet, um Oberfläche und definierte Morphologie der dotierten Materialien zu erzeugen, welche wichtig für elektrochemische Anwendungen sind. Schwefel- und/oder stickstoffdotierte Kohlenstoff Nanohohlkugeln sowie Kohlenstoff Aerogele konnten hergestellt werden. Mit Hilfe von einem zusätzlichen Pyrolyseschritt (d. h. Erhitzen unter Schutzgas) konnte die Leitfähigkeit der Materialien hergestellt werden, die daraufhin als Nichtmetall-Katalysatoren für Wasserstoff-Brennstoffzellen getestet wurden. Im zweiten Ansatz wurde HTC unter extremen Bedingungen ausgeführt, d. h. bei 550 °C und einem Druck von ca. 50 bar, welches im Wasser Phasendiagram dem Bereich des Heißdampfes entspricht. Es konnte gezeigt werden, dass die so erhaltene Hydrothermalkohle ungewöhnliche Eigenschaften besitzt. So hat die Hochtemperatur-Hydrothermalkohle zwar einen hohen Kohlenstoffgehalt (mehr als 90 Massenprozent), enthält aber auch viele Wasserstoffatome und ist dadurch schlecht leitfähig. Da damit elektrochemische Anwendungen so gut wie ausgeschlossen sind, wurde die Hochtemperatur-Hydrothermalkohle für Anwendungen vorgesehen, welche chemische Stabilität aber keine Leitfähigkeit voraussetzen. So wurden beispielsweise Hochtemperatur-Kohlenstoff-Nanohohlkugeln synthetisiert, die großes Potential als schall- und wärmeisolierende Additive für Beschichtungen darstellen. Insgesamt konnten erfolgreich verschiedenste Materialien mit Hilfe von HTC hergestellt werden. Es ist zu erwarten, dass sie in Zukunft zu nachhaltigen Technologien und damit zu einem weiteren Schritt weg von fossilen Brennstoffen beitragen werden. KW - Hydrothermale Karbonisierung KW - Heteroatom-Dotierung KW - Aerogele KW - Hohlkugeln KW - Elektrokatalyse KW - Hydrothermal Carbonization KW - Heteroatom Doping KW - Aerogels KW - Hollow Spheres KW - Electrocatalysis Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus-60120 ER - TY - THES A1 - Wohlfarth, Kai T1 - PPP: zu Finanzierungsformen, Kapitalmarktrelevanz und öffentlicher Verschuldung T1 - PPP: for forms of financing, capital market relevance and public debt N2 - Die vorliegende Arbeit thematisiert die Finanzierungsmodelle von Public-Private-Partnership-Projekten (PPP) und deren Refinanzierung durch die Kapitalgeber. Dabei wurden zwei zentrale Fragestellungen thematisiert. Erstens: Führen PPP­Projekte zu einer Verschuldung der öffentlichen Hand und sind sie entsprechend bei den Berechnungen der Konvergenzkriterien bzw. der Schulden- und Neuverschuldungsquoten zu berücksichtigen? Die zu prüfende Arbeitshypothese geht von einer Verschuldung der öffentlichen Hand in Folge von PPP-Projekten aus. Zweitens: Unterstellt wird eine bedeutsame Funktion von PPP für die Infrastrukturfinanzierung, wobei im Sinne einer Effizienzsteigerung die Passgenauigkeit beziehungsweise Konsistenz der haushaltsrechtlichen Regelungen mit den regulatorischen Vorgaben für die Kapitalgeber von PPP-Projekten analysiert wird. Diese Schnittstelle und die zur Generierung günstiger („kommunalähnlicher") Finanzierungskonditionen notwendigen staatlichen Garantien bei PPP drängt geradezu zu einem ordnungspolitischen Vergleich von Ansätzen bzw. Projekten im Bereich PPP und in Cash-Flow-Kalkülen. Die Arbeit führt mit einem gewissen gesamtwirtschaftlichen Fokus der PPP tief in die Analyse des Kapitalmarktes und der Bankenregulierung. Es erfolgt ein Vergleich der gedeckten Refinanzierungsinstrumente für PPP, die durch Forderungen besichert sind (Asset Backed Securities) und solche, die beispielsweise durch Forderungen gegen die öffentliche Hand besichert sind (Covered Bonds). Letztere können auch grundpfandrechtlich gesichert sein. Hier setzt der Verfasser später seine Skizze eines „Infrastructure Covered Bonds" für die Finanzierung notwendiger Infrastrukturmaßnahmen nicht nur in Deutschland an, wobei das Wertpapier hier ausschließlich zur Finanzierung der Infrastruktur bei einem entsprechend neu zuschaffenden (Deckungs-) Registers begeben werden wird. N2 - This thesis analyzes the financing models of public-private partnership projects (PPP) and their refinancing by the investor. Two central issues were addressed. First: Do PPP projects lead to public debt and are they to be taken into consideration for the calculations of the convergence criteria, respectively the debt and debt ratios? The working hypothesis to be verified is based on the public debt as a result of PPP projects. Second: It is assumed that PPP are an important feature for infrastructure financing, with the purpose of increasing efficiency the fit or consistency of budgetary regulations are being analyzed with the regulatory requirements for capital providers of PPP projects. This interface and the necessary government guarantees for PPP to generate favorable ("Municipal similar") financing conditions urges towards a policy comparison of PPP approaches or PPP projects and cash flow calculi. The thesis will lead with a certain macroeconomic focus of PPP deep into the analysis of the capital market and banking regulation. A comparison is made of covered funding instruments for PPP, which are secured by receivables (asset backed securities) and those which are secured, for example, by claims against the public sector (covered bonds). The bond can also be secured by mortgage. This is where the author will introduce his sketch of "Infrastructure covered bonds" for the financing of infrastructure projects not only in Germany, while the securities will be emitted by a corresponding new-to-be-created (coverage) register exclusively to finance infrastructure. KW - PPP KW - Verschuldung KW - Konvergenzkriterien KW - Neuverschuldung KW - Infrastrukturfinanzierung KW - Regulierung KW - Bankenregulierung KW - Refinanzierung KW - Kapitalmarktrelevanz KW - öffentliche Verschuldung KW - Finanzierungsformen KW - Infrastructure Covered Bond KW - Kapitalmarkt KW - public-private partnership KW - refinancing KW - public debt KW - infrastructure financing KW - government guarantees KW - capital market KW - banking regulation KW - covered funding instruments KW - asset backed securities KW - public sector covered bond KW - infrastructure covered bond Y1 - 2015 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-90216 ER - TY - THES A1 - Woehlecke, Sandra T1 - Das erweiterte Fachwissen für den schulischen Kontext als Leitlinie für eine additive fachliche Lehrveranstaltung im Lehramtsstudium Biologie T1 - School-related content knowledge as a guideline for an additive subject-based course for preservice biology teachers N2 - Das Fachwissen von Lehrkräften weist für die Ausprägung fachdidaktischer Expertise eine hohe Bedeutung auf. Welche Merkmale universitäre Lehrveranstaltungen aufweisen sollten, um Lehramtsstudierenden ein berufsspezifisches Fachwissen zu vermitteln, ist jedoch überwiegend noch unklar. Innerhalb des Projekts PSI-Potsdam wurde auf theoretischer Grundlage das fachübergreifende Modell des erweiterten Fachwissens für den schulischen Kontext entwickelt. Als Ansatz zur Verbesserung des Biologie-Lehramtsstudiums diente dieses Modell als Konzeptionsgrundlage für eine additive Lehrveranstaltung. Hierbei werden Lerngelegenheiten geboten, um das universitär erworbene Fachwissen über zellbiologische Inhalte auf schulische Kontexte anzuwenden, z.B. durch die Dekonstruktion und anschließende Rekonstruktion von schulischen Lerntexten. Die Wirkung des Seminars wurde in mehreren Zyklen im Forschungsformat der Fachdidaktischen Entwicklungsforschung beforscht. Eine der zentralen Forschungsfragen lautet dabei: Wie kann eine Lerngelegenheit für Lehramtsstudierende der Biologie gestaltet sein, um ein erweitertes Fachwissen für den schulischen Kontext für den zellbiologischen Themenbereich „Struktur und Funktion der Biomembran“ zu fördern? Anhand fallübergreifender Analysen (n = 29) wird im empirischen Teil aufgezeigt, welche Einstellungen zum Lehramtsstudium in der Stichprobe bestehen. Als ein wichtiges Ergebnis kann hierbei herausgestellt werden, dass sich das Fachinteresse hinsichtlich schulisch und universitär vermittelter Inhalte bei den untersuchten Studierenden auffallend unterscheidet, wobei dem Schulwissen ein deutlich höheres Interesse entgegengebracht wird. Die Berufsrelevanz fachlicher Inhalte wird seitens der Studierenden häufig am Schulwissen festgemacht. Innerhalb konkreter Einzelfallanalysen (n = 6) wird anhand von Lernpfaden dargestellt, wie sich über mehrere Design-Experimente hinweg fachliche Konzepte entwickelt haben. Bei der Beschreibung wird vor allem auf Schlüsselstellen und Hürden im Lernprozess fokussiert. Aus diesen Ergebnissen folgend werden vorgenommene Iterationen für die einzelnen Zyklen beschrieben, die ebenfalls anhand der iterativen Entwicklung der Design-Prinzipien dargelegt werden. Es konnte gezeigt werden, dass die Schlüsselstellen sehr individuell aufgrund der subjektiv fokussierten Inhalte zu Tage treten. Meist treten sie jedoch im Zusammenhang mit der Verknüpfung verschiedener fachlicher Konzepte oder durch kooperative Aufschlüsselungen von Konzepten auf. Fachliche Hürden konnten hingegen in Form von fachlich unangemessenen Vorstellungen fallübergreifend identifiziert werden. Dies betrifft unter anderem die Vorstellung der Biomembran als Wand, die mit den Vorstellungen einer Schutzfunktion und einer formgebenden Funktion der Biomembran einhergeht. Weiterhin wird beleuchtet, wie das erweiterte Fachwissen für den schulischen Kontext zur Bearbeitung der Lernaufgaben angewendet wurde. Es hat sich gezeigt, dass sich bestimmte Lerngelegenheiten eigenen, um bestimmte Facetten des erweiterten Fachwissens zu fördern. Insgesamt scheint das Modell des erweiterten Fachwissens für den schulischen Kontext äußerst geeignet zu sein, um anhand der Facetten und deren Beschreibungen Lerngelegenheiten oder Gestaltungsprinzipien für diese zu konzipieren. Für das untersuchte Lehr-Lernarrangement haben sich kleinere Adaptationen des Modells als sinnvoll erwiesen. Hinsichtlich der Methodologie konnten Ableitungen für die Anwendung der fachdidaktischen Entwicklungsforschung für additive fachliche Lehrveranstaltungen dieser Art herausgestellt werden. Um den Professionsbezug der fachwissenschaftlichen Anteile im Lehramtsstudium zu verbessern, ist der weitere Einbezug des erweiterten Fachwissens für den schulischen Kontext in die fachwissenschaftlichen Studienanteile überaus wünschenswert. N2 - The content knowledge of teachers is of great importance for the development of pedagogical content knowledge and its application in teaching. However, the characteristics of university courses in order to provide pre-service biology teachers with job-specific content knowledge are still unclear. Within the project PSI-Potsdam a theory-based interdisciplinary model of school-related content knowledge (SRCK) was developed. This model served as a conceptual basis for an additive course within the biology teacher training curriculum. Learning opportunities are offered to apply the university-acquired subject matter knowledge to school contexts (e.g. through the deconstruction and subsequent reconstruction of texts for school purposes). The effects of the seminar, especially the learning processes, were observed in several cycles in the format of design research. One of the central research questions is: How can a learning opportunity for perspective Biology teachers be designed, to promote SRCK with regard to the topic “structure and function of the biomembrane"? Cross-case analyses (n = 29) show existing attitudes towards teacher training. As an important result, it can be emphasized, that the subject interest in school- and university-taught content differs strikingly among the students. School knowledge is shown a significantly higher interest. The professional relevance of subject-related content is often determined by a perceived proximity to school knowledge. Within concrete individual case analyses (n = 6), learning paths are used to show how subject-specific concepts have developed over several design experiments. The description focuses primarily on key points and obstacles in the learning process. Within this framework, iterations made for the individual cycles are described. It could be shown that the key points come to light very individually due to the focused content. In most cases, however, they occur in connection with the linking of different concepts or through cooperative explanations of concepts. Obstacles in the learning processes, on the other hand, could be identified across cases in the form of inappropriate ideas. This concerns, among other things, the idea of the biomembrane as a wall, which goes hand in hand with the ideas of a protective function and a shaping function of the biomembrane. Furthermore, a number of possibilities could be shown, how the SRCK was applied in the learning tasks. It was established that certain learning opportunities are appropriate to promote certain facets of SRCK. Overall, the model of SRCK seems to be extremely suitable in order to design learning opportunities. For the investigated teaching-learning arrangement, smaller adaptations of the model have proven as useful. In order to improve the professional relevance of the teacher training programme, the further inclusion of the SRCK in the subject-specific study components is highly desirable. KW - Professionswissen KW - Fachwissen KW - Studierendenvorstellungen KW - Biomembran KW - Erweitertes Fachwissen für den schulischen Kontext KW - professional competence KW - Design Research KW - Design Research KW - content knowledge KW - biomembrane KW - school-related content knowledge Y1 - 2021 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-521209 ER - TY - THES A1 - Wittenberg, Eva T1 - With Light Verb Constructions from Syntax to Concepts T1 - Mit Funktionsverbgefügen von der Syntax zur konzeptuellen Struktur N2 - This dissertation uses a common grammatical phenomenon, light verb constructions (LVCs) in English and German, to investigate how syntax-semantics mapping defaults influence the relationships between language processing, representation and conceptualization. LVCs are analyzed as a phenomenon of mismatch in the argument structure. The processing implication of this mismatch are experimentally investigated, using ERPs and a dual task. Data from these experiments point to an increase in working memory. Representational questions are investigated using structural priming. Data from this study suggest that while the syntax of LVCs is not different from other structures’, the semantics and mapping are represented differently. This hypothesis is tested with a new categorization paradigm, which reveals that the conceptual structure that LVC evoke differ in interesting, and predictable, ways from non-mismatching structures’. N2 - Diese Dissertation untersucht mittels psycho- und neurolinguistischer Experimente, wie deutsche und englische Funktionsverbgefüge (’light verb constructions’) mental repräsentiert und verarbeitet werden. Funktionsverbgefüge sind Konstruktionen wie einen Kuss geben, in denen die Semantik überwiegend durch die Nominalisierung Kuss geliefert wird, während das Funktionsverb geben lediglich den syntaktischen Rahmen und grammatische Marker, aber nur wenige Bedeutungsaspekte beiträgt. T3 - Potsdam Cognitive Science Series - 7 KW - light verb constructions KW - syntax KW - semantics KW - event-related potential KW - priming KW - Syntax KW - Semantik KW - Sprachverarbeitung KW - Funktionsverbgefüge KW - Priming Y1 - 2016 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-82361 SN - 978-3-86956-329-9 SN - 2190-4545 SN - 2190-4553 PB - Universitätsverlag Potsdam CY - Potsdam ER - TY - THES A1 - Wittenbecher, Clemens T1 - Linking whole-grain bread, coffee, and red meat to the risk of type 2 diabetes T1 - Der Einfluss von Vollkornbrot, Kaffee, und rotem Fleisch auf das Typ 2 Diabetesrisiko BT - using metabolomics networks to infer potential biological mechanisms BT - Verwendung von Metabolomics-Netzwerken, um auf biologische Mechanismen zu schließen N2 - Background: Consumption of whole-grain, coffee, and red meat were consistently related to the risk of developing type 2 diabetes in prospective cohort studies, but potentially underlying biological mechanisms are not well understood. Metabolomics profiles were shown to be sensitive to these dietary exposures, and at the same time to be informative with respect to the risk of type 2 diabetes. Moreover, graphical network-models were demonstrated to reflect the biological processes underlying high-dimensional metabolomics profiles. Aim: The aim of this study was to infer hypotheses on the biological mechanisms that link consumption of whole-grain bread, coffee, and red meat, respectively, to the risk of developing type 2 diabetes. More specifically, it was aimed to consider network models of amino acid and lipid profiles as potential mediators of these risk-relations. Study population: Analyses were conducted in the prospective EPIC-Potsdam cohort (n = 27,548), applying a nested case-cohort design (n = 2731, including 692 incident diabetes cases). Habitual diet was assessed with validated semiquantitative food-frequency questionnaires. Concentrations of 126 metabolites (acylcarnitines, phosphatidylcholines, sphingomyelins, amino acids) were determined in baseline-serum samples. Incident type 2 diabetes cases were assed and validated in an active follow-up procedure. The median follow-up time was 6.6 years. Analytical design: The methodological approach was conceptually based on counterfactual causal inference theory. Observations on the network-encoded conditional independence structure restricted the space of possible causal explanations of observed metabolomics-data patterns. Given basic directionality assumptions (diet affects metabolism; metabolism affects future diabetes incidence), adjustment for a subset of direct neighbours was sufficient to consistently estimate network-independent direct effects. Further model-specification, however, was limited due to missing directionality information on the links between metabolites. Therefore, a multi-model approach was applied to infer the bounds of possible direct effects. All metabolite-exposure links and metabolite-outcome links, respectively, were classified into one of three categories: direct effect, ambiguous (some models indicated an effect others not), and no-effect. Cross-sectional and longitudinal relations were evaluated in multivariable-adjusted linear regression and Cox proportional hazard regression models, respectively. Models were comprehensively adjusted for age, sex, body mass index, prevalence of hypertension, dietary and lifestyle factors, and medication. Results: Consumption of whole-grain bread was related to lower levels of several lipid metabolites with saturated and monounsaturated fatty acids. Coffee was related to lower aromatic and branched-chain amino acids, and had potential effects on the fatty acid profile within lipid classes. Red meat was linked to lower glycine levels and was related to higher circulating concentrations of branched-chain amino acids. In addition, potential marked effects of red meat consumption on the fatty acid composition within the investigated lipid classes were identified. Moreover, potential beneficial and adverse direct effects of metabolites on type 2 diabetes risk were detected. Aromatic amino acids and lipid metabolites with even-chain saturated (C14-C18) and with specific polyunsaturated fatty acids had adverse effects on type 2 diabetes risk. Glycine, glutamine, and lipid metabolites with monounsaturated fatty acids and with other species of polyunsaturated fatty acids were classified as having direct beneficial effects on type 2 diabetes risk. Potential mediators of the diet-diabetes links were identified by graphically overlaying this information in network models. Mediation analyses revealed that effects on lipid metabolites could potentially explain about one fourth of the whole-grain bread effect on type 2 diabetes risk; and that effects of coffee and red meat consumption on amino acid and lipid profiles could potentially explain about two thirds of the altered type 2 diabetes risk linked to these dietary exposures. Conclusion: An algorithm was developed that is capable to integrate single external variables (continuous exposures, survival time) and high-dimensional metabolomics-data in a joint graphical model. Application to the EPIC-Potsdam cohort study revealed that the observed conditional independence patterns were consistent with the a priori mediation hypothesis: Early effects on lipid and amino acid metabolism had the potential to explain large parts of the link between three of the most widely discussed diabetes-related dietary exposures and the risk of developing type 2 diabetes. N2 - Hintergrund: Evidenz aus prospektiven Kohortenstudien belegt, dass der gewohnheitsmäßige Verzehr von Vollkorn, Kaffee und rotem Fleisch mit dem Risiko an Typ 2 Diabetes zu erkranken assoziiert ist. Dieser Risikobeziehung eventuell zugrunde liegende Mechanismen sind allerdings noch weitgehend unklar. Des Weiteren wurde gezeigt, dass Metabolitenprofile im Blut durch die oben genannten Ernährungs-expositionen beeinflusst werden und außerdem in Zusammenhang mit dem Typ 2 Diabetesrisiko stehen. Zusätzlich wurde beschrieben, dass grafische Netzwerkmodelle von Metabolitenprofilen die zugrunde liegenden Stoffwechselprozesse gut abbilden. Zielstellung: Das Ziel dieser Arbeit war es, Hypothesen bezüglich biologischer Mechanismen zu generieren, die die Assoziationen des Vollkornverzehrs, des Kaffeekonsums und des Fleischverzehrs mit dem Typ 2 Diabetesrisiko erklären könnten. Im speziellen sollten Aminosäure- und Lipidprofile als mögliche Mediatoren des Risikozusammenhangs untersucht werden. Studienpopulation: Analysen wurden auf Grundlage von Daten aus der prospektiven EPIC-Potsdam Kohortenstudie (n=27,548) durchgeführt, wobei ein Fall-Kohorten-Design verwendet wurde (n=2317, darunter 692 inzidente Typ 2 Diabetesfälle). Ernährungsgewohnheiten wurden mit einem validierten, semiquantitativen Verzehrshäufigkeitsfragebogen erfasst. Die Konzentrationen von 126 Metaboliten (Aminosäuren, Acylcarnitine, Sphingomyeline und Phosphatidylcholine) wurden zur Basiserhebung genommen Blutproben gemessen. Inzidente Typ 2 Diabetesfälle wurden im Rahmen einer aktiven Folgeerhebung detektiert und verifiziert. Die mediane Dauer des berücksichtigten prospektiven Erhebungszeitraums lag für diese Studie bei 6,6 Jahren. Aufbau der Analysen: Die theoretische Grundlage für den methodischen Ansatz dieser Arbeit bildete die kontrafaktische Theorie der Kausalinferenz. Die in Netzwerken kodierte konditionale Unabhängigkeitsstruktur wurde genutzt, um den Raum möglicher Modelle zu begrenzen, die die beobachteten Zusammenhänge zwischen den Metaboliten erklären könnten. Unter Annahme weniger grundlegender Effektrichtungen (von der Ernährung auf die Netzwerke gerichtete Effekte; von den Netzwerken auf das Diabetesrisiko gerichtete Effekte) genügt die Adjustierung für eine Teilmenge der direkten Nachbarn im Netzwerk, um netzwerkunabhängige direkte Effekte konsistent zu schätzen. Eine weitere Spezifizierung der Modelle war allerdings aufgrund fehlender Richtungsinformationen zu den Metaboliten-abhängigkeiten nicht möglich. Deshalb wurde ein Multi-Modellierungsansatz gewählt, um die Grenzen möglicher Effekte zu schlussfolgern. Alle möglichen Ernährungs-Metaboliten-Beziehungen und Metaboliten-Typ 2 Diabetesrisiko-Beziehungen wurden dadurch in eine der folgenden drei Kategorien klassifiziert: Direkter Effekt, Unklar, Kein Effekt. Querschnittsbeziehungen wurden in multivariabel adjustierten linearen Regressionsmodellen untersucht. Longitudinale Zusammenhänge wurden mit Cox-Regressionsmodellen geschätzt. Alle Modelle wurden für Alter, Geschlecht, Body-Mass-Index, prävalente Hypertonie, Ernährungs- und Lebensstilfaktoren und die Einnahme von Medikamenten adjustiert. Ergebnisse: Der Verzehr von Vollkornbrot stand im Zusammenhang mit niedrigeren Konzentrationen gesättigter und einfach ungesättigter Fettsäuren. Kaffee stand in Beziehung zu niedrigeren Konzentrationen verzweigtkettiger und aromatischer Aminosäuren und hatte potentielle Effekte auf das Fettsäureprofil in den Lipidmetaboliten. Rotes Fleisch zeigte einen Zusammenhang mit niedrigeren Glyzinspiegeln und mit höheren Konzentrationen verzweigtkettiger Aminosäuren. Außerdem stand das Fettsäureprofil in den verschieden Gruppen von Lipidmetaboliten in Zusammenhang mit dem Fleischverzehr. Des Weiteren wurden potentielle Effekte der Metabolite auf das Typ 2 Diabetesrisiko gefunden. Aromatische Aminosäuren und Lipidmetabolite mit geradzahligen, gesättigten (C14-C16) und mit spezifischen mehrfach ungesättigten Fettsäureseitenketten standen mit einem erhöhten Typ 2 Diabetesrisiko in Beziehung. Glyzin, Glutamin und Lipidmetabolite mit einfach ungesättigten und anderen mehrfach ungesättigten Fettsäureseitenketten zeigten einen günstigen Zusammenhang mit dem Diabetesrisiko. Mögliche Mediatoren der Beziehung der Ernährungsexpositionen wurden identifiziert, indem diese Informationen in gemeinsamen grafischen Modellen integriert wurden. Mediationsanalysen zeigten, dass die möglichen Effekte von Vollkornverzehr auf die Lipidmetabolite ungefähr ein Viertel des günstigen Einflusses von Vollkornverzehr auf das Diabetesrisikos erklären könnten. Die möglichen Effekte von Kaffeekonsum und von Fleischverzehr auf Aminosäuren und Lipidmetabolite könnten jeweils ungefähr zwei Drittel der Zusammenhänge mit dem Diabetesrisiko erklären. Schlussfolgerung: Grundlage für die Ergebnisse dieser Arbeit war die Entwicklung eines Algorithmus, der externe Faktoren (kontinuierlich Expositionsvariablen, Ereigniszeit-Daten) und hochdimensionale Metabolitenprofile in einem gemeinsamen grafischen Modell integriert. Die Anwendung dieses Algorithmus auf Daten aus der EPIC-Potsdam Kohortenstudie hat gezeigt, dass die beobachteten konditionalen Unabhängigkeitsstrukturen mit der a priori Mediationshypothese konsistent waren. Der frühe Einfluss auf den Aminosäure- und Lipidstoffwechsel könnte die beobachteten Zusammenhänge zwischen drei wichtigen Ernährungsfaktoren und dem Risiko an Typ 2 Diabetes zu erkranken zu großen Teilen erklären. KW - type 2 diabetes KW - nutrition KW - lipid metabolism KW - metabolomics KW - epidemiology KW - networks KW - graphical models KW - mediation analysis KW - red meat KW - whole-grain KW - Diabetes mellitus Typ 2 KW - Ernährung KW - Fettstoffwechsel KW - Metabolomics KW - Epidemiologie KW - Netzwerke KW - grafische Modelle KW - Mediationsanalyse KW - rotes Fleisch KW - Vollkorn KW - Kaffee KW - coffee Y1 - 2017 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-404592 ER - TY - THES A1 - Wittek, Laura T1 - Comparison of metabolic cages - analysis of refinement measures on the welfare and metabolic parameters of laboratory mice T1 - Der Vergleich von Stoffwechselkäfigen - Analyse von Refinement-Maßnahmen auf das Wohlbefinden und Stoffwechselparameter von Labormäusen N2 - Housing in metabolic cages can induce a pronounced stress response. Metabolic cage systems imply housing mice on metal wire mesh for the collection of urine and feces in addition to monitoring food and water intake. Moreover, mice are single-housed, and no nesting, bedding, or enrichment material is provided, which is often argued to have a not negligible impact on animal welfare due to cold stress. We therefore attempted to reduce stress during metabolic cage housing for mice by comparing an innovative metabolic cage (IMC) with a commercially available metabolic cage from Tecniplast GmbH (TMC) and a control cage. Substantial refinement measures were incorporated into the IMC cage design. In the frame of a multifactorial approach for severity assessment, parameters such as body weight, body composition, food intake, cage and body surface temperature (thermal imaging), mRNA expression of uncoupling protein 1 (Ucp1) in brown adipose tissue (BAT), fur score, and fecal corticosterone metabolites (CMs) were included. Female and male C57BL/6J mice were single-housed for 24 h in either conventional Macrolon cages (control), IMC, or TMC for two sessions. Body weight decreased less in the IMC (females—1st restraint: 6.94%; 2nd restraint: 6.89%; males—1st restraint: 8.08%; 2nd restraint: 5.82%) compared to the TMC (females—1st restraint: 13.2%; 2nd restraint: 15.0%; males—1st restraint: 13.1%; 2nd restraint: 14.9%) and the IMC possessed a higher cage temperature (females—1st restraint: 23.7°C; 2nd restraint: 23.5 °C; males—1st restraint: 23.3 °C; 2nd restraint: 23.5 °C) compared with the TMC (females—1st restraint: 22.4 °C; 2nd restraint: 22.5 °C; males—1st restraint: 22.6 °C; 2nd restraint: 22.4 °C). The concentration of fecal corticosterone metabolites in the TMC (females—1st restraint: 1376 ng/g dry weight (DW); 2nd restraint: 2098 ng/g DW; males—1st restraint: 1030 ng/g DW; 2nd restraint: 1163 ng/g DW) was higher compared to control cage housing (females—1st restraint: 640 ng/g DW; 2nd restraint: 941 ng/g DW; males—1st restraint: 504 ng/g DW; 2nd restraint: 537 ng/g DW). Our results show the stress potential induced by metabolic cage restraint that is markedly influenced by the lower housing temperature. The IMC represents a first attempt to target cold stress reduction during metabolic cage application thereby producing more animal welfare friendly data. N2 - Die Unterbringung in Stoffwechselkäfigen kann eine ausgeprägte Stressreaktion hervorrufen. Mäuse werden in Stoffwechselkäfigen auf Metallgittern gehalten, um zusätzlich zur Überwachung der Futter- und Wasseraufnahme Urin und Kot aufzufangen. Darüber hinaus werden die Mäuse einzeln gehalten und es wird kein Nist-, Einstreu- oder Anreicherungs-Material zur Verfügung gestellt, was oft als Ursache für Kältestress angeführt wird, welcher sich auf das Wohlergehen der Tiere auswirkt. Wir haben daher versucht, den Stress bei der Haltung von Mäusen in Stoffwechselkäfigen zu reduzieren, indem wir einen innovativen Stoffwechselkäfig (IMC) mit einem kommerziell erhältlichen Stoffwechselkäfig der Tecniplast GmbH (TMC) und einem Kontrollkäfig verglichen haben. Für das Käfigdesign des IMC wurden wesentliche Refinement-Maßnahmen realisiert. Im Rahmen einer multifaktoriellen Beurteilung des Schweregrades wurden Parameter wie Körpergewicht, Körperzusammensetzung, Nahrungsaufnahme, Käfig- und Körperoberflächentemperatur (Wärmebildaufnahmen), mRNA-Expression von Uncoupling Protein 1 (Ucp1) im braunen Fettgewebe (BAT), Fur Score und fäkale Corticosteron-Metabolite (CMs) einbezogen. Weibliche und männliche C57BL/6J-Mäuse wurden für jeweils 24 Stunden entweder in konventionellen Macrolon-Käfigen (Kontrolle), IMC oder TMC zweimal untergebracht. Das Körpergewicht nahm in dem IMC weniger ab (Weibchen - 1. Haltung: -6,94%; 2. Haltung: -6,89%; Männchen - 1. Haltung: -8,08%; 2. Haltung: -5,82%) als in dem TMC (Weibchen - 1. Haltung: -13,2%; 2. Haltung: -15,0%; Männchen - 1. Haltung: -13,1%; 2. Haltung: -14,9%) und der IMC wies eine höhere Käfigtemperatur (Weibchen - 1. Haltung: 23,7 °C; 2. Haltung 23,5 °C; Männchen - 1. Haltung: 23,3 °C; 2. Haltung: 23,5 °C) im Vergleich zum TMC auf (Weibchen - 1. Haltung: 22,4 °C; 2. Haltung: 22,5 °C; Männchen - 1. Haltung: 22,6 °C; 2. Haltung: 22,4 °C). Die Konzentration der fäkalen Corticosteron-Metabolite im TMC (Weibchen - 1. Haltung: 1376 ng/g Trockengewicht (DW); 2. Haltung: 2098 ng/g DW; Männchen – 1. Haltung: 1030 ng/g DW; 2. Haltung: 1163 ng/g DW) war im Vergleich zur Kontrollkäfighaltung höher (Weibchen - 1. Haltung: 640 ng/g DW; 2. Haltung: 941 ng/g DW; Männchen - 1. Haltung: 504 ng/g DW; 2. Haltung: 537 ng/g DW). Unsere Ergebnisse zeigen das Stresspotenzial, welches durch die Haltung in Stoffwechselkäfigen ausgelöst wird, und dass durch die niedrigere Haltungstemperatur deutlich beeinflusst wird. Der IMC stellt einen ersten Versuch dar, den Kältestress während der Anwendung des Stoffwechselkäfigs zu reduzieren und dadurch tierschutzgerechtere Daten zu produzieren. KW - metabolic cage KW - laboratory mice KW - refinement KW - animal welfare KW - Tierschutz KW - Labormäuse KW - Stoffwechselkäfig KW - Refinement Y1 - 2023 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:kobv:517-opus4-611208 ER -